Vous êtes sur la page 1sur 609

H.C.

BAXBAJIOB

qJICJIEHHhIE METO)];bl

AHAJilil3, AJlfEBP A,
OBblKHOBEHHblE
~H$$EPEH~HAJlbHblE
YPABHEIDIH

113.llATEJibCTBO nHA'YR.Au
MOCRBA
N.BAKHVALOV

METHODES NUMERIQUES
Analyse, algebre,
equations differentielles
ordinaires

EDITIONS MIR • MOSCOU


Traduit du russe
.par lRINA P~TROVA

Ha rjJ panq.yacno.u sr.ai,ine

© Haµ;aTBJloCTDo «HayKa>> 1973

@ Traduction francaise Editions Mir 1976


TABLE DES MATIERES

Avant-propos 9
Introduetion u
Premiire partie
METHODES NUMERIQUES
DE L'ANALYSE MATHEMATIQUE
Chapitre premier. ERREURS . . . . . . . . . . . . . . . . . . . 17
§ 1. Sources et elassification des erreurs . . . . . . . . . . . . . . 17
§ 2. Enregistrement, des nombres sur machines a
calculer electroniques 20
§ 3. Erreur absolue et erreur relative. Ecritures des donnees . . . . 21
§ 4. Erreur de calcul . . . . . . . . . . . . . . . . . . 23
§ 5. Erreur sur une fonetion . . . . . . . . . . . . . . . . 24
Chapitre II. INTERPOLATION ET PROBLBMES CONNEXES 30
§ 1. Approximation des fonetions. Position du probleme . . . . . . 31
§ 2. Polpome d'interpolation de Lagrange . . . . . . . . . . . . 34
§ 3.Evaluation du reste du polynome d 'interpolation de Lagrange 36
§ 4. Differencesi.divisees et leurs proprietes . . . . . . . . . . . . 37
§ 5.Formule d'interpolation de Newton par differences divisees . . 39
§ 6. Differenees divisees et interpolation basee sur des points multiples 42
§ 7.Equations aux differences finies . . . . . . . . . . . . . . . 46
§ 8.Polynomes de Tehebyeheff . . . . . . . • . • • . . . . . . . 55
§ 9.Minimisation de l'evaluatioli du reste d'une formule d'interpola-
tion . • . . . . . . . . . . . . . . . . . . . . . . . . . . 59
§ 10. Differences finies . . ~ • . . . . . • . • . . . . . . . . . . 61
§ 11. Formules d'interpolation de Newton pour des points equidistants 65
§ 12. Formules d'interpolation' de Bessel et d'Everett. Formation des
tableaux • • . . . . . • . . . . . . . . . . . . . 66
§ 13. Erreur d'arrondi dans l'interpolation . . . . . . . . 75
§ 14. Applications de l'interpolation. Interpolation inverse . 77
§ 15. Systemes orthogonaux et leurs proprietes . . . . . . . . 78
§ 16. PC?l~61!1es ortho~o}laux . . . . . . . . . . . . . . . . 84
§ 17. Denvat1on numenque . . . . . . . . . . . . . . . . 88
§ 18. Erreur de calcul dans Ies formules de derivation numerique 91
Chapitre m. INT~RATION NUMtRIQUE • • • . • . . . • • 94
§ 1. Form.ules de quadrature de Newton-Cotes . . . . . . . . . . . 94
§ 2. Evaluation de l'erreur dans une formule de quadrature sur une classe
de fonctions . . . . . . . . . . . . . . . . . . . . . . . 102
§ 3. Formules de quadrature de Gauss . . . . . . . . . . . . . . . 106
§ 4. Evaluation pratique de l'erreur dans des formules de quadrature
elementaires . . . . . . . • • . . . . • • . • • . . . . . . 117
6 TABLE DES MATil~RES

\'
§ 5. Integration de fonctions fortement oscillantes . . . • . . • • • 122
§ 6. Amelioration de la precision d'integration par partage equidistant
du segment . . . . . . . . . . . . . . . . . . • . . . . . . 125
§ 7. Position des problemes d' optimisation . . . . . . . . . . . . 131
§ 8. Formules de quadrature optimales sur des classes de fonctions a une
derivee . . . . . . . . . . . . . . . . . . . . . . . . . . 135
§ 9. Optimisation de la repartition des points de base des formules de
quadrature • . . . . . . . . . . . . . . . . . . . . . . . 142
§ 10. Exemples d'optimisation de la :i;epartition des points d'integration 148
§ 11. Partie principale de l'erreur . . . . . . . . . . • 154
§ 12. Formules d'Euler et de Gregory . . . . . . . . . . • . . 158
'§ 13. Regie d'evaluation pratique de l'erreur de Runge . 161
§ 14. Formules de Romberg . . . . . . . . . . . . 168
§ 15. Experiences et leur discussion . . . . . . . . . . 171
'§ 16. Calcul d'inteirales· dans des cas non reguliers . . • . . . . . • 179
:§ 17. Princi pes d' etablissement des programmes usuels avec recherche
automatique du pas . . . . . . . . . . • . . 185
·§ 18. Programmes usuels d'integration numerique 192

Chapitre IV. APPROXIMATION DES FONCTIONS ET PROBLBMES


CONNEXES . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
§ 1. Meilleures approximations dans un espace vectoriel norme • . . 201
§ 2. Meilleure approximation dans un espace de Hilbert et sa construc-
tion • . . . . . . . . . . . . . . • . . . . 203
§ 3. Transformation de Fourier discrete . . . . . . 208
§ 4. Transformation de Fourier rapide . . . . . . . 212
§ 5. Meilleure approximation uniforme . . . . . . . . 215
§ 6. Exemples de meilleure approximation uniforme • . . . . . . . 219
-§ 7. Methode iterative de construction du polynâme de meilleure
approximation uniforme . . . . . . . . . . . . . . . . . . . 225
§ 8. Ecriture du polvn6me • • • • • • . . . . . . • . . . . 232
§ 9. Procedes de calcul des fonctions elementaires • . . . . . . 239
§ 10. Vitesse d'approximation des fonctions de differentes classes 243
§ 11. lnterpolation et approximation par des fonctions-spline . • . 246
§ 12. Entropie et e-entropie • . . . . • . . . . . . . • 252

Chapitre V. PROBLBMES Ă. PLUSIEURS DIMENSIONS • 259


§ 1. Methode des coefficients indetermines , 260
§ 2. Methode des moindres carres • . . • . . . . 261
§ 3. Methode de regularisation • . . . . . . . • 263
§ 4. Exemple de regularisatior.. • . . . . . . . . • . . • . . • . 264
§ 5. Re~~ction. des problemes multidimensionnels aux problemes
un1d1mens1onnels . . . . . . . . . . . . . . . . . . . . . . 270
§ 6. Eyal~ation de l'erreur dans l'integration numerique sur un reseau
regul1er • . . . . . . . . . . . . . . . . . . . . . . . . . 278
§ 7. Minoration de l'erreur d'integration numerique . . . . . . . . 281
§ 8. Optimisation de l'estimation de l'erreur sur des classes plus vastes de
procedes d'integration • . . . . . . . . . . . . . . . . . . 284
§ 9. Methode de Monte-Carlo . . . . . . . . . . . . . . . . . . 289
§ 10. tff~!s111it~ ~~ ~e~h~d~. i~d~t~r~i~is~e~ ~e. r~s~Iu_ti~n. d~s. p~o: 293
§ 11. Acceleration de la convergence de la methode de Monte-Carlo . . 296
§ 12. Formules de quadrature de precision elevee aux points aleatoires 299
:§ 13. Choix de la methode . . . . . . • . . . . • . . • . . . . . 304
TABLE DES MATI:tRF.S 7

Deuxieme partie
PROBL:BMES D'ALG:BBRE
ET D'OPTIMISATION
Chapitre VI. M:8THODES NUM:8RIQUES DE L'ALGBBRE •• 3H
§ 1. Methodes d'elimination successive des inconnues . 812
§ 2. Methode d'orthogonalisation . . . 320
§ 3. Methode iterative simple . . . . • . . • • . 322
§ 4. Processus iteratif reel . . . . . . . . . • . . . . . . . . . . 327
§ 5. Spectre d 'une famille de matrices . . . . . . . . . . . . . . • 330
§ 6. Procede 62 d'evaluation pratique de l'erreur et d'acceleration de
la convergence . . . . . . . . . • . • . . • . . . . . . . . 336
§ 7. Optimisation de la vitesse de convergence des processus iteratifs 339
§ 8. Methode de Seidel . . • . . . • . • • • • . . • . . • . . . 349
§ 9. Methode de la plus grande pente . . • • • . . . . • • . . . . 355
§ 10. Methode du gradient conjugue • . . . . . . . . . . • . . . . 358
§ 11. Methode de Monte-Carlo pour des systemes d'eguations lineaires 364
§ 12. Methodes par iterations avec utilisation des operateurs spectrale-
ment equivalents . • . . • . . . . . . • • • • . . . . . . • 371
§ 13. Erreur sur la solution approchee d'un systeme d'equations et condi-
tionnement des matrices. Regularisation . • • . . . . • . . . 374
§ 14. Probleme de valeurs propres . . . • • • • • . . . . . . . . . 380
§ 15. Resolution du probleme global de valeurs propres d'une matrice
symetrique par la methode des rotations • • • • • • • • . • . 385
Chapitre VII. R:8SOLUTION DES SYST:8MES D':8QUATIONS NON
LIN:8AIRES ET DES PROBLBMES D'OPTIMISATION . . . . . . 390
§ 1. Methode iterative simple et problemes connexes . . . . . . . . . 391
§ 2. Methode de Newton pour Ies systemes d'equations non lineaires 396
§ 3. Autres methodes de resolution d 'une equation . . . . . . . 401
§ 4. Methodes de descente . . . . . . . . . • . . . . . . . . 405
§ 5. Autres procedes de reduction de la dimension des problemes 410
§ 6. Methodes de stationnarisation . . . . . . . . . . . . . . 414
§ 7. Que faut-il optimiser? 420
§ 8. Comment optimiser? . 425

Troisieme partie
METHODES DE R8SOLUTION NUMERIQUE
DES EQUATIONS DIFFERENTIELLES
~ORDINAIRES
Chapitre VIII. l\f8THODES DE R8SOLUTION DU PROBLBME DE
CAUCHY . . . . . . . . . . . . . . . . . . . . . . . 431
§ 1. De-feloppement de la solution en serie de Taylor . . . 432
§ 2. Methodes de Runge-Kutta . • . • . . • . • • . . • 434
§ 3. Methodes avec controla de l'erreur par pas • . . . 442
§ 4. Evaluation d'erreur dans Ies methodes a pas separes 443
§ 5. Methodes des differences finies . • . • . • . . . . . 449
§ 6. Methode des coefficients indetermines . . . . . . . . . . . . 453
ş 7. Etude des proprietes des methodes des differences finies sur des
problemes modeles • • . . . . . . . . . • . . . • • • • . . 458
§ 8. Evaluation d' erreur dans Ies methodes des differences finies 485
8 TAB'LE DES MATJt;!RFS

§ 9. Partie .principale de l'erreur . . . . . . . . • • . • . . • . • 469


§ 10. Etude des proprietes des methodes des differences finies sur des
modeles plus precis . . . . . • . . . • . . . . . . . . . • . 474
§ 11 ..
Integration de systemes d'equations . . . . . . . . . . . . . 483
§ Quelques questions generales . . . . . . . . . . . . . . . .
12. 492
§ Formules d 'integration numerique des equations qu deuxieme ordre • 499
13.
§ 14.
Evilluation de l'erreur dans la resolution numerique du probleme
de Cauchy pour une equation du deuxieme ordre . . . . . • • . 503
§ 15. Methodes bilaterales • • . • • . . . . • • . • . • . . . • • 508
Chapitre IX. METHODES DE RESOLUTION DES PROBLtMES AUX
LIMITE$ POUR LES EQUATIONS DIFFERENTIELLES ORDINAIRES 515
§ 1. Methodes simples de resolution du probleme aux limites pour une
equation du deuxieme ordre . . . . . • . . . . . . . . . . • 515
§ 2. Fonction de Green du probleme aux limites discretise . . . . . 522
§ 3. Resolution d 'un simple probleme aux limites discretise . . . . 527
§ 4. Fermetures des algorithmes de calcul . . . . . . . . . . . . . 586
§ 5. Position des problemes aux limites pour des systemes lineaires du
premier ordie . . . . . . . . . . . . . . . . . . . . . . . 543
§ 6. Algorithmes de resolution des problemes aux limites pour des
systemes d'equations du premier ordre . . . . . . . . . . . 549
§ 7. Methodes du balayage orthogonal differentiel . . . . . . 555
§ 8. Problemes aux limites non lineaires . . . . . . . . . . . . . 560
§ 9. Approximations du type special . . . . . . . . . . . . . . . 569
§ 10. ~e~herche des valeurs propres par Ies methodes des differences
fin1es • • . . . . . . . • • • • • • • • • · · · · · · · · • 577
§ U. Optimisation de la repartition des points d 'integration • . . . • 582
§ 12. lnfluence de l'erreur de calcul en fonction de l'ecriture de l'equa-
tfon aux differences finies . . . . . • . . . . . . . . . • • • 587
§ 13. Evaluation de l'erreur de calcul pour le probleme aux limites
rasolu par la methode du balayage . . 593
Bibliographie 597
Index • . . . . 603
AVANT·PROPOS

Le present livre est issu du cours que l'auteur donne depuis dix
ans a la Faculte physico-mathematique et a la Faculte d'analyse-
numerique et de cybernetique de l'Universite de Moscou ainsi que-
des travaux du Centre de calcul de ladite Universite.
Comme tout manuel de methodes numeriques, cet ouvrage expose ·
Ies notions fondamentales de la theorie concernant, dans notre cas,
l' approximation de fonctions, l 'integration, Ies problemes d' algebre
et d 'optimisation, la resolution d 'equations differentielles.
Nous assistons aujourd'hui a un developpement impetueux du
materiei de calcul (la valeur du parc augmente de plusieurs ordres
par decennie). Les machines et Ies methodes numeriques sont cons-
tamment sollicitees afin de faire face a des problemes toujours plus-
varies. D'ou une reconversion permanente de nos idees sur l'ensem-
ble des questions liees a l'application des ordinateurs et Ies tâches-
que nous imposons aux procedes de calcul. Pour toutes ces raisons.
donc il est impossible de proposer un manual panacee, et quand on
choisit un mode operatoire susceptible de nous donner la solution de-
tel probleme complique, tout manuel n'est souvent qu'une sorte
de guide general dont la seule vocation est d'inspirer le chercheur.
La creation et la mise en pratique des methodes numeriques.
relevant entre autres de l' etude purement theorique des techniques-
de resolution des problemes types, de l'analyse du travail de l'algo-
rithme dans le cas des problemes modeles et de l'experience nume-
rique. On ne saurait surestimer le role du choix de la direction des-
recherches de la construction de modeles mathematiques des ·phe-
nomenes etudies, de l'etablissement des contacts avec Ies repre-
sentants d 'autres disciplines.
Les facteurs enumeres se particularisent suivant Ies cas, si bien
qu'il est difficile de donner une recette generale. Le lecteur est done
prie de voir dans Ies raisonnements de I' auteur non pas un guide-
pour l'action mais un point de vue parmi tant d'autres.
L'efficacite des ordinateurs et des methodes numeriques se mesure-
au nombre de problemes ardus resolus ainsi qu 'au nombre d 'utilisa-
teurs gagnes en augmentant le<< confort>> de leur acces a la machine.
Ce dernier but exige qu 'on redige des programmes standard de reso-
lution de problemes mathematiques types. Aussi le present livre-
AVANT-PROPOS

reserve-t-il certaine place aux questions de la theorie des methodes


numeriques qui surgissent lors de l'elaboration de tels programmes.
Cet ouvrage doit beaucoup a Monsieur le Professeur S. Bakh-
valov, pere de I' auteur, a Messieurs A. Kolmogorov, S. Sobolev,
A. Tikhonov, de l'Academie des Sciences de l'U.R.S.S., a Monsieur
N. Tchetaev, membre correspondant de l 'Academie, a Messieurs
Ies Professeurs I. Berezine, S. Godounov, a Messieurs N. Jidkov,
V. Karmanov, A. Fili ppov, charges de cours, qui ont notablement
influence les idees de l' auteur sur Ies questions abordees.
L' auteur adresse ses remerciements a Monsieur le Professeur
E. Volkov, qui, charge de recenser le present livre, lui a apporte de
·tres precieux conseils.
La gratitude de l'auteur va a Messieurs Ies Professeurs V. Voîe-
vodine, N. Kouznetsov, a Messieurs F. Vassiliev, E. Diakonov,
I. Jileikine, V. Morozov, charges de cQurs, chez qui îl a trouve
•d 'utiles suggestions qui ont eu pour effet d 'ameliorer le manuscrit.
L 'auteur est fort reconnaissant a Madame R. Razoumeiko et a
Messieurs B. Berezine, G. Kobelkov, A. Koukarkine, K. Ossipenko,
-qui l'ont grandement aide a rediger le manuscrit.
Nikolai Bakhvalov
INTRODUCTION

Avant d'exposer la theorie · des methodes numeriques,. essayons


de la situer par rapport aux autres branches scientifiques et de donner
un bref aper~m des problemes que posent ses applications.
Les mathematiques devaient primitivement faire face a des
problemes pratiques tels que l'arpentage, la navigation, etc. D'ou
leur caractere numerique: leur hut etait l'obtention d'une solution
sous forme de nombres.
De tout temps Ies mathematiciens s'interessaient a la resolution
numerique des problemes. Les plus grands savants d 'antan etudiaient
Ies phenomenes de la nature en Ies decrivant mathematiquement
(en construisant un modele mathematique), puis en analysant cette
description. L'etude de modeles plus compliques donna naissance a
des methodes numeriques speciales dues notamment a Newton,
Euler, Lobatchevski, Gauss, Tchebycheff, Hermite ...
Nous assistons aujourd 'hui a une extension brusque du champ
d'application des mathematiques, extension qui s'explique surtout
par l' avenement et le developpement du materiei de calcul. Avec
la creation des calculateurs a programme enregistre, la vitesse des
-0perations arithmetiques passa en moins de trente ans de 0,1 ope-
ration par seconde (calcul a la main) a 3 OOO OOO operations (ordina-
teurs modemes de serie), soit un accroissement d 'environ 5 0002 fois.
Les machines a calculer nous ouvrent des horizons nouveaux,
ce qui autorise certains a evoquer la revolution industrielle provo-
quee par l'invention de la machine a vapeur. Rappelons cependant
qu'a la suite de ce bouleversement technique et du developpement
.ulterieur, deux siecles durant, des sciences et de la technique, la
vitesse de deplacement de l 'homme est passee de 6 kilometres a
l 'heure (marche a pied) a 30 OOO km/h avec Ies voyages interplane-
taires, soit un accroissement de 5 OOO fois.
L'opinion repandue sur l'omnipotence des ordinateurs donne
l 'impression que Ies mathematiciens n 'eprouvent aucune difficulte,-
ou peu s'en faut, a resoudre numeriquement un probleme et n'ont
que faire de nouvelles methodes de calcul. Or, rien n'est plus faux.
Une des lois presidant au progres des sciences est que la societe
pour se developper leur assigne souvent des tâches au-dessus de
leurs moyens. La generalisation des mathematiques appliquees
f2 INTRODUCTION

a conditionne la mathematisation de sciences telles que la chimie,


}'economie, la biologie, la geologie, la geographie„ la psychologie,.
la medecine et certaines techniques. 11 s'agit en l'occurrence de,
construire Ies modeles mathematiques de processus et phenomenes
et de mettre au point Ies methodes d'etude adequates.
D'autre part, la simulation mathematique et l'etude des modeles
afin d 'expliquer le present et le fu tur des phenomenes sont dans la
tradition des disciplines telles que la physique et la mecanique.
Ainsi, la decouverte de Neptune offre un exemple suggestif d 'etude
des modeles mathematiques alliee au traitement des resultats des
observations bien avant l'apparition des machines a calculer.
Neanmoins, on ne progressait que lentement. En effet, on n'arri-
vait pas toujours a resoudre Ies problemes qui se posaient et on se
contentait des modeles Ies plus simples. L'utilisation des machin~s
a calculer electroniques et la generalisation de l'enseignement des
mathematiques accrurent Ies possibilites de construction et ·d 'etude
des modeles. De plus en plus souvent, Ies resultats des calculs per-
mettent de deceler et de predire des phenomenes sans precedent, si
bien qu'on peut parler d'experience mathematique. Dans certains
domaines de la recherche le calcul numerique occupe une place telle-
ment importante que si on constate un ecart entre Ies resultats des
calculs et ceux des experiences, ce sont ces derniers qu' on teste afin
de detecter une erreur.
On s'imagine mal comment la recherche atomique, l'investigation
du cosmos et !'economie auraient pu progresser sans l'apport des
machines a calculer et des methodes numeriques.
Le besoin de resoudre numeriquement de nombreux problemes
a donne naissance A de nombreux procedes. De plus, voila trente
ans qu'on interprete intensement sur le plan theorique Ies techni-
ques anciennes et nouvelles, qu'on essaye de Ies systematiser.
En calcul scientifique Ies efforts sont centres sur l 'elaboration
des methodes de resolution des problemes mathematiques types.
On entend par la des problemes d 'analyse (approximation, deriva-
tion, integration), d'algebre, la resolution d'equations differentielles
et integrales, Ies problemes d'optimisation, Ies problemes inverses
(ces deux dernieres directions de la theorie des methodes numeriques
ne datent que d'une quinzaine d'annees). Ces recherches qui sont
d 'un grand secours lorsqu 'on affronte des problemes concrets„ con-
tribuent largement a elargir le champ d'application des ordinateurs
et des mathematiqries en general.
Considerons un exemple suggestif. La resolution d 'equations aux
derivees partielles se ramene a celle d 'un systeme d 'equations lineai-
res avec une matrice dont chaque ligne contient 5 a 10 elements non
nuls. Tant que Ies machines mathematiques numeriques n'existaient
pas, le nombre des inconnues ne devait pas depasser 102 • Or, on resout
aujourd 'hui des systemes dont Ies inconnues sont de 105 a 106 • Si l'on
INTRODUCTION t.3

se servait des methodes vieilles d'une trentaine d'annees, on se bor-


nerait a des equations telles que le nombre d'inconnues serait com-
pris entre 103 et 104 (le temps machine restant le meme).
L'irruption brusque des mathematiques dans de nombreuses
branches de la connaissance tient a ce que Ies memes _modeles et
methodes mathematiques s'appliquent a nombre de phenomenes
d 'une structura formelle analogue. Le modele mathematique d 'un
processus quelconque se forme souvent au cours de l'etude d'autres
phenomenes ou des echafaudages mathematiques abstraits bien
avant qu' on aborde le phenomene en question. En particulier, la
theorie des methodes numeriques, tout · comme Ies mathematiques
pures, gagne beaucoup a elaborer des constructions generales. Le
probleme est neanmoins approche differemment. Pour le mathe-
maticien <<pur>>, resoudre un probleme c'est demontrer l'existence
d 'une solution et proposer un processus convergent vers celle-ci.
Les resultats sont par eux-mâmes utiles au mathematicien << appli-
que >>, qui veut de plus que l'approximation ne c01îte trop en temps
machine et en occupation memoire. La convergence du processus
l'interesse certes, mais il desire egalement en connaître l' ordre.
La resolution numerique des problemes ·suscite egalement des ques-
tions liees a· la stabilite du resultat par rapport aux perturbations
des donnees initiales et aux arrondis.
Des disci plines mathematiques autres que la theorie des methodes
numeriques, qui sont tributaires elles aussi des machines a calculer
electroniques, connaissent un essor prodigieux. L'application du
calcul numerique et des machines dans Ies sciences de la nature
s'est repercutee sur les branches mathematiques traditionnelles.
Ainsi, l'etude des systemes hyperboliques quasi lineaires doit beau-
coup au calcul mathematique.
Science de la nature, Ies mathematiques evoluent comme telles,
et leur developpement fut determine, de longues annees durant, par
les besoins de la mecanique et de la physique. En mathematisant
telles disciplines on doit s'attendre a une action en retour de leur
part qui ne manquera pas de changer radicalement la physionomie
des mathematiques.
Et voici une autre raison de l 'influence de l' aspect application
des mathematiques sur leur aspect theorie. Les effets de la recherche
appliquee sont immediats, ce qui accroît le prestige de la science, la
rend moins occulte aux yeux de la societe et incite a augmenter Ies
investissements pour favoriser son developpement.
Le mathematicien << applique >> se heurte a toutes sortes de dif-
ficultes de nature pas necessairement mathematique.
Sans pretendre substituer des preceptes a l 'experience personnelle,
nous voudrions toutefois attirer votre attention, cher Lecteur, sur
certaines questions de caractere general. La systematisation ci-des-
.sous est fortuite et· conventionnelle.,, mais elle n'est ni plus bonne ni
14 INTRODUCTION

plus mauvaise que de nombreuses autres qui ont elles aussi droit
de cite.
1. Le choix de la direction des recherches a une importance capi-
tale. A vrai dire, la liberte d'action du chercheur est plutât re-
duite en l'occurrence car il travaille en general sur un canevas impose
du dehors.
Ceci etant, n'oublions pas que Ies problemes peuvent etre 1) sim-
ples, 2) difficiles, 3) tres difficiles. Laissez Ies premiers : ils seront
resolus progressivement sans votre intervention. Nous doutons fort
que le groupe 3) soit a votre taille. Occupez-vous donc des problemes
di ts << difficiles >>.
2. 11 faut savoir formuler dans le langage mathematique des
problemes concrets de physique, mecanique, economie, des pro-
blenies de l'ingenieur, c'est-a-dire mettre en equation le phenomene
etudie.
Le mathematicien neophyte se plaint so1,1vent des representants
des autres sciences en contact avec lui, qui ne savent << meme » pas
formuler leurs problemes. Formuler correctement un probleme
est tout aussi difficile que le resoudre et n'allez pas croire que quel-
qu 'un s'en chargera a votre place. En posant un probleme, centrez
votre attention sur le but des recherches ; le modele mathematique
adopte n 'est pas une chose figee, liee une fois pour toutes avec le phe-
nomene en question, il est fonction de l'objectif que vous poursuivez.
Avant d'ecrire des equations differentielles, de choisir la methode
de resolution et de s'approcher de l'ordinateur, reflechissez si le
calcul vaudra la peine d 'etre fait. En meme temps, il faut vous faire
a I 'idee que la plupart des resultats seront rejetes sitât obtenus.
En effet, en calcul scientifique, il est difficile de predire la nature et
la forme du resultat ev:entuel, d 'indiquer la voie dans laquelle on
cherchera la solution numerique. Le but de l 'etude et la description
du probleme sont d 'habitude precises dans le cadre de contacts entre
Ies representants de telles sciences et organisations (clients) et Ies
mathematiciens (chercheurs ou executants). .
3. Un travail fructueux dans Ies sciences appliquees suppose
une bonne formation mathematique qui seule est capable d'adapter
le chercheur a une variation incessante de problemes a resoudre.
L 'un des arguments en faveur de la connaissance des branches << inu-
tiles >> de prime abord au praticien est qu 'elles permettent un manie-
ment plus sur et plus aise des branches << utiles >>.
4. Une connaissance parfaite des mathematiques, des methodes
numeriques et une pratique suffisante des machines a calculer elec-
troniques ne garantissent nullement la resolution immediate d 'un
probleme de mathematiques appliquees. Souvent une mise au point
des procedes s'impose afin de Ies adapter a tel ou tel probleme con-
cret. Un cas typique est celui ou l' on se sert de methodes non justi-
fiables theoriquement et ou Ies estimations theoriques de l'erreur de
INTRODUCTION 15-

methode sont inacceptables pour un praticien. En choisissant la


methode ou en analysant Ies resultats, on doit se guider sur l'expe-
rience, l 'intuition et la comparaison des tests; ce faisant on doit
garantir la certitude des resultats. Aussi n'aboutira-t-on qu'en s'ar-
rachant au formalisme et en raisonnant par analogie, politique qui
permet de garantir l 'exactitude du resultat dans Ies cas ou, du point
de vue logique et mathematique, on ne peut etre sur de rien.
Considerons l'autre aspect de la question. En resolvant nume-
riquement des problemes ardus, exterieurs a sa specialite, le mathe-
maticien procede souvent comme un naturaliste en se fondant sur-
son experience et sur des raisonnements << vraisemblables >>. Il serait
bon que ce travail empirique s'appuie sur l'elaboration theorique
des methodes, sur une verification scrupuleuse de leur qualite par-
des problemes de controla de solution connue, enfin sur une confron-
tation objective avec Ies experiences. Si l 'on progresse longtemps
dans une direction sans posseder de pareilles arriere-gardes, on
risque de perdre le sens de la perspective, de commencer a douter
des resultats qu'on est en train d'obtenir. On dit qu'un bon theoricien
interprete comme bon lui semble n 'importe quel resultat des calculs
et des experiences.
5. Une fois Ies calculs termines, ii faut utiliser Ies resultats dans
la pratique. A vrai dire, on s'y prepare des !'instant ou l'on pose
le probleme si bien qu'il y a imbrication des diverses phases de la
resolution et de la mise en pratique; quand ils formulent le probleme
et le resolvent, le client et I 'executant precisent ensemble la position
du probleme et partant son champ d'application. Les?mathematiques
associees aux ordinateurs s'implantent dans Ies domaines Ies plus
divers et il arrive souvent que Ies clients n'ont aucune experience
du calcul automatique. Avant toute chose il importe de surmonter
leur apprehension des mathematiques qui s'imposent imperieuse-
ment; le client ne mettra a profit Ies resultats des calculs que s'il
Ies interprete de son point de vue et s'il se convainc qu 'ils peuvent
et doivent etre utilises. Sous reserve de bons contacts entre le client
et ]e mathematicien, le premier comprend que Ies mathematiques
et Ies ordinateurs satisfont une bonne partie de ses besoins mais
pas tous, tandis que le second se rend compte qu'il a fait quelque
chose mais pas tout ce qu 'il fallait pour resoudre reellement Io pro-
bleme pose.
Qu'on se rappelle l'histoire de la decouverte de Neptune. Un an
avant Le Verrier, Adams decouvre cette planete par le calcul, mais,
faute de contacts avec Ies astronomes, son resultat n 'est pas verifa~
experimentalement.
6. 11 est essentiel, pour le mathematicien << applique >>, de res-
pecter Ies delais fixes.
Le client est souvent enjoint de prendre la decision a une date
precise. Si Ies recherches traînent, la decision est prise quand meme_,
16 INTRODUCTION

mais a partir de considerations plus grossieres, empir1ques, voire


tout ·simplement a la legare. Et le mathematicien risque de perdre a
tout jamais la confiance du client.
Aussi vaut-il mieux trouver une solution satisfaisante dans Ies
delais prevus plutot qu 'une solution complete au moment ou on
n' en a plus besoin.
Bibliographie de l'introduction
I [15), II (40, 41 43]
PREMI8RE PARTIE

METHODES NUMERIQUES
DE L'ANALYSE MATBEMATIQUE

CHAPITRE PREMIER

ERREURS

§ 1. Sources et classification des erreurs


On distingue trois sortes d 'erreurs commises en resolvant un
probleme:
1. Des erreurs de description mathematique, y compris des erreurs
de donnees.
2. Une precision insuffisante de la methode utilisee: la solution
exacte du probleme pose necessite des operations arithmetiques en
nombre tres grand, voire illimite, ce qui implique des approxima-
tions.
3. Des erreurs d'arrondi sur Ies donnees d'entree, Ies operandes
et Ies donnees de sortie.
Nous allons donner a ces erreurs respectivement Ies noros de
1) erreurs inherentes,
2) erreurs de methode,
3) erreurs de calcul.
Illustrons ces definitions. Soit un pendule (fig. 1.1.1) *) qui
se met en mouvement a I 'instant t = t 0 • Quelle sera sa position a
l'instant t 1 ?
L'equation differentielle decrivant l'oscillation du pendule
s'ecrit
(1)

l ·etant la longueur du pendule, g l'acceleration de la pesanteur, µ


le coefficient de frottement.
Cette loi etant admise, la solution du probleme acquiert une
erreur inherente ne serait-ce que parce que, en realite, la relation

*) Les formules et Ies figures sont referencees dans le texte par trois nom-
bres designant respectivement le chapitre, le paragraphe et le numero de la
figure ou de la formule; par deux nombres qui sont le paragraphe et le numero
{dans Ies limites d'un mâme chapitre); par un seul nombre s'il s'agit d'un
m&me paragraphe.
2-01007
18 ERREURS [CH. I

entre le frottement et la vitesse n 'est pas tout a fait lineaire; une


autre source d 'erreur inherente est la definition de l, g, µ, t 0 , <p (t 0),
<p' (to).
Cette erreur inevitable est hors calcul, et seules une description
plus rigoureuse du phenomene physique et une definition plus pre-
cise des parametres permettent de la reduire.
L'equation differentielle (1) n'est pas resoluble sous
une forme explicite. Sa resolution exige le recours
a une methode numerique qui donne lieu aune erreur
supplementaire.
L'erreur de .calcul peut resulter par exemple de
la longueur finie des nombres avec lesquels on opere.
Introduisons les definitions formelles.
Soient I la valeur exacte du parametre cherche
(dans notre cas, l'angle cp dont on devie le pendule
de la verticale a I 'instant t 1), J la valeur du para-
metre correspondant a la description mathematique
Fig. U .. 1 adoptee (i.e. la valeur <p (t1) de la solution de
l 'equation (1)), /~ la solution obtenue par la
methode numerique sans arrondi, .fl une solution approchee
obtenue par des calculs reels. Alors
p1 = / - J est une erreur inherente,
p 2 = 1h - 1 une erreur de methode, (2)
p 8 = 1~ -1h une erreur de calcul.
L'erreur totale p 0 = Îii - I, i.e. la difference entre la solution
calculee et la solution exacte, verifie l'egalite evidente
Po = P1 P2 + +
Ps• (3)
Dans de nombreux cas, on entend par << erreur >> non pas Ies dif-
ferences ci-dessus mais des mesures de proximite des valeurs ap-
prochees. Ainsi, on pose, pour Ies scalaires:
Po . 17: - I I, P1 = 1l - I I, P2 = 1lh - li, Ps = I lh I; n-
avec ces notations, on a au lieu de (3)
Po ~P1 +P2 + Ps• (4)
Dans d'autres cas, la solution I et Ies approximations T, J,i, 1: sont ele-
ments d'espaces fonctionnels souvent distincts. T peut appartenir a l'espace F
des fonctions continues sur [O, 1], et Th a. l'espace Fh des fonctions discretes fh
definies aux points xn = nh, n = O, ••• , h-1 , avec h-1 entier. On mesure
alors l'erreur par un degre de proximite p (zi, z2), z1 et z2 appartenant a un
meme sous-espace ou a des sous-espaces diîferents. p (z1 , z2) est astreint d'âtre
la mesure naturelle de l'erreur et de verifier l'inegalite triangulaire
p (zi, za) ~ p (z1, z2) + p (z 2, z3) (5)
§ 1] SOURCES ET CLASSIFICATION DES ERREURS 19·

quels que soient z1 , z~h z 3 E F, Fh. Ceci etant, p (z1 , za) = O n'impliqu01
pas forcement z1 ~::"' z 2 si bien que la fonction p (zi, z2) n'est pas neccssairement.
la distance dans un certain espace metriquc.
Dans !'exemple considere on peut poser ·
p (/1, /2) = max I /1 (nh)- /2 (nh) I
0~n~h-1

quels que soient Ies espaces contcnant / 1 et / 2 •


Les mesures d'erreurs sont definies respectivement par Ies egalites
Po = P (J,T, /), P1 = P (Î, I), Pa = P (~. Î), P~ = P (Î1~. 1,i);
compte tenu de (5), elles satisfont a (4).
Une question peut se poser: pourquoi etudier l'erreur inherente
puisque a priori elle est inevitable? Cette question paraît naturelle
venant du mathematicien a qui l'on propose de resoudre des equa-
tions sans qu 'il ait discute la position physique du probleme.
Naturelle? Que nonf En effet, le mathematicien a souvent a poser
un probleme, a analyser et asimplifier Ies equations obtenues. Puis-
que tous Ies phenomenes de la nature sont en interaction, îl est ă
priori impossible de mettre sous une forme mathematique rigoureuse
un processus quelconque se deroulant reellement. Neanmoins, en
analysant l'ascendant des divers facteurs sur l 'erreur dans la solu-
tion, on ohtiendrait une description elementaire du processus avec
une erreur admissible. En general, le mathematicien se fait une idee
de la precision desiree et il effectue en consequence Ies simplifica-
tions necessaires.
Si le mathematicien ne discute pas la position physique du pro-
bleme, îl doit connaître l 'ordre de grandeur de l'erreur inherente.
En effet, lorsqu 'il resout un probleme en se fondant sur le seul << hon
sens>>, il n'a aucune raison particuliere a appliquer une methode
qui donne la solution avec une erreur largement inferieure a l'erreur·
inherente. Par consequent, s'il connaît l'ordre de grandeur de l'erreur'
inherente, le chercheur peut reduire Ies conditions imposees a la
precision de l'algorithme qu'il applique.
On a eu un jour a resoudre le probleme suivant: pour le plus grand nombre
de domaines G et de deuxiemes membres / dresser Ies tableaux des solutions
de l'equation de Poisson:
~r, =u xtxt + uxzr = I (x2 1, x2) dans G, u Ir ~ O;
r est la frontiere de G, la precision exigee des valeurs tabulees devait âtre
de l'ordre de 10-8 • Ainsi formule, le probleme etait insolubie dans Ies delais·
admissibles, et on s'est demande s'il avait ete convenablement pose.
II s'est avere que le phenomene physique etait regi par l'equation diff6-
rentielle
(k (x1 , x 2 ) ux 1 >xt + (k (x 1, x 2 ) ux2 )x2 = / (x1 , xa);

on ne savait rien du coefficient k (x1 , xf) sinon que pour les procedes de fabri-:
cation adoptes du materiau considere i etait compris entre 0,7 et 1,5. 11 est
2•
20 ERREURS [CH. I

clair que la resolution numerique du probleme initial avec une erreur inferieure
a 0,01 (et peut-âtre a 0,1) etait une absurdite. En diminuant la precision, on
a pu reduire le nombre de domaines et de deuxiemes membres vu que Ies solu-
tions dans des domaines voisins et pour des deuxiemes membres voisins sont
voisines elles aussi. Desormais, le probleme admettait ·une solution.
On voit donc qu'il est parfois commode d'etudier l'erreur inhe-
rente a la position initiale du probleme afin de reduire Ies conditions
imposees a la precision requise.
Certains auteurs adoptent une autre classification d'erreurs. L'erreur inke-
rente est pour eux l'erreur commise sur les donnees, et l'approximation de la
realite par des modeles mathematiques est dite erreur de formulation.

§ 2. Enregistrement des nombres


sur machines a calculer electroniques
. Passons en revue deux formes de representation des nombres Ies
plus utilisees pour les ordinateurs modernes.
. Dans l 'ecriture en virgule fixe tous les nombres sont inferieurs a
ţ en module et le nombre de digits apres la virgule est fixe. La ma-
~hine opere donc avec des nombres
t
X=+ ~ r:x,kq-k= ± (r:x,1, • • ., r:x,t); (1)
k=i

l'entier q est la base du systeme de numeration, et :a1, ... ,


r:x,t des
entiers compris dans Ies limites O ..<: a11.<q.
En travaillant sur des x tels que I x I < 1, l 'apparition even-
tuelle de y, IY I~ 1, entraîne l'arret de la machine. Pour l'eviter, on
introduit une nouvelle echelle. Parfois ii est difficile d 'etablir cette
~chelle a l'avance; dans d'autres cas, une echelle tres grande fait
4es le debut s'annuler en quantite importante les premiers ai des
donne~s initiales, ce qui signifie une perte d 'information conside-
rable. Le changement d 'echelle s'effectue donc souvent en cours de
resolution.
Avec la representation en virgule flottante, la machine opere avec
des nombres
t
X=± qP ~ a,,,q-k= ± qP (ett, ••• , a,); (2)
k=1

l'ordre de grandeur de p satisfait a Ip I~ p 0 •


Le systeme de numeration le plus repandu est le code binaire
(q = 2). Le decimal code binaire (q = 10) et l' octal (q = 8) sont
utilises a l'entree et a la sortie de la calculatrice. Le code ternaire
(q = 3) est d'un emploi tres restreint. Les utilisateurs des ordinateurs
Ies plus evolues utilisent Ies deux types de representation, et ils
peuvent parfois choisir la taille des nombres.
§ 3] ERREUR ABSOLUE ET ERREUR RELATIVE 21

'Le travail en virgule flottante a l'avantage de tourner Ies dif-


ficultes liees a l 'echelle des problemes, cependant le fonctionnement
de la machine s 'en trouve ralanti.
Les valeurs Ies plus usuelles sont q = 2, t = 36, p 0 = 64. Alors
q-t = 2-36 ~ 3 .f0-11, 2Po = 264 ~ 7 .f019.

§ 3. Erreur absolue et erreur relative.


Ecritures des donnees
Si a est la valeur exacte d 'une grandeur et a* une valeur ap-
prochee, on appelle erreur absolue sur a* et on note li (a*) une quan-
tite
I a* - a I ~ li (a*).
On appelle erreur relative une quantite 6 (a*) telle que
Ia*a-;a 1~.S (a*).
L'erreur relative est souvent exprimee sous forme d 'un pourcentage.
Vous rencontrerez par la suite des expressions telles qu 'un nombre
grand, un nombre tres grand, un fort accroissement d'une fonction.
On dit que x est grand si Ix I ~ 1 et si l'erreur relative en
Ix I 2-t commise sur la solution ·du probleme est permise;
si l'erreur relative de l'ordre de Ix I 2-t est inacceptable, on
dit que x est tres grand ;
par fort accroissement d'une fonction on entend que cette fonction
croît de plusieurs fois.
On definit parfois: crreur absolue a* - a; erreur relative a*a* a • Nous
adopterons la premiere definition et supposerons toujours O ~ A (a*), 6 (a*~
. On appelle chiffres significatifs d 'un nombre tous Ies chiffres de
son ecriture a partir du premier chiffre different de zero a gauche.
EXEMPLE. Les chiffres significatifs des nombres a*= 0,03045 et a* =
= 0,03045000 sont ceux soulignes. Ils sont 4 dans le premier cas et 7 dans le
deuxieme.
Un chiffre significatif est dit exact si l 'erreur absolue sur le nombre
ne depasse pas l'unite de l'ordre correspondant.
EXEMPLES. a* = 0,03045, A (a*) = 0,000003; a* = 0,03045000, A (a*) =
= 0,0000007; les chiffres soulignes sont exacts. --

Si tous Ies chiffres significatifs sont exacts, on dit que le nombre


est acrit avec tous les chiffres exacts.
EXEMPLE. Pour a* = 0,03045, A (a*) = 0,000003, a• est ecrit avec 4
chiffres exacts.
22 ERREURS [CH. I

On parle quelquefois de decimales exactes. Dans le dernier exemple


le nombre a* est ecrit avec 5 decimales exactes.
Tres souvent l 'information sur une grandeur est fournie par l'in-
tervalle de •variation de celle-ci :
(1)
ainsi,
1,119 ~a~ 1,127.
Ces limites sont generalement ecrites avec un mâme nombre de deci-
males. Puisque d 'habitude on se contente d 'une evaluation gros-
siere de l'erreur, les limites a1 , a 2 sont prises de telle fa~on que leur
difference a 2 - a1 contienne de un a trois chiffres significatifs.
Ces reserves que nous faisons en disant « souvent >>, « d 1 habitude >>, « gene-
ralement » sont destinees a ecarter l'idee d 1 une information donnee sous une
forme standard obligatoire. Si ces formes nous interessent, c'est qu'elles sont
Ies plus usuelles: donc Ies plus commodes dans les communications.
Les erreurs absolues et relatives sont generalement representees
,par des nombres a un ou deux chiffres significatifs.
L'information que a* est une valeur approchee de a entachee
.de l'erreur absolue A (a*) se met parfois sous forme commode
a = a* ± A (a*); (2)
par convention on acrit a* et A (a*) avec un mâme nombre de deci-
males. Ainsi, Ies ecritures
a= 1,123 ± 0,004,
a= 1,123 ± 4-10- 3
.sont parmi Ies plus usuelles et signifient que
1,123 - 0,004 ~a~ 1,123 0,004. +
De mâme, l'information que a* est une valeur approchee de a
affectee de l'erreur relative B (a*) s'ecrit
a = a* (1 + 6 (a*)). (3)
Les ecritures
a = 1,123 (1 ± 0,003),
a = 1,123 (1 ± 3 -10-3),
a·= 1,123 (1 ± 0,3 %)
veulent dire
(1 - 0,003) 1,123 ~a~ (1 +
0,003) 1,123.
En passant d 'une ecriture a l'autre, il faut veiller a ce que Ies
nouvelles limites de variation soient plus larges que Ies anciennes.
Dans le cas contraire, ce passage n'est pas permis. Ainsi, en passant
ERREUR DE CALCUL 23

de (1) a (2) on doit avoir


a* - 11 (a*) ~ a1 , a2 ~ a* + 11 (a*),
et en passant de (2) a (3),
a* (1 - 6 (a*)) ~ a* - /J,,. (a*), a* +
11 (a*) ~ a* (1 6 (a*)). +
Le passage de (3) a (2) donne lieu aux inegalites de sens oppose
(il y a toujours elargissement des limites!).

§ 4. Erreur de calcul,
La condition Ip I ~ p 0 conduit parfois a l'arret de la machine;
il arrive egalement qu'une faible longueur des nombres traites
donne lieu a une erreur de calcul inadmissible. Les algorithmes qui
se pretent a de tels effets a cause d 'un p limite ou d 'un t petit sont
dits instables.
La theorie des methodes numeriques comprend comme partie
jmportante l'elaboration d 'algorithmes stables tels que Ies resultats
de calcul ne soient pas trop alteres par une erreur.
Nous demontrerons plus loin qu 'une meilleure precision peut
quelquefois resulter d 'une transformation algebrique simple.
On desire trouver la plus petite racine de l'equation y2 - 140y +
+ 1 = O. Adoptons le systeme de numeration decimal et supposons
que la mantisse arrondie contient quatre ehiffres. On a
y = 10 - -V4899, V4899 = 69,992 ... ;
et apres l'arrondissement
V 4899 ~ 69,99, y ~ 10 - _69,99 = o,o!.
La meme valeur de y peut s'ecrire, si l'on << chasse l'irrationnalite
du numerateur >>, comme suit:
y = 11c10 + V 4899), v4899 ~ 69,99, .10 + 69,99 = 139,99
et apres I' arrondissement
70 + 69,99 ~ 140,0.
'Enfin
1/140 = 0,00714285 . . .'
et apres l'arrondissement
y ~ 0,007143.
Si le nombre de chiffres de la mantisse est superieur a 4, on verifie
que dans Ies deux cas tous Ies chiffres soulignes sont exacts, le se-
cond resultat etant sensiblement plus exact. En effet, dans le pre-
mier cas, la soustraction a porte sur des nombres grands voisins.
24 ERREURS [CH. I

Vu qu'il s'agit de nombres grands, ils ont ete arrondis avec une er-
reur ahsolue importante. Nous nous heurtons ici au phenomene
de perte de chiffres significatifs propre a la soustraction de quantites
voisines. Ce phenomene altere souvent Ies solutions des systemes
d'equations algebriques.

§ 5. Erreur sur une f onction


On rencontre souvent le probleme suivant. La quantite cherchee y
est fonction des parametres a 1 , • • . , an: y = y (a1 , . . . , an); le
domaine G contenant ces parametres est connu et contenu dans l'es-
pace des variables (a1 , • • • , an)- On demande d'ohtenir une valeur
approchee de y et d'evaluer l'erreur commise.
Soit y* cette valeur approchee. On appelle alors borne superieure
de l'erreur absolue et on note A (y*) la meilleure evaluation, pour
l'information dont on dispose, de l'erreur commise sur y*;. on a
par definition
A(y*)= sup ly(a1 , ••• ,an)-y*j; (1)
(a1, •.. , an)EG

la quantite 1~:l est la borne superieure de l' erreur relative.


PRoBL~ME. Demontrer que A (y*) est minimale pour
* Y1+Y2
y = 2 '
avec
Y1=infy{a1, ••. , an), Y 2 =supy(a1, ••• , an)·
G G
Considerons le eas le plus repandu de G un rectangle :
I a, - aj I ~ â (a1), j = 1, ... , n,
ou l' on a pour valeur a pprochee
y* = y (af, ... , a:).
Si y est une fonction continument derivable par rapport a ses argu-
ments, la formule de Lagrange donne
n
y (a1, .•• , an)-y* = ~ b1 (0) (a,- aj),
i=1
ou
+
b1 (0) = Ya1 (af 8 (a1 - af), ... , a:+ 0 (an - a:)), 0<8< 1.
D 'ou I' estimation
n
I y (a1, ..• , an)-y* l~A 0 (y*) = ~ B1â (a1), (3)
1
§ 5] ERREUR SUR UNE FONCTION 2&

avec
Bi= s~p 1Ya1 (a1, .•• , an) 1-
Montrons que pour
p= V (A (a:')) 2 + ... +(A (a~m2
petits, cette estimation ne se prâte pas a une amelioration sensible ..
SiLles derivees Ya 1 sont continues dans G, alors
Bi= I b1 (O) I+ o (1) pour p 4"0.
Et A 0 (y*) peut s'ecrire
A 0 (y*) = A O (y*) + 81 (p),
n (4)•
A 0 (y*) = 21 Ibi (O) IA (a1}: 81 {p) = o (p).
i=i
Pour
a1 - aj = sg (b 1 (O)) A (a!)
on a
b1 (8) (a1 - aj) .= (b1 (O) +
o (1)) sg (b1 (O)) A (a1) =
+
= ( I b1 (O) I o (1)) A (a1),
.. et alors
y (a1 , . . • , an) - y* = A 0 (y*) o (p) . + (5)·
II en decoule, compte tenu de la definition (1) de la borne superieure-
de l'erreur absolue, que
A 0 (y*) + 82 (p) ~ A (y*), 82 (p) = o (p), (6)··
et (3) entraîne
A (y*) ~ Ao (y*).
En reunissant ces deux expressions, il vient
A O (y*) + c 2 (p) ~ A (y*) ~ A 0 (y*) = A O (y*) + 8 1 (p). (7),
Ainsi, l'estimation (3) n'est pas de beaucoup superieure a la valeur·
exacte (1). Selon (7), A (y*) et A 0 (y*) sont approchees avec une.·
precision elevee par la quantite A O (y*) qui se calcule plus simple-
ment.
L'estimation (3) est souvent remplacee par
I Y (a1, ••. , an) - y* I ~ A O(y*), (8}
qui n'est pas en fait exacte et qui s'appelle estimation lineaire.
Examinons quelques exemples de definition de A (y*), A 0 (y*)·
et A O (y*) et comparons ces grandeurs.
26 ERREURS [CH. I

1. y= a 10 , a*= 1, li (a*)= 0,001. Alors

y* = 1, Ya = 10°a9 , b (O)= 10,


B= sup I 10-a I= 10,09 ... ,
9
I a-11~0.001
A(y*}= sup la10 -11=1,001 10 -1=0,010045 ... 1
la-11~0.001
A 0 (y*} = Bli (a*)= 0,01009 ... ,
A 0 (y*) = I b (O) I li (a*)= 0,01.
Ici, Ies trois evaluations different peu.
2. y=a 10 , a*=1, li(a*)=0,1. Alors
y* = 1, B= sup 10-a9 = 10-(1,1)9= 23, ... ,
la-1I~0,1
A(y*}= sup ja10 -11=(1,1) 10 -1=1,5 ... ,
la-11~0.1
A 0 (y*} = Bli (a*}= 2,3 ... , A 0 (y*) = Ib (O) I li (a*)= 1.
La difference s'avere plus prononcee.
3. On se propose maintenant d 'evaluer des fonctions elemen-
taires. Soit
Y = '\'1a1 + •• • +'\'nan,
1'1 , ••• , 'Vn prenant Ies valeurs +1 ou -1; supposons qu'on con-
naît Ies estimations I a; - ar I ~ li (aj). Dans notre cas b1 (0) ====
:::= '\'i; I b1 (0) I== 1, aussi Ies termes e1 {p) d'ordre superieur sont
absents dans (4), (6), et (7) implique
A (y*) = A0 (y*) = A O (y*) = li (a:) + ... + li (a:).
Puisque, par definition, on appelle erreur toute estimation de y -
- y*, cette relation s'ecrit de meme
li (±af ± ... ± CZ:) = li (an + ... + li (a:). (9)
Si Y = al± a2, cette egalite s'enonce sous forme de regie:
la borne superieure de l' erreur absolue sur une somme ou une dif-
jerence est egale a la somme des bornes superieures des erreurs absolues
sur les termes.
Si Ies erreurs commises sur a1 sont liees entre elles, l'estimation
(9) peut en general etre amelioree. En voici un exemple elementaire:
a 1 = a, a 2 = 1 - a, avec un a identique dans Ies deux cas; alors
quelle que soit l'erreur sur a, la somme a 1 +
a 2 est egale a 1.
Soit maintenant y = af 1 • • • a!n; alors b1 (O) = Pi (a1)- 1 y* et
n
A (y*) ~ A 0 (y*) = ~ I Pi 11 aj 1-1 I y* I li (a1)-
;=1
§ 5] ERREUR SUR UNE FONCTJON 27

En divisant par I y* I on obtient


n n
A (y*) AO (y*) ~ 6. (aj) ~ =,c
l?r~l?T= LJ IP1lm= LJ IP116(a,). (10)
;=1 ;=1
Pour Ies cas partieuliers y = a1 •a 2 ou y = a 1 -a;1 , cette relation
s' enonce quelquefois comme une regie :
la borne superieure de l'erreur relative sur un produit (resp. un
quotient) est approximativement egale a la somme des bornes superieures
des erreurs relatives sur les facteurs (resp. le dividende et le diviseur).
4. Un probleme assez frequent est l'evaluation de l'erreur com-
µiise sur une fonction definie implicitement par Pequation
F (y, ai, ... ,, an) = O. (11)
Derivant par rapport a a1, iI vient
!!__!!_+ 8F -O
oy oa1 oa1 - '
d'ou
.!JL= _
oaj
(.!!__)
oaJ
( oF
oy
)-1. (12)
Quand af, . . .' a~ sont donnes, on trouve y* comme racine de (11),
puis
b1 (0)== - oF ) ( -oF
( -oaJ oy
)-1 I(Y*, at, ... , a~)
• (13)

En faisant appel a ces quantites, on obtient l'<< estimation lineaire >>


d 'erreur (8)~
Les derivees ::. etant fonction de y, le calcul des estimations
J
strietes (1), (3) s'avere assez eouteux. · ·
5. Evaluons l'erreur sur Ies racines de l'equation du second degre
F (y, a1 , a 2) = y 2 a1 y +
a 2 :::::::; O+ (14)
connaissant Ies valeurs approchees des coefficients af, a; et leurs
erreurs A (af), A (a:).
Soit y* une solution de
y* 2 aty* +
a: = O. +
La formule (13) fournit

bi (O)= -oa-
1
8y I<ar, aţ> = - y•
-2y-•"--+-'1i-* '

b2 (0)-..!lL
- 8a2
I at> -- -
(aţ,
1
2y*+ af'
28 ERREURS [CH. I

donc
A o ( ;) _ I y* I .1 (at) + Ll (af) (15)
y - I 2y* + af I .
Considerons un domaine j a 1 I ~ b1 , I a 2 I ~ b 2 de variation
des coefficients a 1 , a 2 • L 'expression explicite des racines
at
Y = - -2+ -
ya2 4 -a,,_„
_1

entraîne que Ies racines sont des fonctions continues des coefficients,.
aussi
I Y (a1 , a 2) - Y (af, a:) I ~ ro ( I a 1 - af I, I a 2 - a: I) (16)
pour (a1 , a 2}, (af, at) du domaine, ro (Â1 , Â2 )-+ O lorsque Â1 , Â2 -+ O.
Le second membre de (15) tend vers l'infini quand 2y* -+O; + a:
en comparant (15) et (16) on voit donc que 1'<< estimation lineaire >>
d 'erreur par la formule (8) peut etre trop forte par rapport a l'estima-
tion exacte (3). En effet, dans nos raisonnements nous avons sup-
pose y (a1 , • . • , an) continument derivable par rapport aux argu-
ments a1 , . . . , an, et l'erreur sur y* etait du meme ordre de gran-
deur que .6. (aj), erreur commise sur Ies arguments. Si y* est definie
sous une forme implicite, elle n'est pas derivable par rapport a
ses arguments pour certaines valeurs des parametres, et l'evaluation
change en consequence.
Soit y* une racine double de (11) pour a1 = af, a 2 = a:. Deve-
loppons le premier membre de cette equation en serie de Taylor
dans le voisinage du point y*, af, a:. Puisque
F (y*, af, a:) = Fu (y*, af, a:) = O
quand y* est racine double de (11), celle-ci s'ecrit
d200 (y - y*) 2 + do10 (a1 - af) + doo1 (a2 - a:) + • • • = O,
avec
F yla:Jah
· . (y* , -1,fi_* a*)
2
. _ ___1.......,2~ - - - , - -
d i}k - il j Ik l '
Ies termes negliges etant de l'ordre de o (p). Dans le cas (14) d 200 = f
et alors
y-y*= + V do1o(a1-af)+doo1 (a2-a:)+o(p).
Donc, l'erreur qui entache la racine est une quantite en O (Yp):
Partant, l'erreur sur une racine d 'ordre de multiplici te l est d 'ordi-
naire de l'ordre de O (Vp).
6. L'evaluation d'erreurs sur Ies racines d'equations algebriques
peut poser un probleme qui de prime abord semble opportun et natu-
§ 5] ERREUR SUR UNE FONCTION 29

rel. On considere l' equation


n
Yn+ ~ a1yn-; = O. (17)
;=1
Soient donnes un domaine de variation des valeurs des coefficients
a1 et l'estimation A (at) ~ y. Estimer la borne superieure co des
erreurs sur Ies racines de cette equation.
PROBL:tME. Etablir la mâme evaluation pour l'equation (17) avec I af I,
I af I ~ 2, /l (af), /l (ar) ~ y.

Si le domaine de variation des aţ est tel que pour tout element


{a1} de ce domaine l'equation peut posseder une racine l-uple, on
ne peut esperer une evaluation d'un ordre meilleur que O (..Vy).
Cependant, la racine de l'equation est simple et l'ordre de gran-
deur O (y) est possible a l'exeeption d'un ensemble de valeurs des
coefficients de mesure nulle. Ainsi, une estimation d'erreur de
l'ordre de O (V'Y) serait trop forte pour la plupart des a~, ... , a!,
ce qui met en doute son utilite.
7. Voici un autre probleme type frequent dans Ies applications
et qui se resout d 'une fa~on semblable.
Soit y* une approximation d'une racine de l'equation
I (y) = a;
on demande d'evaluer l'erreur commise.
Calculons
a* = I (y*).
Pour y* - y petits, l'egalite
f (y) - f (y*) = a - a*
entraîne
f' (y*) (y - y*) ~ a - a*,
donc
* a-a* a-f (y*)
y- y ~ I' (y*} = f' (y*} •

Pour a = O, eas le plus repandu, il vient


* ,_ I (y*)
y- y -,..., - I' (y*) •
CHAPITR.E II

INTERPOLATION ET PROBL~MES CONNEXES

L'approximation des fonctions est un probleme qui est suscep-


tible de se resoudre aussi bien separement que dans le cadre d 'autres
problemes plus vastes. Le present chapitre est consacre a ce procede
d'approximation tres repandu qu'est l'interpolation. L'interpolation
est un outil auxiliaire de premier plan de l' analyse numerique,
notamment dans l 'integration et la derivation numeriques, la
resolution d 'equations differentielles, etc. Nous voudrions au
prealable rappeler au lecteur certaines definitions et discuter
diverses fayons de poser un probleme d 'approximation des fonc-
tions (§ 1).
Un ensemble d'elements M constitue un espace vectoriel s'il est muni des
operations internes d'addition et de multiplication par un nombre (reel ou
complexe) satisfaisant aux conditions:
1) l'addition est associative: (x + y) + z = x +
{y + z),
2) l'addition est commutative: x +
y = y + x,
3) ii existe un element nul O tel que x +O= :x: quel que soit x E M,
4) 0-x = O pour tout x E M,
5) (a + P) x = ax + ~x,
6) a {x + y) = ax + ay,
7) a (Px) = (a~) x,
8) 1-x = x.
On introduit dans l'espace vectorial la notion de dependance et d'inde-
pendance lineaires d'elements. Un systeme d'elements X1, ••• , Xn d'un espace
vectorial M est dit lineairement dependant s'il existe des c1 , ••• , cn non tous
nuls tels que
C1X1 + ... + CnXn = o.
Dans le cas contraire, le slsteme est lineairement tndependant.
Un sous-ensemble H d un espace vectoriel est un sous-espace vectortel
si x, y E H implique ax + ~Y E H quels que soient a et a.
Un espace !!fi, est dit metrique si l'on peut faire correspondre a deux quelcon-
ques de ses elements la distance p (x, y) verifiant Ies conditions :·
1) p (x, y) ~ O, p {x, y) = O si et seulement si x = y,
2) p (x, y) = p (y, x),
3) p (x, y) ~ p (x, z) + p (z, y) quels que soient x, y, z E $,.
L'espace dl, s'a:epelle espace vectoriel norme si a) il est vectoriel et b) on peut
faire correspondre a tont element f E St, un nombre reel li f li appele norme
de f, tel que
1) li fli ~ O, li fli = O si et seulement si f = O,
2) li af li = I a I li f li pour tout a complexe,
3) li f1+ +
f2 li ~ li f1 li li f2 11.
t] APPROXIMATION DES FONCTIONS. POSIŢION DU PROBU:ME 3t

11 est evident qu'un espace vectorial norme est un espace metrique avec
pour distance
p (f1, f2) = li Î1 - f:a 11-
0n dit d'un espace vectoriel norme qu'il est strtr.tement norme si on a
li f1 + f li =
2 li f1 li + li f2 li
si et seulement si f 2 = cd1 , ct ~ O.
On dit que le produit scalaire est defini dans l'esp·ace vectoriel !R si a tout
couple ordonne d'elements f1 , f 2 E!Jl on a fait correspondre un nombre complexe-
(f1, f 2) et si
1, (f1, f2) = (f2, f1),
2. Quels que soient f1 , f2 , f 3 E St, et ai, ct 2 complexes, on a
(ct1f1 +
ct2f2, f 3 ) = ct1 (f1, f 3) +
ct2 (f:,1, fa).
3. (f, f) ~ O et (f, f) = O seulement pour f = O.
Ces proprietes du produit scalaire en entraînent d'autres, notamment:
4. Cfs, ct1f1 + ct2f2) = CXi (fa, f1) +
a~ Cfa, f2),
Quels que soient f1, f2 E 9/, , on a Ies inegalites:
5. I (f1, f2) 1 ~ (f1, f1) (f2, f2).
2

6. li f1 + f2 li ~ li fJ li + li f2 li, oii li f li = -V (f, f).


7. Le signe d'egalite de la propriete 6 n'a lieu que pour f 2 = ctfi, a~ O.
La propriete 6 signifie que l'espace vectoriel 9t muni du produit scalaire-
est un espace vectorial norme, et, par consequent, un espace metrique avec
P cr1, r2> = 11 r1 - r2 u= -V Cf1 - r2, r1 - r2>·
La propriete 7 traduit le fait que c'est un espace strictement norme.

§ 1. Approximation des fonctions.


Position du probleme
Le contexte du probleme d'approximation d'une fonction peut
etre, on le verra dans la suite, des plus divers. Les techniques pro-
posees sont si nombreuses qu'on se demande parfois si cette diversite
n'est pas due a l'absence d'une approche scientifique. Si cette ap-
proche avait existe, peut-âtre aurait-elle permis de degager une
methode d'approximation a la fois optimale et universelle. On se
pose d 'ailleurs la meme question en etudiant Ies autres branches de
l'analyse numerique. Pourtant, quelque captivante que paraisse
l 'idee d 'une approche universelle, la variete des methodes est une
consequence logique de l' abondance des fa~ons dont on pose le
probleme. Les differents chapitres de la theorie des approximations,
et notamment l'interpolation, peuvent etre assimiles a l'etude des
modeles abstraits de certaines classes concretes de problemes.
1. Ci-dessous un probleme simple conduisant a l'approximation
des fonctions. On observe aux instants discrets x1 , • • • , Xn Ies
valeurs d 'une fonction j (x) ; on demande de restituer ses valeurs
pour d'autres x. Le meme probleme se pose dans Ies conditions sui-
vantes. En effectuant des calculs sur machine l' on a a determiner
la valeur d 'une fonction compliquee en divers points et a plusieurs
reprises. Le calcul direct est alors parfois a remplacer par le calcul
32 INTERPOLATION ET PROBLEMES CONNEXES [CH. II

des valeurs en des points isoles, et d'autres valeurs s'obtiennent


moyennant cette information.
II arrive qu'on sache, certaines considerations supplementaires
aidant, que la· fonction d'approximation doit âtre de la forme
f (x) ~ g (x; a 1 , • • • , an)-
Si Ies parametres a 1 , • • . , an sont definis par la condition de coin-
cidence de/ (x) et de fonction approximante aux points x1 , • • • , Xn:
g (xi; a1 , • • • , an) = f (x1), j = 1, ... , n.r.
on est en presence d 'une methode d' approximation appelee interpo-
lation. Si le poiilt x n'appartient pas au segment [min xh max x,1,,
-0n parle de l'extrapolation.
2. On sait souvent que la fonction est bien approchee par des
fonctions d 'une certaine forme, par exemple par des polynomes,
mais on ignore la faţon de choisir au mieux le degre du polynome
approximant. Le probleme se complique singulierement si Ies valeurs
donnees de la fonction sont entachees de grosses erreurs.
3. En redigeant un programme d 'experiences, on se heurte au
probleme suivant. On connaît la forme d'un bon approximant de
la fonction, mettons que ce soit un polynome du deuxieme degre.
D'autre part, Ies valeurs de la fonction sont mesurees avec une grande
erreur. On demande d'obtenir une meilleure approximation relati-
vement a une certaine norme avec un nombre minimal de mesures.
Ce probleme se rencontre en biologie, chimie, physique, geographie
et art militaire.
Parlerons plus en detail des _plans d'ex.periences dans !'industrie chimique.
Le parametre de sortie essentiel du produit, par exemple la qualite du Kapron,
est defini par une serie de parametres dont certains sont fonctions de la matiere
premiere et d 'autres sont controlables. On demande d 'augmenter au maximum la
production de Kapron de premiere qualite. Pour le faire on doit former une
fonction traduisant les relations qui existent entre la productivite et ces para-
metres. Considerons le cas oii cette fonction est un polynome du deuxieme
degre en 10 parametres. Ce polynome contient 66 coefficients dont la recherche
exige au moins 66 mesures. Chacune d 'elles est entachee d 'une erreur acciden-
telle essentielle due a des facteurs echappant. a tout controla et a toute mesure.
Aussi doit-on, pour reduire le role du hasard, augmenter le nombre de mesures.
Par ailleurs, cliaque mesure caute relativement cher du moment qu'elle neces-
site une modification du regime de travail de l'entreprise. Cette modification
s'echelonne de plus sur une periode prolongee parce que l'unite de production
en question doit en fin de compte faire sien un regime de travail stationnaire
satisfaisant aux valeurs donnees des parametres. Le probleme d'approximation
des fonctions par le~el nous avons commence le presant numero est bien
l'aboutissement de 1 analyse de ces phenomenes contradictoires.
4. Un probleme d 'approximation se pose de meme lorsqu 'on
elabore des programmes standard de calcul des fonctions elemen-
taires et speciales. Ces fonctions possedent d 'habitude des proprietes
particulieres permettant de reduire notablement le volume de calcul.
§ 11 APPROXIMATION DES FONCTIONS. POSITION DU PROBU:ME 33

Ce probleme s'enonce comme suit. On considere toutes Ies fonc-


tions g (x) dont le programme de calcul est enregistre en k cellules
de memoire de la machine et telles qu'une certaine norme li/ - gll
de l'erreur ne depasse pas e. Parmi ces fonctions choisir celle dont
le calcul exige un temps machine minimal.
La norme est choisie selon Ies circonstances. Dans la plupart
des cas on prend li/ li = sup I f I, [a, b] etant le segment sur lequel
[a, b]
on approche la fonction.
II arrive souvent qu'on ait besoin d'une precision plus elevee
en certains points. Ainsi, un programme usuel de calcul de sin x
aşsure la petitesse de l'erreur en norme

li/ li= sup Ip (x) f (x) I, p (x) = min (1019 , x-1).


ro. ; 1
On a introduit le facteur p (x) pour verifier la condition de petitesse
de l'erreur relative sur sin·x pour x petits.
Il en est de meme de la condition de temps machine minimal. Le cont
peut en general dependre du point en lequel on calcule la fonction. Soit t (x)
ce cont. Si l'on ne dispose -pas d 'information sur la frequence avec laquelle
on calcule la fonction sur telles ou telles parties du segment, on mesure Ies
conts par
T=sup t (x).
X

En presence d 'une telle information on a


T = Et (x).
5. Si la fonction est donnee par sa eourbe representative ou par
une expression analytique eompliquee, on voit apparaître des pro-
blemes variationnels de types differents. Convenons par exemple de
partager le segment [a, b] en l parties
[a,_1 , a 1], i = 1, ... , l, a 0 = a, az = b,
puis d 'approeher la fonction sur chaque segment partiel [a 1_ 1 , a 1]
par le polynome
ni
f(x) ~ g(x)= ~ a1x"
k=O
ou la fonction rationnelle

3-01007
34 INTERPOLATION ET PROBLBMES CONNEXES [CH. II

Parmi de telles. methodes d' approximation, on recherche celle qui


est optimale dans un sens ou dans l'autre. Le procede le plus usite
est le suivant: on impose d 'avance la condition ni = ... = ni,
m1 • • • = mi, on fixe le nombre l de segments partiels et on opti-
mise la methode pour a 1 , • • • , ai-1 , n et m.
Dans le cas particulier l = 1, on a le probleme de meilleures
approximations uniformes par des polynomes ou des fonctions ration-
nelles sur un segment fixe. On en reparlera au chapitre IV.
6. La forme de la fonction qui approche depend essentiellement
du but de l'approximation. Supposons que la fonction est approchee
avec le degre de precision voulu par un polynome du dixieme
degre ou par l'expression a1 sin ro1x +
a 2 sin ro 2x. La deuxieme
ecriture est plus commode a utiliser dans un probleme theorique,
la simulation ou dans un processus de fabrication; elle necessite par
contre bien plus d 'operations arithmetiques dans le cas ou la fonc-
tion se calcule sur machine.
Dans la suite nous aborderons l 'interpolation dans le detail.
Si nous avons mis !'accent sur ce probleme, c'est qu'il se connaît
de nombreuses applications directes et aussi pour la raison suivante.
L'interpolation polynomiale, outil majeur de l'analyse numerique,
est a la base de la plupart des methodes de- resolution d 'autres pro-
blemes. Elle joue en analyse numerique le meme role que le deve-
loppement taylorien en analyse classique.
On etudiera . parallelement certaines questions generales dont·
l'importance pour d'autres chapitres de l'analyse numerique est
certaine. ·
§ 2. Polynome d'interpolation de Lagrange
De toutes Ies techniques d 'interpolation la plus utilisee est
l'interpolation lineaire, l'approximation etant cherchee sous la
forme
n
g (x ; a., ••• , an)~ ~ ai<pi (x),
i=1

ou _<pi (x) sont fixes et Ies coefficients a, sont determines par la con-
dition de coincidence avec la fonction approchee aux points d'in-
terpolation x 1 :
n
I (x1) = ~ aicpdx1), j = 1, ... , n. (1)
i=1

Le procede permettant de determiner a, en resolvant directe-


ment le systeme (1) est con.nu sous le nom de methode des coefficients
indetermines.
§ 2] POLYNOME D'INTERPOLATION DE LAGRANGE 35

Le cas le plus etudie est celui de l'interpolation par Ies poly-


~mes ·

(2)

Alors
i-1
<pi (X ) = X ., i = 1, ... , n,
et le systeme (1) deviant
n
~ atxj- 1 =/(x,), j=1, ... , n. (3)
i=1

Nous supposons implicitement que Ies x 1 sont distincts. Le deter-


minant du systeme, a savoir det [xJ- 1 ], etant different de zero (deter-
minant de Vandermonde), le systeme (3) admet toujours une solution
et une seule. On a donc demontre l'existence et l'unieite du poly-
nome d 'interpolation de la forme (2).
11 nous sera possible d 'expliciter le polynome (2) sans faire ap-
pel a la resolution directe du systeme (3). Notons neanmoins que
dans d'autres cas on n'y arrive qu'avec beaucoup de difficultes
de sorte qu'on est oblige de resoudre directement le systeme (1).
Soit Bqt• •.•• qh un symbole tel que
1 pour qt= . .. =q1,.=0,
6
qt. • • •• qk ={ O pour Ies autres jeux de valeurs q1, •.• , q,,.
Le probleme d 'interpolation est rasolu si l'on construit des poly-
nomes <1> 1 (x) de degre n - 1 tels que <I>, (x1) = 61_, pour t., j =
= 1, . . . , n. Le polynome
n
gn (x) = ~ / (x1) (!>J (x)
;=t
est le polynome d 'interpolation cherche ; en effet,
n n
gn (x,) = ~ I (x,) (!)1 (x,) = ~ t (x,) a,_,= I (xi);
i=1 r-1

de plus, le degre de gn (x) est n - 1.


Vu que <I>, (x 1) = O pour j :fo i, <1> 1 (x) est divisible par x - x 1
lorsque f:fo i; nous connaissons donc n - 1 diviseurs du polynome
de degre n - 1, d'ou
. (l)i (z.) = const• [l (x -x,).
#i
3*
36 INTERPOLATION ET PROBL'8MES CONNEXES [CH. II

La condition <Di (xi)= 1 donne


X-XJ
<D•(x)=
i II - - .
i=l=i
Xi-ZJ

Le polynome d 'interpolation (2) mis sous la forme


n
gn (x) = Ln (x) = ~ f (xi) II x-x; (4)
Zi-Xj
i=1 i=l=i ·
est appele polynome d'interpolation de Lagrange.
lntroduisons la fonction
n
©n (:z:) = IT (X-.Xj)•
i=i
11 est immediat que
n
©~ (x) = ~ [ IT (.x-x1)];
1'=1 i-l=h
pour z=.xi, k =f:: i, le crochet s'annule parce que contenant le facteur (xi-xi)•
Ainsi ·
©~(.x1)= IJ (xi-XJ),
j::J:i
.x-x1
le coefficient II---
Xi-XJ
s'ecrit
j::J:i
©n (x)

et le polynome de Lagrange
n
(5)

§ 3. Evaluation du reste
du polynome d'interpolation de Lagrange
Supposons t<n> (x) continue et evaluons la difference entre / (x)
et le polynome d'interpolation gn (x) qu'on vient de construire.
Posons
q> {z) = / (z) - gn (z) - K CDn (z),
K. etant choisia partir de la condition q> (x) = O, ou x est le point
en lequel on evalua l' erreur. On a visiblement
K = f(x)-gn (x) •
©n (x)

o
DIFFgRENCES DIVIS:eEs ET LEURS PROPRI:eTgs 37

Pour un tel K, la fonction q> (z) s'annule eil n 1 points xi, ... , Xn, +
x. En vertu du theoreme de Rolle, la derivee q>' (z) s'annule en n
points au moins. En a ppliquant ce theoreme a cp' (z), on obtient que
sa derivee cp" (z} s'annule en n - 1 points au moins. En poursuivant
on aboutit au resultat suivant: cp<n> (z) s'annule au moins en un
point ~ qui appartient au segment [yi, y2 ]:
Yi = min (xi, ... , Xn, x), y2 = max (xi, ... , Xn, x).
Puisque
q><n> (z)· J(n) (z) - Kn I,
la condition cp<n> (~) = O entraîne
K -- f<n) (t)
ni •
La relation q> (x) = O s'ecrit encore
f (x)- gn (x) = /<n>(~~ ~n (x) , ~ E[Y1, Y2], (1)
expression du reste.

§ 4. Differences divisees et leurs proprietes


Le polynome d 'interpolation peut s'interpreter comme la gene-
ralisation d 'une tranche de la serie de Taylor.
La notion de difference divisee generalise celle de derivee. Les
differences divisees d'ordre zero f (xi) coincident avec Ies valeurs de
la fonction /(xi); Ies differences divisees premieres (du premier
ordre) sont definies par l'egalite
f (x•. X)= f (x1)-f (xt) (1)
& ' j Xj-Xi '

Ies differences divisees secondes par


f (x• . x • x ) - f (XJ; x1i)- f (xt; XJ)
l' J' k - XJi-Xi •

D'une maniere generale, on definit les differences divisees d'ordre k


f (xi ; . . . ;
X1i+1) au moyen des differences d' ordre k - 1 par la
formule
. . ) _ f (x2 ; · • • ; X1t+1)- f(x1 ; . • • ; Xk)
/ (X1 ' • • • ' Xk+t -
·
-----------""-------------- •
Xk+i -Xt
(2)
L'ecriture / (z1 ; ••• ; xk) est parfois remplacee par (/) (x1 ;
ou [z1 ; ••• ; xk].
LEMME.

(3)
38 INTERPOLATION ET PROBLlmES CONNEXES [CH. II

Demontrons-le par recurrence; pour k = 1, (3) deviant/ (.xi) =


=f (x1); pour k = 2, (3) coincide avee (1). Supposons que eette
egalite est satisfaite pour k ~ l. Alors

• • ) f(z9 ; ..• ; Zz+1)- /(:c1 ; ••• ; zz) __


f (xi ' • • • , .Xz+1 = ------------------------'-
zz+1-z1

~ nf (~~,-.,,) - rI f r::_.,i) .
. (l+1 l )
- Zl+f ~.,. ~1
J=2 i=l=J .,..- f=1=;
2~i~l+1 1~f~l

Quand j =I=- 1, l + 1, le eoeffieient de/ (.x1) du demier membre est


1 t
(ZJ-Zi) 11 (:CJ-:&i)
i:f=J
1:S:i:S:l

i. e. ii est de la-forme demandee; pour j = 1 ou ; = l 1, / (x1) +


ne figure que dans un terme du demier membre et son eoeffieient
est lui aussi de la forme demandee. Le lemme est demontre.
La relation (3) donne lieu aux eonsequenees immediates:
1. Une difierence divisee est un operateur lineaire de la fonction /:

(a.J1 + a,J,J (.x1; • • • ; Xk) = a.J1 (Xi; • • •; .X1i) +


+ a.J2 (X1; • • •; X1i)•
2. Une differenee divisee est une fonction symetrique par rap-
port a ses arguments .X1, • • • , .xk (e'est-a-dire qu'elle est eonservee
par toute permutation de ees derniers).
Si la fonetion est donnee aux points x1 , • • • .,, Xni alors

f (:c, ;:&z,:&s)• •••••


: .."."!.f:z,; •.. ;:enJ
.... ......
f (:c,,.,;:cnJ···········

est le tableau de ses differences divisees.


§ 5) FORMULE DE NEWTON PAR DIFF~RENCES DIVIS~ES 39

§ 5. Formule d'interpolation de Newton


par differences divisees
Moyennant Ies differences divisees on obtient une autre expres-
sion du polynome d 'interpolation (2.2).
On a l'e~alite

Comparant avec (4.3) on s'assure que la parenthese n'est autre que


f (x; x1 ;
• • • ; Xn). On peut donc acrire

f (x) - Ln (x) =f (x; x 1 ; ••• ; Xn) ron (x). (1)


Soit Lm (x) le polynome d 'interpolation de Lagrange base sur
Ies points x1 , . • • , Xm• Ln (x) se met alors sous la form~ ..
Ln (x) = L1 (x) +. (L 2 (x) - L 1 (x)) + ... + (Ln (x) - Ln-t (x)).
(2)
La differenee Lm (x) - Lm-i (x) est un polynome de degre m - 1
s'annulant aux points x1 , • • • , Xm-t puisque Lm-i (x1) = Lm (xi) =
= f (x1) lorsque 1 ~ j ~ m - 1; par consequent,
Lm (x) - Lm-l (x) = Âm-irom-1 (x)., rom-1 (x) =
= (x - x1) •.. (x - Xm-J•
Posant x = Xm, on obtient
f (xm) - Lm-1 (xm) = Âm-1rom-1 (xm)•
D'autre part.,: faisant n = m - 1 et x = Xm dans (1) il vient
f (xm) - Lm-1 (xm) = f (xm; X1; • • •; Xm-J rom-1 (xm)-
Ainsi, Âm-i = / (x1 ; ••• ; Xm), et
Lmr (x) - Lm-i (x) = f (x1 ; • . . ; Xm) rom-1 (x) ;
portant ees quantites dans (2), on trouve
Ln (x) = f (x1) + f (x1 ; x 2) (x - x1) + . . .
... + f (x1 ;_ ~ •• ; Xn) (x - xi) ... (x - Xn-1). (3)
40 INTERPOLATION ET PROB~ES CONNEXES [CH. II

C'est l'expression du polynome d'interpolation de Newton au moyen


des differences divisees. En comparant (1) et (3.1) il vient
f (x'. . .
X1' ••• ' Xn)- _n_l_'
_/<n>m
ou Yt <.~<.Ys• (4)

En particulier, si / (x) est un polynome


l
Pzx= ~ b1x;
i=O
de degre l<.n, cette formule donne
pour l=n„
Pz (x0 ; ••• ; Xn) ={ bn
O
pour l<n
quels que soient x 0 , • • • , Xn.
Pour simplifier le calcul du polynome d 'interpolation, on uti-
lisera le procede d' A itken.
Soit L<k,k+i, ... ,h (x) un polynome d 'interpolation qui prend
ses valeurs aux xh, . . . , x z, en particulier Loi> (x) = f (xh). On a
Ies egalites suivantes:
L . X - L<h+1, .. . , l+O (x) (x-xh)-L(li, .. .• l) (x) (x-xz+1)
(h,h+1, ••• ,l+1)( ) - xz+t-Xk '
(5)
en effet, le second membre est un polynome de degre l - k 1 +
qui se confond avec / (x) aux points xk, ... , Xz+i· Dans le procede
d 'Aitken, on trouve Lc1 , ... ,n) (x) en calculant successivement a
l'aide de la formule (5), Ies elements du tableau de valeurs des poly-
nomes d 'interpolation
l{f){,:)
l (.c) l(t,zJ(tEJ
. (Z) l ,. ,I l(l,l,8/.c)
l /. ,\ (2,lJ)I~/ ••.
(3)1.CJ ••••••••••
:··· ····· ······ ,. . .. . .. . . ... ..:·::L,.,.,., I.ci
...... • • • •• ,,.,,..,n)f' 'I
l {nJf:J:)• ·• • •••• • •. •. .

On se sert volontiers de ce schema dans le probleme suivant:


Soit le tableau de valeurs d'une fonction / (x); on demande de
determiner au mieux, pour chaque x, la valeur de/ (x) en interpolant
Ies valeurs donnees par le tableau.
Supposons x fixe. Numerotons Ies points dans l'ordre de crois-
sance de I xi - x I, Designons comme d'habitude L< 1, .•. ,m> (x)
par Lm (x).
Plus haut nous avons obtenu la representation (1) de l'erreur
f (x) - Lm (x) = f (x; x1 ; ••• ; Xm) rom (x),
§ 5] FORMULE DE NEWTON PAR DIFF:eRENCES DIVIS:eES 41

et l' egali te
Lm+1 (x) - Lm (x) = / (x1 ; . . .' (6)

Vu que pour I x - xk I petits,

I (X ·, X i,• • • ., wm
... ) ~ ml""
,..,, Jm (x) ~ f (x 1,· • • • ,· x m+i ) ,

îl en resuite
Lm+1 (x) - Lm (x) ~ f (x) - Lm (x). (7)

Aussi la quantite Bm = I Lm+i (x) - Lm (x) I est-elle une estima-


tion approchee de l'erreur dans la formule d 'interpolation / (x) ~
~ Lm (x). On calcule a tour de role L 0 (x), L 1 (x), e1 , L 2 (x), e 2 , • • • ;
si, pour un certain m, on a em =::;;;; E, E etant la precision voulue,
on arrete Ies calculs et on pose f (x) ~ Lm (x). Si cette inegalite
n'est verifiee pour aucun m, on cherche Bmo = min em et on fait
m
f (x) ~
Lm 0 (x); dans le cas ou ce minimum est atteint pour plu-
sieurs m, on en choisit le plus petit. 11 arrive souvent qu 'a partir
d'un certain m, Ies quantites em ont tendance a augmenter, ce qui
fait abandonner sur le coup le calcul de Lm (x), em.

Ce choix de m de meme que la fa~on de prendre Ies points xi dans l'ordre


des distances A x ne sont pas optimaux.
Considerons la fonction / (x) = _!_h • avec h complexe.
x-
PROBLEME. Demontrer ·que pour cette fonction on a

11 en decoule qu'en approchant la fonction par un polynome de degre n,


le maximum de precision est realise lorsque
les points xi sont choisis dans l'ordre de crois- 11
sance de I (x - xi)/(h - xi) 1- La quantite
I (x - xi}l(h - Xi) I est inferieure a 1 pour
les points a gauche de la droite AB: Ix -
- xi I = I h - x 1 I (fig. 2.5.1), et superieure
a cette valeur pour les points a droite de AB.
Pour rendre l' erreur minimale, on prendra
donc tous Ies points A gauche de AB et 011
negligera ceux a droite. Avec une disposition 8
arbitraire des points, ces conclusions ne satis-
font pas au principe de numerotage adopte li,ig. 2.5.1
ci-dessus.
Par ailleurs, ii est peu probable qu'on puisse indiquer procede d'inter-
polation qui soit optimal pour n'importe quelle fonction.
42 INTERPOLATION ET PROBLBMES CONNEXES (OH. II

§ 6. Differences divisees et interpolation


hasee sur des points multiples
On demande de construire un polynome g 8 (x) de degre s - 1
verifiant Ies conditions donnees:
gs (x1) = f (x1), • - ·, gims-1) (x1) = fms-1) (x1),
(1)
(mn-1)( ) .t<mn-1){ )·
gs ( Xn ) = Ks Xn = F
/ ( Xn ) , • • ·, Xn ,

ici tous Ies x, sont distinets, s = m1 + ... +


mn. On dit que g 8 (x)
est un polynome d 'interpolation a points multiples x1, ••• , Xn
respectivement de multiplicite mi, ... , mn.
g 8 (x) se definit de fa9on unique. En effet, menons la demonstra-
tion par !'absurde et ~upposons qu'il existe deux polynomes de
degre s - 1 verifiant Ies conditions (1). Alors leur differenee
Q8 (x) est telle que
... = O~ms- i) (x1) = O,
Os (x1) = ... ,
Os (xn) = ... = oimn- 1>(xn) =o;
et Ies points x 17 • • • , Xn sont Ies zeros de Q8 (x), de multiplici te
respeetivement m1 , ••• , mn. Le polynome Q8 (x) ~ O de degre
s - 1 possede done s zeros, par consequent, Q8 (x) O.
Supposons ensuite que / (x) soit s fois eontimlment derivable.
=
On demontre l'existenee du polynome d'interpolation g 8 (x)
verifiant Ies eonditions (1) en l'obtenant sous une forme explicite.
On se fixe une suite d'ensembles de points xf;, O< e < 8 0 ,
i = 1, ... , n, j = 1, ... , ml, qui soient. tous distinets pour O<
< 8 < 8 0 • xf; ~ xi lorsque e ~ O. On pose en partieulier
xf; = x, (j - 1) e. +
Formons le polynome d 'interpolation g! (x) de degre s - 1 qui
coincide avec / (x) en xi;. Le tableau des differences divisees assoeie
a cet ensemble de points a la forme
f(:c,7; :x~)
f(, e e e 1
e e)
f,(.:c,z;:&15 .r,,;:x,z;iC!S✓-
e •• •
f{x,3 )
. ..... ••• • •••
...........
••
.
·e .... •······ .. · · ··· ·: ...... •·Y-(:r,f;~;;...;z:,) (2)
f(,.Ztm,J···· .........•• • ••••••• • •· ··•···· .,
f( e eJ
11:xe) ,.z,m,;::z, •···· •····
(' 21
.... • •••••
.... •••••• • •.'
,r.;enmn„...... •····
§ 6] INTERPOLATION BASlllE SUR DES POINTS MULTIPLES 43

Ecrivons la formule d 'interpolation de Newton par differences


divisees
g! (x) =A!+ Aî (~-x~1)+ A~ (x-xî1) (x-x~2)+ .. .-+
+A!_t(x-x~1) •.• (x-x!m n -1),
ou
Ai = I (x~ 1), · A~ = I (xn ; xî2),
A a2 = f (xe11 ,. X12 e ), • • •, Aaa-1 = f (xe11 ,. xe12 .,
e ., X13 • • • ., xenmn) •
En exprimant Ies differences en fonction des deri vees ii vient
e • • ,,,.e ) f<m-l) (ZÎzm)
f (Xi!, •. • , ""im = (m-l) I •

Le passage a la limite pour e-+ O donne


• e 8 /<m-h (xi)
!:~f(xil; . • •; Xim)= (m-l)I • (3)

Ainsi, toutes Ies differences de la forme / (xfi; ... ; xfm) du


tableau (2) tendent, pour e ~ O, vers des limites qui se notent natu-
rellement / (x 1 ; • • • ; x 1) ; (ii resuite de (3) que la valeur de la limite
~
m-!+1 fols
ne depend que de m - l et x 1). On a
/<P> (xt)
I (x, ; ... ; xi) = P
1
(4)
p+i tols
On demontre par recurrence sur I'ordre de la differenee que toutes
Ies differenees de notre tableau possedent des limites. La propriete
est immediate pour Ies differenees d 'ordre zero coincidant avec
Ies valeurs de la fonction. Supposons que cette propriete a ete de-
montree pour Ies differences . d '-ordre q - 1.
Exprimons chacune des differences d'ordre q moyennant Ies
differ_enees d 'ordre q :- 1 :
e . . ~ - f(zf, l+1; •.• ; xjp)-f(xfz; ... ; xj, p-1>
/ ( Xu , • • • , X,r,) - e e • (5)
X;p-Xil

Pour fixer Ies idees, nous nous plaoons dans. le cas l < m„ 1 < p.
Quand j = i, l' existenee de la limite des diffărences d' ordre q decoule
de (3). Quand J=foi, la limite du denominateur dans le seeond membre
de (5) est x 1 - x 1 =fo O et celle du numerateur existe par hypo-
these. Le premier membre admet done aussi une limite. Ainsi,
nous avons ...dâmontre _...que toutes Ies differenees d' ordre q tendent
INTERPOLATION ET PROBL:8MES CONNEXES [CH. II
44

vers des limites, done il en est de meme pour toutes Ies differenees du
tableau. La limite du premier membre de (5) se note
f (xi; .•. ; x 1 ; xi+1; •.• ; xi+ 1 ; ••• ; XJ; ••• ; XJ)·
'---v---' '------v---' ---.,,.--'
mi-l+1 fois mi+i fois p fois

Le tableau de limites des differenees


f(x,J
f(:c,;:z,)
f(x 1) f(:c,;:c,;:c,) •.... ....
f(:c,;:z,J
f(:c,J f{';,;:.~;:z,;:czJ. .•..
·•··•· . •f(.x;;:c,; .. ·; :Cn)
t(:c,) ········
f(:c,;:cz}' .. .... ....
f(.xz) .... ....
....
f(:&nJ , ••..•••

peut etre rempli moyennant la formule (4) et la relation de reeur-


renee, con~ equenee de (5):
f (xi; ••. ; xi; ..• ; XJ; ••• ; XJ) =
'---V---' . ---..,.--'
mi-l+1 tois p fois

I (xi
_ ;_•••
_;__,
Xi ; ••• ; XJ ; ••• ; Xj)- f (xi ; •.• ; Xi ; ••• ; XJ ; ••• ; Xj)
'---....,.-.J

mi-l fois p fois mi-l+i fois p-1 fois


(6)
Xj-Xi,

pour j =I= i.
11 en resulte que Ies coefficients
Ies limites Ak avee
A: tendent, pour e -+- O, vers

Ao = f (x1), A1 = f' (x1),


A2 = I" ţ1) ' ••• , Âs-1 = f (X1 ; . • • ; X1 ; ••• ; Xn ; ••• ; Xn}.

Ainsi, lorsque e -+o O, Ies polynomes g! (x) tendent vers un eertain


polynome
Cs(x)=Ao+A1 (x-x1)+A 2 (x-x1)2 + ...
•. • +As-1 (x-x1)m1 ... (x-Xn-1)mn-1 (x-xn)mn-1 =
= f (xs) + I (x1; X1) (x-x1)+ f (x1 ; x 1 ; x 1) (x-x1)2 +... (7)
Cs (x) s'ecrit
m1
Ks (x) = LJ
'°'
f<i-1> (xi) i-1
(i-i) 1 (x- xi)
m1
+ O ((x-x1) ).
i=i
§ 6) INTERPOLATION BASI!lE SUR DES POINTS MULTIPLES 45

On voit qu'il verifie Ies conditions imposees au point x1 • Le poly-


nome d 'interpolation etant unique, g! (x) ne varie pas par la per-
mutation x1 = xi, x 1 = x1 • Aussi le polynome limite verifie-t-
il Ies conditions donnees en tout point x 1, i.e. c'est bien le polynome
cherche.
Le reste s'obtiendra d'une fa~on plus simple si Ies suites de xt
satisfont, pour O < e < e0 , a la relation

xi; E ly1, Y21,


ou, de meme qu' au § 3,
y1 = min (x, x1, ••• , Xn)., y 2 = max (x, x1, ••• , Xn).

Conformement a (3.1), on a
f (x)- g: (x) = e(a~ ~~ 8
)) ro: (x) ; (8)
ici
n mi
ro!(x)= IJ IT (x-xf;).
i=1 ;=1

Si x =I= Xi, • • • , Xn, passons dans (8) a la limite pour e tendant vers
zero. Puisque le premier membre possede la limite/ (x) - g 8 (x) et
n
lim ro! (x) = ro 8 (x) =
8➔ 0
IJ (x-xi)mi,
i=i

ii existe lim /<a> (~ 8) = z (x); donc


8➔ 0

f ( x)- gs (x) = -z8-(z)1- ros (x). (9)

En pnssant a la limite pour e -+ O dans Ies relations


M 1 = min pa> (x)<f< 3>(~)< max /< 3 >(x) = M 2 ,
~•~ ~-Y~

on obtient M 1 ~ z (x) ~ M 2 • D'apres le theoreme de Rolle, il


existe un point ~ E [y1 , y 2 ] tel que z (x) = j<s> (t).
L'egalite (9) deviant
f (x)- gs (x) = J<; ,m ros (x). (10)
Conformement a (5.1), on a
f (x) - g! (x) = I (x ; xî 1 ; ••• ; x!mn ) ro! (x).
46 INTERPOLATION ET PROBLbES CONNEXES [CH. II

Par passage a la limite (8 ~ O), il vient


/ (x) - gs (x) = / (x; Xi; ... ; Xn) OOs (x). (11)
La comparaison avec (10) donne
J<a) m
I ( X .' X1 '
. .
• •• '
-
Xn) -· -s-1- '

qui reste vraie lorsqu'on passe a la limite pour x ~xJt j queleonque.


II s'ensuit de ces relations que 1a formule (5.4)

I (x1,• • - t<N> (t)


.•• , xN+1)- Nr

(dans des notations differentes) reste egalement juste pour x1 , • • •


• • • , XN+i non tous distincta.
Nous venons de demontrer l'existence du polynâme · d'interpo-
lation verifiant Ies eonditions (1). Le probleme d 'interpolation pour-
rait egalement s'enoncer comme suit:
Soit un tableau de nombres a11 , i = 1, ... , n, j = 1, ...
• . . , m,. On demande de former un polynâme g8 (x) de degre s - 1
satisfaisant aux conditions
g!i-U (x1) = au, i = 1, ... , n, j = 1, ... , m,.
On a la un probleme equivalent au probleme initial car on peut
toujours trouver une fonetion / (x) reguliere telle que
j<i-t> (xi)= aii.

§ 7. Equations aux diff erences finies


On appelle equations aux dif/erences finies des equations reliant
Ies valeurs de fonctions d'arguments entiers. En analyse discrete,
leur role est analogue a celui des. equations differentielles et inte-
grales en analyse mathematique classique.
Examinons un cas elementaire, A savoir une equation lineaire
par rapport a une fonction inconnue de I' argument entier:
k
ly= ~ adn)y(n+i)=f(n). (1)
i=O
Cet analogue aux differences de I' equation differentielle lineaire
d'ordre k
k
ly = ~ b1 (x) y<i> (x) = f (x) (2)
i=O
porte le nom ·. d 'equation aux differences lineaire d' ordre k.
§ 7) EQUATIONS AUX DIFFBRENCES FINIES 47

L'etude de cette equation, ainsi que Ies raisonnements du para-


graphe precedent, montre que des cas exceptionnels tels que racines
multiples, points multiples d 'interpolation se traitent souvent par
passage a la limite dans un cas ordinaire.
Les equations (1) et (2) seront examinees simultanement.
Chacune d'elles est de la forme Ly = h, avec L un operateur
'lineaire. L'equation Ly = O est dite homogene; Ies formules

y=y(C1 , • • • ,Chn) et y=y(Ci,-•-,Cz,x)

representent la solution generale correspondante si, en substituant Ies



valeurs des parametres C on obtient n 'importe quelle solution de
l'equation consideree. Si V est solution particuliere de l'equation
non homogene Lv = h, la difference y - v est solution de l'equa-
tion homogene: L (y - v) = h -. h = O. Ainsi, la solution gene-
rale d 'une equation complete est la somme d 'une de ses solutions
partieulieres et de la solution generale de l'equation homogene
associee. Les solutions y1 , . . . , Ym de l'equation homogene Ly = O
sont dites lineairement dependantes dans le domaine de variation
considere de la variable independante s'il existe des Ci, ... , Cm
non tous nuls tels que C1y1 + ... + CmYm == O. Dans le cas con-
traire, ces solutions sont lineairement independantes. Si Ies fonc-
tions u 1 sont solutions de Lu = O, ii en est de mâme de toute fonc-
tion ~ C1u 1 vu que
i

Soient, pour fixer Ies idees, x ~ O le domaine de definition de (2)


et n ~ O celui de (1).

THBOR:E:ME

Si bh (x) =I= o pour X ~o et Si ak (n) =I= O pour n~O et


bJ (x) sont tous continus pour a1 (n) sont tous bornes pour chaque
~~O, n~O,

alors la, solution generale de l' equation homogene Ly = O s' ecrit

ou Y1 , y,,, sont des solutions lineairement independantes de Ly= O.


48 INTERPOLATION ET PROBLm!ES CONNEXES [CH. II

D:8MONSTRATION

Selon le theoreme d'existence L'equation homogene ly= O


Îy = O admet une solution pour peut s'ecrire:
n 'importe quelles conditions ini- y (n+k)=
tiales y (O), ... , y<k-t> (O). k-1
_
- -
"'1 a1 (n)
~ ak (n)
(
y n
+ i') • (3)
i=O
Si l'on se donne y (O),
••• , y (k -1) 1 on calcule succes-
si vemen t y (k), y (k+ 1), . . . a
· partir de (3). Ainsi, quels que
soient y(O), ... , y(k-1), l'equa-
tion l (y) = O admet une solution.
Conformement au theoreme Cette solution est unique
d 'unici te, cette salut.ion est puisque les valeurs d 'une solution
unique. quelconque verifient (3), or, les
va]eurs y (k), y (k+ 1), . . . se
definissent de fa9on unique a
partir de· cette equation.
Notons Yi (x) les solutions de Notons y, (n) les solutions de
ly = O avec les conditions ini- ly= O avec les conditions ini-
tiales tiales
Yi<i- t> -- u,-1,
~. . ;.,, 1· -- 1, ... , k. Yi(j-1)=6i-i: i,j=1, ... ,k.
Ces solutions forment un systeme lineairement independant.
En effet, si
k k
~ C,ydx) == O, ~ CiYi (n) == O,
i=1 i=t

alors on a pour j = 1, ... , k alors on a pour j = 1, ... , k


k h
O= ~ Ciyf;- 1> (0)= O= ~ Ciy;(j-1)=
i=1 i=1
k
= ~ Cl,i-i= c,.
i=1
=
k
~ C161_;=
i=i
c,.
Par conseq~ent, dans le cas
k
~ CiYt==O
i=1

tous Ies C, sont forcement nuls et Ies fonctions Y1, •.• , Yk lineaire-
ment independantes.
§ 71 :eQUATIONS. AUX DIFFiRENCES FINIES 49

Soit y (x) une solution de Soit y (n) une solution de


ly = O. La fonction ly= O. La fonction
"
z (x) = ~ y<i- 1>(O) Yi (x)
h
z (n)= ~ y (j-f)yJ (n)
j=i j=1

est soiution de cette equation sous Ies conditions initiales


y(O), •.• , y(k-1>(0). y (O), ... , y (k-1) ..
Vu l'unicite de la soiution de
Zy=O, on a ly= O, on a
k h
y (x) = ~ y<i- 1> (O) y1 (x). y(n)= ~ y(j-1)y,(n).
i=1 j=i

C.Q.F.D. C.Q.F.D.
Dans Ies cours d'equations differentielles, on demontre le theoreme suivant.
Si l'on connaît k solutions lineairement independantes de l'equation homogene
ly = O, on trouve la solution de l'equation non homogene (2) en resolvant
dG_if<h = g1 (x),
avec g 1 (z) connues. De meme, connaissant k solutions lineairement indepen-
dantes de l'equation homogene ly = O, on ramene la resolution de l'equation
complete a celle des equations aux differences simples
C1 (n + 1) - c 1 (n) = g 1 (n),
avec g 1 (n) connues. L'interet pratique de ces tbeoremes etant minime, nous
nous permettons de passer outre.
On se propose maintenant d'etudier Ies equations a coefficients
constanta
h h
ly = 21 biy<1>(x) =
i=O
ly= ~ a,y(n+i)=
i=O

bk*O
=f(x), (4) = f(n), ah =r!= O (5)
et Ies equations homogenes correspondantes
h k
ly = ~ b1y<1> (x) =
i=O
o. ly = ~ aiy (n
· i=O
+ i) = O. (7)

Recherchons les solutions particulieres de I'equation· homogene.


Portant dans (6) la solution Dans le cas de l'equation (7),
particuliere supposee egale a . on ecrira la fonction exp ('1.n)
exp ('1.x), on obtient sous la forme µn, µ= exp '1..
k Portant dans (7) on obtient
( ~ bi'1.1) exp ("-x) = O. 1t .
i=O ( ~ aiµ.i) µ.n = O.
i=O
4-01007
50 INTERPOLATION ET PROBLbES CONNEXES [CH. ~I

Ainsi, a chaque .racine de l'equation


k
~ b,i-..i == O.
i=O
(8) I (9)

appelee equation caracteristique, correspond la solution particuliere


exp (ÂX).
Si toutes Ies racines de l'equation caracteristique sont simples,
on obtient k solutions distinctes. Montrons qu 'ii correspond a toute
raeine l-uple de cette equation l solutions distinctes de l'equation
homogene
exp (Âx), x exp (Âx), . . . I
µn , Cinµn-l1 , • • •, Cl-1
n µ
n-1+1

•.. , x 1- 1 exp (ÂX).
Soit, pour fixer Ies idees, Â1 = ... ·= Âz, µ 1 = ... = µz.
Decomposons le polynome earaeteristique en produit de faeteurs
k li
~ atµi=ak [l (µ-µJ),
i=O i=1
et se fixons un parametre reeI e > O, 8· -+ O.
Prenons ÂJe tels que Prenons µ; 8 tels que
a) .ils sont distincts pour a) ils sont distinets pour
j = 1, ... , l, j=1, ... ,l,
b) ils tendent vers Â; quand b) ils tendent vers µ1 quand
e-+ O, quels que soient j-<;.k. 8 -+ O, quels que soient j-<;. k.

Formons Ies equations earaeteristiques assoeiees a ces racines


k h k k
0= bk lJ (Â-Â;e) = i=O
i=i
~ b1 Î..Î. 8 0= ak
j=t
lJ (µ- µJe) = i=O
~ ai µ 1•
·
2

On a de tou te evidenee
bte -+ bt aie -+ ai (1 O)
pour e-+ O.
A ees equations caracteristiques sont associees Ies equations

i=O
h
~ bteY!x= 0. (11) I i=O
k
~ aieYe. (n + i) = O. (12)

Admettons qu'avec un e superieur a zero, nous pouvons trou-


ver Ies soiutions :
§ 71 :8QUATIONS AUX DIF~RENCES FINms 51

y,, (x) de I' equation (( 11) telles y,, (n) de l'equation (12) telles
que pour tout X >O, n
existe la que pour tout n >0, il existe la
limite limite
lim Ye (x) = Y (x), lim Ye (n) = Y (n).
e-o e-o
et Yt (x) converge, avec toutes ses
derivees jusqu'a l'ordre k inclus,
vers Y (x) uniformement sur
tout segment fini [x1, x 2 ].
En passant a la limite dans En passant a la limite dans
(11) .et en tenant compte qe (10), · (12) et en tenant compte de (10),
on obtient que la fonction limite · on obtient que la fonction limite
Y (x) satisfait a l'equation (6). . Y (n) satisfait a l'equation (7).
Formons Ies suites de y,, (x) et de Ye (n) qui .convergenţ vers Ies
solutions particulieres de (6) et (7) associees aux racines multiples~
On utilisera avec succes Ies differences divisees. Commenţons par
le cas d'une racine double. Posons
Y2e (x) = (exp Â.X) (Â1e; Â2e) =
_ exp (Â2eX) - exp (ÂteX) µ;e-P.1e
- Â2e-Âte
µ22-P,te
Ces fonctions sont visiblement solutions des equations (11),
(12). Recrivons-les comme suit:
Y2e (x) = x exp (Â1eX) X Y2e(n)=
X
exp ((Â22 - Â ) x)
ie -
1 = n-1 ,
JJ,22
n-2 •
-rJJ,2e Jl,te
+ • • • + JJ.12n-1 •
(Â2e-Âte) :& •

Par passage a la limite pour 8-+ O il vient


Y2e (x) ~ x exp (Â1x) I Y2e (n) -+ µÎ-
1
+ ... + µr-1 =
= nµ1n-1 •.
Nous obtenons ainsi la deuxieme solution lineairement indepen-
dante associee a la racine double. Le cas d'une racine de multipli-
cite su perieure se traite de faţon analogue. Pour 1 <. q <. l, posons
Yqe (x) = (exp (Â.X)) (Â1e; • •• ; Âqe). I Yqe (n) = (µn) (JJ,1e; • • • ; JJ,qe).
Selon le lemme (4.3)
Yqe (x) s'ecrit Yqe (n) s'ecrit
q q
"'1 n·
~ Cje exp (ÂjeX) ~ CjeJJ,je
;=1 j=i
et donc est solution de (11). et donc est solution de (12).
4*
52 INTERPOLATION ET PROBL"BMES CONNEXES (CH. II

Considerons d'abord le cas ou tous Ies


ÂJs, j=1, ... ,q, µ; 8 , j=1, ... ,q,
sont reels.
Moyennant la· formule (5.4)
'/q-l (t)
f (x1, .•. , Xq)= (q-t) ! , ou Y1~~~Y2, (13)
on obtient
,xq-1
Yqe (x) = (q-i) 1 exp ('J...8 x), Yqe (n) = C!- 1µ:-q+t.t
ou Âe E[min ('J...1e, • • •, Âge), ou µe E[min (µ1e, ••• , µqs),
max (Âte, ••• , Âqe}] • max (l,l,1e, ••• ~ µqe} ].
Lorsque e -+ O,
rrcJ-1 n-q+t
Yqe ( x) -+ Y q ( x) = Yqe (n) -+ Y. q ( n) = '-'n µ1 .
,xg-1 (15)
= (q- t)! exp (11x). (14)

Si ÂJe (resp. f.1.Je) ne sont pas tous reels, Ies relations (14) (resp. (15)) restant
en vigueur, mais non la demonstration puisque pour x1 , • • • , xq complexes la
formule (13) ne joue plus. ·
Bornons-nous a demontrer (14), (15) en choisissant specialement "J..; 8 , f.1.Je·
On suppose alors que µ1 :/= O; pour µ 1 = O, on prend f.1.Je = U - 1) ş, et la
demonstration ci-dessus reste entiere. Pour e O, posons >
ÂJ e = Â1 +
(j - 1) 8 (16) µie= µ1 (1 U - 1) 8) (17) +
avec j = 1, ... , l. avec j = 1, ... , l.
En utilisant (4.3) il vient
q
~ exp[(ii.1+(j-1)e)x]
(exp (ÂX)) (1'.1e ; •.• ; Âqe) = LI [J
;=l i=p; ((Î..1 + (j-1) e)-(Â1 + (i-1) e))
q
=(~ exp(j....;_f)ex
.= IJ ((j-1) e- (i-1) e)
)exp(Ât.X)=
1
i+i
'
= ((exp x) (O; e ; ... ; (q-1) e)) exp (Â1x) ;
de meme
q
~
(µ n) (µte., ••.; µqe ) = LI µf (1 +U-1) e)n
.= 1 [I (J.1.1 (1 +(J-1) e)-µ1 (i+(t-1) e))
i=l=i
'
q
-(~ (i+(j-1) e)n ) n-q+1_
- ·= 1 fl ((1+U-1)e)-(1+(i-1)e)) µ1 -
' i;f.=i
§ 7) :8QUATIONS AUX DIFmRENCES FINIES 53

D'oii, vu (13),
(exp (ÂX)) (Â1 8 ; ••• ; Âqe) = (µ 71) (µte ; • • • ; µqe) =
xq-1
(q-i) 1 exp((Â1+1'.8 )x), ·
- = ci-1µ1-q+1ji:-q+1
oii ou
O< Î < (q-1) 8.
8 1 <iie< 1+(q-1)e.
Il en decoule que pour e -+ O, on a Ies relations
(exp (Î.x)) (Â1 8 ; ••• ; Âqe) -+ Yq (x), (J-1.n) (µ1e; ••• ; µq 8 ) -+ Y q (n),
q pouvant etre egal a 1, ..• , z.
On voit que dans le cas de l'equation (7) tout comme dans (6)
on a pu associer a chaque racine l-uple de l'equation caracteristique l
solutions differentes.
TH:80R:Ell\lE. L'ensemble de toutes les solutions associees aux racines
de l' equation caracteristique (9) / orme un systeme fondamental (i.e.
elles sont lineairement independantes et la solution de (7) peut
etre obtenue sous forme de leur combinaison lineaire).
En voici une demoristration sommaire. Soient y1 (n), ... , Yh. (n) des solu-
tions particulieres de (7).
LEl\lME. Le systeme de solutions y 1 (n), ••• , Yk (n) est fondamental si

det li Yt U - 1) li::-/= O.
En effet, supposons que ces fonctions sont lineairement dependantes. 11
existe alors des Ci non tous nuls tels que
k
~ Cigi (n)=O
i=1

quels que soient n, en particulier pour n = O, •.. , k - 1. Or, la condition


det li Yi U - 1) li =I= O implique que le systeme d'equations lineaires
k
~ CiYi (j-1)=0, j=1, .. . , k,
i=1

n 'admet que la solution triviale C1 = ... = Ck = O, ce qui contredit notre


hypothese. Soient y1 (n), ... , Yk (n) des solutions verifiant la condition du
lemme. Montrons que toute solution de (7) est combinaison lineaire de ces
solutions. Le systeme
k
~ Ciydi-1)=Y (j-1), j=1, ... , k,
i=1

admet une solution pour n'importe quels y (O), ••• , y (k - 1). Ainsi, on
peut indiquer pour y (n) quelconque des C1 , • • • , Ck tels que la solution de
INTERPOLATION ET Pl{OBLi!:MES CONNEXES (CH. II

l'equation homogene
I&
z (n)= 21 CtYi (n)
. i=i

coincide avec y (n) pour n = O, ••• , k - 1. L'unicite de la solution d'une ·


equation aux differences realisant Ies conditions initiales y (O), ••• , y (k - 1)
entraîne
I&
y(n)=z(n)=~ CiYi(n)
i=i

quels que soient n. Le lemme est demontre.


Si l'equation caracteristique (9) a toutes ses racines distinctes, on a, pour
• n
Yt (n) = l'i,
det li Yi (i-1) Ir= lJ {µi-µ;) #- O.
i>j

Considerons le cas general ou certaines racines de (9) sont multiples:


1'1 = ... =µlt, fJ.is+i = ... = fJ.11+l9• ••• ; µ1, fJ.Zt+l• fJ.Zt+12+1, • • • sont
distinctes. Ecrivons des solutions particulieres de l'equation aux differences
perturbees (12):
Yte (n) = (µn) (µ1e), Yt e (n) = (µn) (µ1e; • • • ; fJ,z e),
1 1
Y lt+i, e (n) = (µn)(µh+i, e>, • • ·' Y1t+l2, e (n) = {µn) {µ11+1, e; • • • ; µl1+l2, e>,

On a vu que le choix special {17) des racines de l'equation perturbee fait


YJe (n) -+- Y<.1> {n) pour e-+- O avec

Y<1> (n)=µf, yc2, (n)=C!µf- 1, ••• ,


(18)
y(lt>(n)=CU-tµi-h+i, y(h+i) (n)=µÎi+t' ...

11 est clair que W8 =det li Y;e (j-1) li-+- det li Y<i> (j-1) ll=W. Transformant
lineairement Ies ligncs de la matrice li Yie (j-1) li on a

I 'accent du signe de produit signifie l 'ahsence de facteurs (µiţ-fJ,Je) tels que,


pour s -+- O, µ 12 et µ 18 tendent vers une mâme limite, II en restdte
W=lim W 8 =f:. O,
e-o
et le systeme de fonctions Yd> (n) est fondamental, c.q.f.d.
THSORtl\lE. L 'ensemble des combinaisons lineaires
l
21 CqC!- 1µf-q+t (19)
q=i
§ 8) POLYNOMES DE TCHEBYCHEFF 55

des solutions particulieres de (7) associees a la racine µ 1 de multiplicite l


co'i neide avec l' ensemble des f onctions
Pz-1 (n) µ1, (20)
ou P z-i (n) sont des polynomes arbitraires de degre l - 1.
Puisque toute fonction cţ- 1 µf-q est un polynome de degre q - 1 < l
en n, toute fonction de la forme (1.9) est representable sous la forme (20).
D'autre part, soit P 1 _1 (n) un polynome de degre l - 1 en n. Chaque polyn6me
de degre l - 1 est un polynome d'interpolation du meme degre pour lui-
mâme quels que soient l points d'interpolation. Aussi peut-on faire n =l,
Ln = Pz-1 , I= Pz_1 dans (5.3). Posonsdeplusx1 =; - 1 etx = n; onobtient
P 1_i(n) = A 0 + A 1n + A 2 n (n -1) + ... + Az-1 n (n - 1) •.•
• • • (n - (l - 2)),
ou A 1 = Pz _1 (O; ... ; ;) ; cette egalite se recrit
l-1
Pz_ 1 (n)= ~ cqcţ- 1 i1.l-q, cq=Aq(q-1) tµ1- 1 ;
q=O
il s'ensuit que toute solution du type (20) peut se mettre sous la forme (19).
Le tbeoreme est demontre.
Ainsi, le systeme fondamental (18) peut etre remplace par
Y1 (n)= µ1, Y 2 (n) =nµt ..• , Yz, (n) =nlt- 1 µ1,
Y1t+1 (n) = µ~+1, •.. ,
forme qui s'avere souvent plus commode.
Considerons maintenant l' equation aux differences
k m-1
~ a,y (n+ i) = (~ C1n;) an. (21)
i=O i=O
Soit o une racine de multiplicite l de l'equation caracteristique (9);
en partieulier, si a n'est pas racine de cette equation, l = O. On
demontre que (21) a une solution particuliere de la forme
l+m-1
( ~ d1ni) Gn ; (22)
i=l
d 1 sont trouves par la methode des coefficients indetermines.

§ 8. Polynomes de Tchebycheff
Les polynomes de Tchebycheff T n (x) (n ~ O) sont definis par
Ies relations
T O (x) = 1, T 1 (x) = x,
Tn+i (x) = 2xTn (x) - Tn-i (x) pour n > O. (1)
56 INTERPOLATION ET PROBLIDdES CONNEXES [CH. II

En utilisant la formule de recurrence (1) on obtient, par exemple,


T 2 (x) = 2x2 - 1, T 8 (x) = 4x3 - 3x,
T 4 (x) = 8x4 - 8x2 + 1, T 5 (x) = 16x 6
- 2Ox3 + 5x, ...
Le terme de plus haut degre Tn+i (x) s'obtient du terme precedent
T n (x) en multi pliant celui-ci par 2x, donc, pour n > O, T n (x) =
= 2n-1xn.
Les polynomes T 2n (x) sont des fonctions paires et Ies polynomes
T 2n+1(x) des fonctions impaires.
La propriete est immediate pour n = O. Supposons qu' elle est valable
pour un certain n. Nous obtenons alors: 2xT 2n+1 (x) (fonction paire) et, con-
formement a (1), T2 n+2 (x) (fonction paire). Alors 2xT 2n+2 (.x). est impaire et
T2n+s (x), impaire selon (1). .
On a pour tout e
cos((n +
1) 0) = 2 cos 0 cos n0 - cos ((n - 1) 0).
Posant 0 = arccos x il vient
cos ((n+1) arccos x)= 2.x cos (n arccos x)-cos ((n-1) arccos x).
La fonction cos (n arccos x) verifie la meme equation aux differences
par rapport a la variable n (1) que Tn (x); pour n = O et n = 1, Ies
conditions initiales sont Ies memes:
cos (O -arccos x) = 1 = TO (x},
cos (1-arccos x) = x = T1 (x);
aussi pour tout n
T n (x) = cos (n arccos x). (2)
Donc,
I Tn (x) I ~ 1 si I X I ~ 1. (3)
I Tn (x) I n'est forcement inferieur ou egal a 1 pour chaque x. Si I x I > -1,
alors arccos x n'est pas reel, et le cosinus de ce nombre est superieur a 1.
La relation de recurrence (1) est une equation aux differences
d 'equation caracteristique
µ2 - 2x~t +1= O,
d'ou
µ 1,2 = x
1. ± V x2 -
Pour x =fo +1, Ies racines sont simples, donc Tn (x) = C1 µf + C 2 µ~.
Les conditions initiales T O (x) = 1, T 1 (x) = x donnent C1 =
= C 2 = 1/2 ; de cette faţon
(4)
§ 8] POLYNOMES DE TCHEBYCHEFF 57

Pour x = z complexes, la fonction -V z2 - 1 est multivoque. On


.sous-e~tendra par V z2 - 1 la branche qui prend des valeurs posi-
ti ves pour Ies z > 1 reels et est definie dans le plan muni de la cou-
pure [,;_f, 1 ].
L'equation
T n (x) = cos (n arccos x) = O
entraîne que
31 2
Xm == cos { < ~: i) ) , m = O, ••. , n-1,

sont racines de Tn (x). Vu (2), (3), Ies points d'extremum de Tn (x)


sur [ - 1, 1] son t Ies poin ts en lesquels I T n (x) I = 1. En resol vant
cette equation, on a
X(m) = cos { n: ), m= O, ... , n
et
Tn (X(m)) = cos nm = (-1)m.
On dit des polynomes
Tn (x) = 2 1-nTn (x) = x'" + ...
qu 'ils s' ecartent de zero le moins possible. En effet, on a le
LEMME. Si Pn (x) est un polynome de degre n de coefficient de la
plus haute puissance de x egal a 1, alors
max I Pn (x) I> max IT n (x) I =2 1 -n. (5)
[-1, 1) [-1, 1)

D~MONSTRATION. Raisonnons par !'absurde et supposons que le


degre de T n (x) - Pn (x) est n - 1; par ailleurs
sg (Tn (X(m)) - Pn sg ((-1r2 1 -n -Pn (X(m))) = (-1r,
(X(m))) =
puisque par hypothese I Pn (xcm>) I< 2 1-n pour tous Ies m. Ainsi,
le polynome Tn (x) - Pn (x) est alternativement negatif et positif
entre Ies points Xcm> et Xcm+i>· Le polynome Tn (x) - Pn (x) de
degre n - 1 et different de zero (puisqu 'îl I 'est aux points X(m))
possede n racines distinctes. Nous avons abouti a une contradiction.
PROBL:81\:IE. Demontrer la proposition plus forte: si
Pn (x) = xn + ... =I= Tu (x),
alors
max I Pn (x) I> 21-n.
[-1, 1)
INTERPOLATION ET PROBL&IES CONNEXES [CH. II

Par changement lineaire x' = bţa + b2 ax, le segment (-1, 1]


-devient un segment [a, b] donne. Le polynome Tn (x) se transforme
alors en Tn (
2
x-;~;a) )
de coefficient de la plus haute puis-
.sance de x egal a (2/(b - a)t. En vertu du lemme on affirme que le
polynome

dans lequel le coefficient correspondant est 1 s',foarte de zero sur


[a, b] le m_oins possible. Cela signifie qu' on a, pour tout polynome
Pn (x) de degre n dont le coefficient du terme de plus haut degre
-est 1, l'inegalite

max I Pn (x) I>- max I


[a, b] [a, b]
na, b] (x) I= (b-at2 1- 2n. (6)

On verifie aisement que Ies zeros de ria,b] (x) sont Ies points

_
Xm -
b+a + b-a cos {tt(2m+1))
n , m=O, ... ,n-1.
2 2 2

On remarquera egalement que pour n ~ 1, Ies polynomes T0 (x) =


= 1/V2 et Tn (x) = T n (x) forment sur [-1, 1] un systeme ortho-
norme de poids _2 _ 2 . Verifions la propriete d'orthonormalite
1t 11 1-x
de ces fonctions pour m, n -=fo O. La substitution x = cos 0 donne
1 n
r
.}1
2
J
T n (x)~ ) dx = 2_ cos n0 cos m0 d0 =
1t V 1-x2 1t o

:t
= ¼) (cos ((n- m) 0) + cos ((n+ m) 0)) d0= 6n-m +6n+m•
o

Le deuxieme terme s' annule pour n, m ~ O des que n 2 +m 2


-=fo O.
D 'ou I' egali te cherchee
1
2Tn (x) Tm (x)
J
-1
1t
V 1-x2 dx= 6n-m• .·
·§ 9] MINIMISATION DE L'.8VALUATION DU RESTE 59

§ 9. Minimisation de l'evaluation
du reste d'une formule d'interpolation
Supposons qu'une fonetion f (x) soit approchee sur [a, b] par un
polynome d'interpolation de degre n - 1 base sur Ies .points X1, • ·• ·•
• • • , Xn E [a, b]; convenons d'evaluer l'erreur pour la norme li/ fi =
= sup I/ (x) I- D'apres (3.1), on a
[a,b]

f (x)- Ln (x) = J<n> (~ fn (x) '

avec ~ E [a, b] si x E [a, b]. D'ou l'evaluation de l'erreur d'intet-


polation
ll f- Ln li~ li /<n> ~ :/ ron li • (1)

Minimisons le seeond membre en choisissant habilement Ies points


x 1 , . . • , Xn (c'est d'ailleurs pour cette raison que nous avons intro-
duit Ies polynomes de Tehebyeheff s'ecartant de zero le moins pos-
sible). Le coefficient du terme de plus ha11t degre du polynome
O>n (x) = (x - x1) ••• (x - Xn) vaut 1, donc li O>n li ~ (b - at2 1 - 2n
selon (8.6). Si l'on prend pour points d'interpolation
b+a
Xm=-
2
-+-
b-a
2
-eos ( n (2m+1))
2
:, m= O, ... ,n-1, (2)
alors
O>n (x) = (b-at 21- 2nT n ( 2x-(b+a) )
b-a
et
li COn li= (b- at 21- 211 •
Par consequent, cette disposition des points permet la meilleure
evaluation qui puisse âtre obtenue comme une consequence de (1)
li f -Ln li~ llf<n> li (b~a)n 21-2n • (3)

Dans (1) le maximum du produit est remplace par le produit des


maxima des facteurs, et nous pourrions escompter une es'timation
meilleure que (3). Or, il en va autrement ; en effet si f (x) = anxn +
+ . . . est un polynome de degre n, alors
/<n> m= ann I = const,
et l'inegalite (1) devient egalite. Quels que soient Ies poirits d'inter-
polation, on a alors
llf-Lnfl> IIJ<n>IJ(bn~a)n21-2n =an(b-at21-211 •.
60 INTERPOLATION ET PROBL~MES CONNEXES [CH. D

L'optimisation des methodes de resolution de problemes d'une-


classe determinee constitue, nous l'avons dit, un ohjet majeur du
calcul mathematique. Voici son idee generale.
On se donne une classe P de prohlemes p â resoudre et un ensem-
hle M de methodes de resolution. Soit e (p, m) l'erreur de methode m.
sur le probleme p. La quantite
e(P, m)= supe(p, m)
PEP

est dite erreur de methode sur· za classe P de problemes et la quantite-


E (P, M)=inf e(P, m)
mEMt
estimation optimale de l'erreur de methode de M sur la classe P. S'H.
existe une methode m E M qui realise cette estimation, i.e. E (P „
M) = e (P, m), m s'appelle methode optimale.
La solution du probleme d' optimisation de la repartition des
points d'interpolation que nous venons d'ohtenir peut s'enoncer en
termes analogues.
Soient Pune famille de problemes d'approximation de fonctions:
definies sur [a, b] dans la condition I j<n> (x) I ~ An et Jlf un ensem-:-
ble de methodes consistant a remplacer la fonction par son polynome
d'interpolation Ln (x) hase sur Ies points x1 , • • . , Xn, de sorte que la
methode m se· definit par la donnee de x1 , • • • , xn. Soit enfin
e (p, m) = li j - Ln li- On a, en vertu de (1),

e ( p, m)-< An~ 7n li .

D'autre part, l'erreur sur l'approximation du polynome

Pn+t (x)= A~
n.
xn+ .. . ,
qui est un probleme de la classe consideree, est
e (p, m) = An li Wn li
n!
par consequent,
e (P, m) AnllWnll
ni
On a vu que
E ( P , M) = inf e (P, m) = inf
An li Wn li
n
}-An (b-a)n 21-2n
- n •
( 1 1
m xl'···•xn

Ainsi, l'interpolation aux points de base (2) des polynomes


de Tchebycheff est un procede optimal dans le sens considere.
1 tOJ D[FF:8RENCES FINIES 61

Le developpement du calcul mathematique doit beaucoup a une formulation


et une resolution rigoureuses de problemes variationnels de ce type. En fait.
on pourrait exposer le gros du present cours comme resolution de divers pro-
blemes d'optimisation. Nous nous en garderons bien afin de ne pas exagerer
ie role du probleme d'optimisation des methodes.

Pour conclure, comparons (3) avec l'evaluation de l'erreur corn-


mise en developpant une fonction en serie de Taylor. En vertu de
nos raisonnements du § 6, la tranche

tn {:t}= ~ I J</1 (
i=O
Ţ) (
X - aţb r
de la serie de Taylor coincide avec le polynome d 'interpolation de
Lagrange base sur l'unique point n-uple aţ b. Aussi l'evaluation
doit-elle naturellement s'ameliorer pour la repartition optimale des
points (2). En effet, l'estimation

llf-tn 11~ ll/(n) li ~~a)n2-n

de l'erreur sur la tranche de la serie taylorienne est 2n-t fois moins


bonne que (3). Pour tout autre choix du point en lequel la fonction
admet un developpement en serie de Taylor, la premiere estimation
est plus mauvaise.

§ 10. Differences finies


Supposons Ies points x 1 du tableau equidistants: xi = x 0 ih, +
et soient fi Ies valeurs correspondantes de la fonction. h est appele
pas du tableau.
Les differences /i+i - fi sont dites differences du premier ordre.
Selon la nature du probleme, cette quantite se note soit ll/i (dif-
ferences ascendantes), soit V/Hi (differences descendantes), soit encore
6f H1/ 2 = /\+11 2 (differences centrales). Ainsi,
h+1- li= llf i = Vh+t = f)fi+112 = tf+112• (1)
Les differences d' ordre superieur sont formees a l' aide des relations
de recurrence
flmf. -/l (/lm-1/·)-/lm-1/· 1-flm-1/·
i - ' - i+ ''
Vmf i = V (vm-1/ t) = Vm-1fi - Vm- 1/ i-1,
fJmf i = 6 ( 6m-1/i) = r,m-tf i+1/2 - r,m- 1/i-1;2,
I mi = /m-1
i+i/2 -
/m-1
i-1/2•
62 INTERPOLATION ET PROBLbES CONNEXES [CH. IJ

Le tableau des differences a en general !'aspect suivant:

f /1

.
.
Xo Jo .
/1112
Xt ,1 tf
f\12 1112
X2 /2 fi .
!~12 f\12
X3 /3 15
f\12
.x„ f„

ii

Certaines formules d 'interpolation emploient de plus Ies moyen-


nes arithmetiques de deux quantites suceessives d ':une meme colonne:

µff = (f1.f'+112 + J't 112 )/2, m im pair


µ,f1.f'+112 = (/1.f'+1 + f.f)/2, m pair.
LEMME. Les difjerences m-iemes s'expriment par les valeurs de la
jonction selon la jormule
m
f"{' = ~ (-1)' Cfnfi+m12-; (2)
J=O

(i est entier pour m pair et demi-entier pour m impair).


La demonstration se fait par recurrence. Quand m = 1, la rela-
tion (2) est vraie d'apres (1). Supposons qu'elle l'est pour m = l.
On a
l
f il+i = fli+!/2- fli-1/2= ."'-l
""1 (
-
f )j Cjj.
l i+1/2+l/2-j-
i=O
l
- ~ (-1); Cifi-112+z12-; •
i=O
En regroupant Ies coefficients des memes fk et en utilisant l'egalite
C;+cH1
l l
_ c;+1
- l+1,

on obtient l'expression cherchee de ti+ 1 • Le lemme est demontre.


§ 10] DIFF~RENCES FINIES 63

(2) irnplique que I' operateur difference /inie est lineaire. En parti-
eulier, ella donne
1r=h+1-2h+ 1i-1,
tf = li+a12-3/i+i/2 + 3/i-112-/i-3/2,
tt = li+2-4f,+1 +6fi-4fi-1 + h-2,
LEMME. Pour xi == x0 ih, on a +
Îi+m/2
f (xi; ••• ; Xi+m ) = hm•m ! . (3)

Raisonnons par recurrence. Si m = 1, on a


tl+112
h

Supposant que. (3) est juste quels que soient m<l, il vient

f (Xi. ., • • • ., Xt+ l+l )- f (Zf+l; _


- ....;;....;....;..;..;;...;... • • •_
; Xf+l+t)- / (.:ri; • • • ; Zf+l)
..;;..;..;___,__________
~~-~
~.;.;.....

l+1 .
ti+1+z12-ff+u2 Îi+u+t)/2 „
= (hll !} (h (l+t)) -- hl+l(l +t) ! '

donc, (3) est egalement juste pour m = l + 1, ce qui demontre


le lemme.
• • _ 1<m>m
Selon (5.4) on a / (xi, •.. , Xi+m) - ---,;jJ avec x, ~ t~
~ Xf+m• La comparaison avec (3) donne

llmfi = vmf i+m = e,mli+m/2 = fH-m/2 = hmJ<m> (~). (4)


CoNs:eouENCE. Les differences finies d'ordre n d'un polynome d,e
d,egri n sont constantes et les differences d' ordre superieur sont nulles.
En calcul manuel, on profite souvent de cette derniere circonstance pour
tabuler Ies polynomes. On calcule directement Ies valeurs du polynome _pour
n + 1 valeurs consecutives de !'argument, puis on forme le tableau des diffe-
rences jusqu'ă. l'ordre n inclus. On remplit ensuite la colonne des differences
d'ordre n (compte tenu de leur constanee), celle des differences d'ordre n - 1,
puis des differences d'ordre n - 2, et ainsi de suite. Ce faisant, on utilise la
formule
I tl+i
f il - jl
- i-1 1 i-1/2•

On constate qu'en dressant le tableau de N ~ n valeurs du polynome de degre n,


on commet, au pis aller, une erreur de calcul de l'ordre de Nne, e etant !'unite
de la derniere decimale utilisee. La methode consideree exige donc une grande
prudence. En particulier, lorsque le tableau est trop grand, on le divise en
panneaux et on opere dans chaque panneau pris a part.
INTERPOLATION ET PROBLEME$ CONNEXES [CH. II

Examinons l'influence de l' ~reur commise sur une valeur fi quelconque


sur Ies differences finies de divers ordres; supposons par exemple qu'on a ft+e
.au lieu de fi• Le tableau des differences a alors la forme
li-2
tLa,2
li-1 tL1+e .
tL1,2+e
li+e /~-28
tl+112-E
li+i IT+1 +8
tl+a12
li+2 .
Nous voyons qu'en conformite avec (2), Ies differences d'ordre m sont entachees
d'une erreur de coefficients (-f);c!n. Si la fonction est suffisamment reguliere,
ses differences d'ordre pas tres eleve peuvent s'averer petites, et Ies quantites
C?ne paraîtront en comparaison suffisamment grandes. Un simple examen du
tableau des differences permet de corriger la valeur de la fonction qui contient
une erreur.
On detecta de meme Ies erreurs resultant de la tabulation des differences.
Soit, par exemple,

IÎ12 = 1.10-s, /~/2 =2-f0-5, t~ 12 = 12-10-5,


tf12 = -23-10-5, 1:, = 11 •10-
2
5, tî 1/2 = 1-rn-5

Si une valeur li quelconque presentait une erreur e relativement grande, cela


-entraînerait pour Ies differences finies troisiemes l'apparition des quantites
e, -3e, 3e, -e. Dans le cas considere les differences d'ordre trois sont en fait
nulles, a l'exception de 1:12 , f~/2, ft1 2 , qui sont approximativement de la forme
-s, -2e, e (e = H -10-&). Ce qui laisse a penser qu'une erreur a ete commise
,dans le calcul de /~/2 , erreur qui a justement perturba Ies differences troisiemes.
Signalons une propriete des tableaux de differences des fonctions. Puisque
Ies valeurs de f (xi) ne sont pas obtenues avec une precision absolue, mais sont
.arrondies pandant et apres Ies calculs, on a en fait, au lieu de fi, Ies valeurs
+
.Yi = ft. Tli· Les valeurs des differences s'ecrivent alors

yf =1r+11r-
Pour f (x) suffisamment reguliere (nous ne specifierons pas la nature de ce
phenomene), Ies valeurs f'f ăecroîtront avec la croissance de m. Ainsi, on a pour
f (x) = sin x

aussi I f.{' I ~ hm-+- O avec h < 1, m-+- oo. Les quantites 11f s'ecrivent comme
des combinaisons de termes de la forme (-1);C!nTJk et peuvent donc croître
§ 11] FORMULES DE NEWTON POUR DES POINTS 1!:QUIDISTANTS 65

avec m. C'est pourquoi, si l'on effectue des arrondis, la fonction <p (m) =
= max I y"{' I decroît pour m petits et croît pour m grands. Dans le domaine
i
des valeurs de m ou Ies differences d'ordre superieur commencent a croître,
l'information la plus importante fournie par le tableau des differences d'ordre
k d 'une fonction reguliere est celle sur Ies differences d 'erreurs 'l'Jt, de sorta que
generalement ces differences ne nous apportent aucune information sur la fonction.
§ 11. Formules d'interpolation de Newton
pour des points equidistants
Pour approcher une fonction avec une precision elevee on opere
de deux fa~ons :
· 1. On ajoute de nouveaux points d 'interpolation et la fonction
est interpolee sur tous Ies points par un polynome de plus haut degre
possible.
2. Une fois Ies nouveaux points ajoutes, on interpola sur Ies
points Ies plus proches ; le degre du polynome d 'interpolation
ne s'eleve pas.
Considerons le deuxieme procede. Si le choix des points n' est
pas specifie, dans le cas d 'un grand tableau des valeurs de la fonction,
on prend generalement des points regulierement espaces : X J = Xo +
+ jh. Si Ies points sont choisis dans le ·voisinage du point x en lequel
on calcule la fonction, le point intermediaire ~ dans l'estimation
du reste (3.1) _est contenu lui aussi dans ce voisinage de sorta que
j<n> (~) ·ne varie pas tres sensiblement pour un tel choix.
Par consequent, l'erreur se ressentit surtout de la quantite
n
IT IX -
I©n (X) I = j=1 Xi I,
e'est-a-dire du produit des distances du point x aux points d 'inter-
polation. La valeur de 1- ©n (x) I sera donc minimale si l'on prend.
pour trouver f (x), n points Ies plus proches de x. II est evident que
pour n = 2l (pair) on choisit l points a gauche et l points a droite de
x et, pour n = 2l + 1 (impair), le point le· plus proche de x et l
points de part et d' autre de cette valeur. Si x se trouve au debut ou
a la fin du tableau, ce choix est impossible.
Pour interpoler au debut (resp. a la fin) du tableau, on repre-
sente le polynome par Ies formules de Newton d 'interpolation en
avant (resp. en arriere). Soit Ln (x) Ie polynome de Lagrange hase
sur x 0 , • • • , Xn-i· Selon (5.3) on a
Ln (x) = f (x 0 ) + f (x 0 ; x1) (x - Xo) + ...
...+ f (x0 ; • • • ; Xn -:1 ) (x - x 0 ) • • • (x - Xn _ 2).
Effectuons le changement de variables x = x 0 + ht et passons des
differences divisees aux differences finies d'apres (10.3). Alors
1
L n (xo+ ht) = Io+ 1112t+ • ••
+ J(n-1)/2
.ţn-1 t](t-1) ••. (t-(n-2))
(n-1) I (1)
5-0to·o1
66 INTERPOLATION ET PROBL-nlMES CONNEXES [OH. 11

Le reste (3.1) s'ecrit


t<n> (~) t {t-1) ... ~;-(n-1)) hn •

La formule (1) est la formule de Newton pour l'interpolation en avant.


Le mâme cha.ngement de variables dans le polynome Ln (x) base
sur x 0 , x_1 , • • • , X-cn-i>
Ln (x) = f (xo) + f (xo ; X-1) (x - Xo) + ...
. . . + f (x 0 ; • • • ; X-(n-i)) (x - x 0) • • • (x - X-(n- 2))

donne la formule de Newton pour l'interpolation en arriere


L n (Xo +ht). = f o+ft-1/2 t+ • • • +f -(n-1)/2
n-1 t(t+1) ... (t+(n-2))
(n-1) j (2)
avec le reste
t<n> (~) t(t+1) ... ~({n-1))hn.

Voyons maintenant comment evaluer pratiquement une erreur. Si la fonc-


tion f (x) est donnee analytiquement, on peut estimer sa derivee et en tirer
l'evaluation du reste de l'interpolation. Pour une fonction assez compliquee,
cette oţ,eration risque d'exiger beaucoup de temps et des executants suffisamment
qualifies; d'autre part, l'estimation obtenue s'avere tras souvent trop forte.
On sacrifie donc generalement la rigueur A la simplicite et on remplace la borne
superieure de la derivee par une valeur approcliee de cette borne.
S'il s'agit d'evaluer l'erreur f (x) - Ln (x) en un point x concret, on a,
conformement a (5.6)-(5.7), •
f (x) - Ln (z) ~ f (x1; ... ; Xn+1) Cl."'n (x).
Dans d'autre cas, c'est la petitesse de l'erreur d'inte~olation en tous les
points du segment [a, b] qui est essentielle, et il est indispensable d'evaluer
Mn=max I J<11 > (x) I•
[a, b]
Pour fixer Ies idees, supposons qu'il faut interpoler une fonction donnee sur
un reseau a pas constant : :&q = .z0 + qh. Si 1<n) (x) est continue, il vient

lim a!=Mn; a!=


h➔ O
max
~=m~b-nh
IA;!m I,
pour h petits, on pose donc Mn ~ a~.

§ 12. Formules d'interpolation de Bessel


et d'Everett. Formation des tableaux
Dans de · nombreux cas, la petitesse du degre des polynomes
approchant une fonction est primordiale. On arrive parfois a abais-
ser le degre de ces polynomes sans perte de precision si l'on forme
leurs combinaisons lineaires. Considerons ·des procedes d'approxi-
mation de fonctions parmi Ies plus el~mentaires.
§ 121 FORMULES DE BESSEL ET D'EVERETT. FORM.ATION DES TABLEAUX 67

Si la valeur de x pour laqnelle on faii l'interpolation appartient


a (x0 , x 0 + h/2], on choisira Ies abscisses; dans ~'ordre sntivant:

x 01 x 0 +
h, x 0 - h, •••1 x 0 lh, x O - lh. +
Alors, pour q queleonque, le groupe des q premiers termes da cette
suite est forme des points Ies plus proches de x et l'estimatfon du
reste ·
I/ (x)-Ln {x) l~max I f<n>
X n
t I OOn (x)
pour le polynome defini sur cet ensemble d 'abscisses est plus precise
que pour tout autre- ensemble. La formule d 'interpolation ecri te pour
Ies premiers points de la suite ci-dessus est la formule de Gauss pour
l'interpolation en avant. La suite x 0 , x 0 - h, x 0 + h, ... sera la
meilleure au meme sens pour l 'interpolation en un point de
[x 0 - h/2, xo-)- La formule correspondante est dite formule de. Gauss
pour l' interpolation en arr.iere. Les formules de Gauss, ont une valeur
intrinseque et s' appliquent largement en calcul manuel. Ecri-vons
la formule de Gauss pour l'interpolation en avant a 2n + 2 points
L 2n+ 2 (x} = j (xo} + I (xo-; Xi;} (x - Xo) + . • •
... +
f (x 0 ; x1 ; x_1 ; • • • ; Xn+1 ) (x - x0 ) • • •
(x - Xn) (x - X--n). (1)
La substitution x = x 0 + ht fournit
G2n+ 2 (x + ht) = L
11 (xo + ht)2 n+2 =:

=fa+ J!, t + f~ t (~ 1} + ... + fin,tt t (t2-1) ... (t2-n2) ( 2)


2
1 (2n+ 1) f •
Ecrivons maintenant la formule de Gauss du meme ordre. pour l'in-
terpolation en arriere par rapport a x1 (c'est-a-d'ire pour r-ensembltl
des points x1, x 0 , x 2, .z_1, ••• , Xn+ 1 , X_n):
L 2n+ 2 {x) = f (x1) + f (x1 ; x 0 ) (x. - x1) + ...
. . . + f (x1 ; x 0 ; ••• ; Xn+ 1 ; X_n) (x - x1 ) (x - 370 )
• • • (x - Xn+1). (3)
On obtient par le changemen,t de variables· x = x 0 + kt
2t(t-1} t ·
G2n+2(:to+ht).=ft.+l112 (t-1}+h 21 + ...
-1-f2n+1 t (t 2 -1) ... (t 2 -(n-1} 2 } (t-n) (t-(n+1))
• • • I 1/2 (2n+ 1} ! , • (4)
Les formules (1), (2), (3) et (4) sont en fait Ies diverses ecrituI?es
d'un mime polynome d,e Lagrange· base sur X_n,· •• , Xn+i• On peut
donc dire- que ce polyn6me est egal a la demi-somme des·. seeonds
5*
68 INTERPOLATION ET PROBLBMES CONNEXES (CH. II

membres de (2) et (4). Notons a ce propos que Ies differences d'ordre


i:mpair des deux formules sont identiques et qu 'on peut, par conse-
quent„ reduire Ies termes semblables correspondant aux memes
differences. Par ailleurs, les : coefficients des differences d' ordre
pair sont egaux et peuvent etre regroupes. On aboutit a la formule
d'interpolation de Bessel
B2n+2 (xo + ht) = G2n+2 (xo + ht) = L2n+2 (xo + ht) =
=Jlt112+tb<t-112)+µtt2 t<~ 1> + ...
2n t(t 2 -1) ... (t2 -(n-1} 2} (t-n}+
. . . + µf 112 (2n) I
+f2n+1 t (t2 -1) ..• (t 2 -(n-1) 2 ) (t-n) (t-1./2)
112 (5)
(2n+1) I

· (ici et dans la suite on omet Ies calculs intermediaires). Le reste


de cette formule coincide naturellement avec le reste du polynome
d 'interpolation de Lagrange

I (X )-B2n+2 (X )-
-
j(2n+2) (1")
. ':.,
(x-x_n) • • • (x-xn) (x-Xn+t)
(2n 2) I + '
ou
i (x0 + ht)-B2 n+2 (x0 + ht) =
= f(2n+2) (Z:) hzn+2 t (t2 -1} ... (t2 -n2) (t-(n+1)) (B)
- (2n+2) I •

Le seul avantage de (5) par rapport aux formules de Lagrange et


aux formules de Gauss (1) et (2) est d'etre d'un emploi plus com-
mode. En particulier, pour t = 1/2, i.e. pour le calcul par dichotomie,
Ies coefficients des differences d'ordre impair s'annulent. Cependant,
en rejetant le dernier terme du second membre de (5) on obtient

B2n+l (xo+ ht) = µ/ 1/2 + f 112 (t- 1/2) +


/1 2 t(t-1}+ + 12n1 2 t(t -1) ... (t -(n-1) )(t-n)
2 2 2
2
+µ f 2I .• 0 0
µ 1 (2n) I ' (7)

ou le polynome B2n+1 (x 0 + ht) de degre 2n n'est plus un polynome


d'interpolation proprement dit. En effet, il s'obtient comme la
demi-somme de polynomes d 'interpolation aux abscisses
X_n,· ••• , Xn et X-(n-1),· • • • , Xn+l

respectivement,. c'est-a-dire qu'il ne coincide avec / (x) qu'aux 2n


points X-cn-i>, ••• , xn, tandis que son expression utilise bien Ies
valeurs de/ (x) en x_n et x~+i (fig. 2.12.1). Son reste est donc.forme
§ 12) FORMULES DE BESSEI:, ET D'EVERETT. FORMATION DES TABLE.AUK 69

du terme neglige du seeond membre de (5) et du seeond membre de (6) :


f (x0 +ht)-B2 n+dx0 +ht) = ,
_ /2n+1 t (t2 -1) ... (t2 -(n-1) 2 ) (t-n) (t-1/2)
- 1/2 (2n+1) I +
+ f(2n+2) (~) h2n+2 2 2 2
t (t -1) ... (t -n ) (t-(n+i)) (8)
(2n+2) I ·
On se eonvainc que le] premier terme a droite dans (8) 1: qui est
le terme principal, est inferieur a la partie principale de l'erreur

.x., .r,
Fig. 2.12.1

dans chacune des formules dont la moyenne est notre polynome


+
B 2n.+1 (x 0· ht). Dans la suite, nous verifierons la derniere proposition
pour n = 1. i

Prenons le probleme type suivant. On demande de dresser le


tableau de valeurs d'une fonction de fa~on que l'erreur due a l'inter-
polation de ces valeurs par un polynome de d~gre m donne ne depasse
pas e. On dit alors que le tableau permet une interpolation d'ordre
m (avec une erreur e). Les tableaux d'usage general autorisent d'ha-
bitude une interpolation lineaire. Notre expose ulterieur utilisera
les tableaux a pas constant. Pour calculer une valeur de f (x) on
choisit alors a droite et a gauche d 'une valeur ·donnee x Ies points
Xq et Xq+ 1 respectivement (ce sont les points Ies plus proches de x).
On remplace / (x) par un polynome du premier degre pour ces points:
+
f (xq + th) ~ L 2 (xq th) = Iq t!+112t.+
L'erreur de cette formule est
~"(~)h2 t(t;t> ,·
70 INTERPOLATION ET PBOBL:tMES CONNEXES [CIL, II

ou.
Xq~t~Xq+i•
Elle n'est pas superieure ae si
(maxlf"(t)l}h2 maxl
[O, 1]
t(t-i)
2
1~e;
max ( t(t
:[0,1) 2i) I est atteint pour t= 1/2 et vaut 1/8. 11 suffit donc
que la condition
max Ir (t) I h /8 ~ e
2
(9)
soit verifiee.
Supposons que nous voulons etablir ou enregistrer en machine
un tableau de sin x surf0, n/2) tel que I' erreur d 'interpolation lineai-
re soit au plus 0,5 -1-0-6 • Vu que max I (sin x)" I = 1, îl resuite de
(9) que le pas ~oit etre tel que
h2 /8 ~ 0>5 .10-a ou h ~ 0,002.
La condition d' admissibilite de l 'interpolation lineaire est quel-
quefois trop forte si bien qu'on lui prefere I'interpolation quadra-
tique (interpolation au moyen d 'un polynome du second degre).
T:Jn cas elementaire de l 'interpolation quadratique est l 'interpola-
tion par le polynome de Lagrange sur Ies trois points Ies plus proches.
Soit Xq le point le plus proche de x. Posons x = Xq + ht et
f(:iq-ht)~La(xq+ht)=fq+f~+112t+fi t(t;-t>. (10)
Le resta de (1O) est
j<3>(t)ha t(t;,1> .
Pour qu'un tableau donne se prâte a l 'interpolation quadratique
(10) il suffit d 'avoir
max max
Ij<3> (t) Ih 3 I t (t'-i)
,,,~112 6
,~e.
Puisque max I t (tB~f) j =1/16, cette condition se reorit pour un
,,,~1,2
seul pas:
max I j<3> (t) I h3/16~s. (11)
Dans le cas concret/ (x) = sin x, e = 0,5 .10-a, on obtient h ~ 0,02.
Voici une autre technique permettant de rempla:cer la fonction
par un polynome de degre 2. Soit x E (xq, Xq+i), x = xq ht. +
On pose
f (xq+ht) ~ B3 (xq +ht) =
t{t-1) 2
= µ,fq+1/2 + /q+t/2
I
(t-1/2) + µ,/q+t/2
2
2 ' (1 )
I 12) FORMULES DE BESSEL ET D'EVERETT. FORMATION DES TABLEAUX 71

autrement dit, on remplace f (x) par le polynome de Bessel du


second degre (7) defini pour Ies points Xq-i, xq, Xq+ 1 , Xq+ 2• Selon
(8), le reste de (12) est
a
f q+i/ 2
t (t-1) (t-1/2)
6
+ /C4 > ('")
'=
h" t (t2 -1) (t-2)
24

Du moment que t:+ 112 = h 3/< 3>(Q, l'interpolation par la formule


( 12) se fera si
I
max I /C3) (t) h3 max t (t-1) !t-1/2)
0~t~1
I+
+ max l /<"> (ţ) Ih" max It (t2-~ (t-2) j~e.
0~~1
Puisque

max
t(t-1)(t-1/2} I
6 =
1
, r- ' max
· I t(t 2 -1)(t-2)
24
_2.
0~1~1 l 72 V 3 0~t.Ei;1 1-128 '

elle I 'est pour


max I /< 3> <t> I 1,,3
12ya
+ 3 max128
I /< 4
> CC> I h' /
~e. (13)

Pour h petits, le premier terme constitue la partie principale; ii


est 9V3/2 = 7, 794 . . . fois inferieur au premier membre de (11).
Par consequent, h eta11t petit, on verifie (13) avec un pas 9V3/2 ~ V
~ 1,98 fois superieur a celui du cas (11). Dans !'exemple considere
la condition (13) s'ecrit
h8/72Y3 + 3h4 /128 ~ 0,5 .1Q-6 •
En la resolvant, on trouve h ~ h 0 = 0,038 ... La valeur 0,038 du
-pas n'est pas commode en calcul a la main si bien qu'en dressant le
tableau correspondant, on l' aurait probablement remplacee par
une valeur arrondie, a savoir 0,03.
Si le pas est neanmoins grand, on augmente le degre du poly-
nome d 'interpolation.
Et voici un autre procMe d'ecriture du polynome d'interpolation dit
mltkode d' Everett, qui se prAte parfaitement a la resolution du probleme suivant:
soit un tableau de valeurs d 'une fonction a points x 0 nk; on demande de+
former le tableau a points :i: 0 +
nh' pour k' = kil, l entier. 11 est douteux que
les constructions ci-dessous liees aux formules d'Everett puissent &tre utiles
au lecteur. Elles presentent cependant un certain interât en tant que procedes
particuliers et problemes variationnels particuliers permettant d 'augmenter
l'efficacite des algorithm.es de calcul dans telle situation concrete.
Revenons a la formule de Gauss (2) et eliminons-en Ies differences d'ordre
impair par la relation
2z+1 _
/ 1/2 -
12z 2z
1 - 1O •
72 INTERPOLATION ET PROBL:mMES CONNEXES [CH. II

Apres r~duction des termes semblables on debouche sur la formule d,Everett


E2n+2 (:co + ht) = G2n+2 (x + ht) = S 0 O (u) + S 1 (t) ; {14)
ici u = 1- t
S () / +l 2 t(t 2 -1) + +f2n t(t2-1) .•• (t2-n2) (15)
q t = qt q 3! ··· q (2n+ 1) I

Soulignons une fois de plus que toutes ces formules representent un mâme poly-
nome d ,interpolation. Le reste de cette formule est celui de la formule de La-'
grange, i.e.
1c2n+2> m
h2n+2 t (t2-1) ••• (t2-n2) (t-(n+1)) (16)
(2n+2) I •
L'ecriture (14) du polynome d'interpolation a l'avantage de reduire de moitie
le travail necessite par le remplissage des tableaux: dans le cas de la formule
d'Everett, Ies valeurs f (x0 - ht), O< t < 1, se calculent par
f (x 0 - ht) = S 0 (u) + S _i(t);
ainsi, la valeur S O {u) sert a trouver f (x 0 ± ht). On peut calculer tous Ies
Sq (u) pour u = 1/l, ... , (l - 1)/l et former Ies valeurs de f (x) aux n~uds
x0 +nh' du reseau serre comme combinaisons lineaires. Le calcul direct du
polynome d'interpolation a l'aide des autres ecritures veut qu'on additionne
2n +2 termes contre n + 1 termes pour (15).
Effectuons quelques constructions supplementaires pour n = 2 lorsque
2 2
s (t)=f t+12 t(t2-1) +f4 (t -1)(t -4)
q q q 6 q 120 •

En calcul inanuel il est utile d'approcher le coefficient de ~ par

- k t (t;2~ 1) et de calculer

Sq (t)=/qt+ (1:- :0 1;) t(t


2
;
1
>

au lieu de Sq (t). On peut offrir aux praticiens du calcul numerique des tableaux
qui contiennent, a cote de la colonne des /q, celle des
valeurs de la fonction par la formule
/3. Le calcul des f~-:o
I (xq + ht) ~ ~+1 (t) + .fg (u) = Ea (xq + ht)
serait alors des plus faciles. Proposons-nous de choisir le plus raisonnablement
le parametre k. Nous enoncerons ce probleme comme celui du choix d'un k tel
que la partie principale
sup I Ea (xq+ht)-Ea (xq+ht) I
tE[O, 1)
soit minimale. On a
- 4 t (t 2 -1) (t2 -4+k)
Ea (xq+ht)-Ea (xq+kt)=lq+t 120 +
+fq4 u(u2-1) (u2 -4+k)
120
(17)
§ 12) FORMULES DE BESSEL ET D'EVERETT. FORMATION DES TABLEAUX 73"

11 paraît de prime abord que le mieux serait de choisir k A partir de la conditio~


min max jt (t2 -1) (t2 -4+k) I•
.k [O, 1]

1:
fg+ 1 et etant voisins, Ies termes du second membre de (17) peuvent se compen-·
ser, et ce choix n'est donc pas le meilleur. lsolons donc au prealable le terme~
principal a droite dans (17) et portons

1;+1 =µl:+112+1/21:+112, 1:=µ!!+112-1/21!+112, u=1-t.


En reduisant Ies termes semblables, il vient
E 6 (zq+ht)-Ea (zq+ht)=s1 +s2 ,
ou
i 5t(t2 -1)(t-2) +Bkt (t-1)
f
St= f.l. q+1/2 120 ' (18),

5 t (t2 -1) (t-2) (t-1/2)+kt (t-1) (t-1/2)


S2 = 1q+1/2 120 • (19)·

Si /< 4> (z) -=p- O, s1 est de l'ordre de h4• C'est donc la partie principale de la,
difference Ea (zq -+: ht} - Ea (zq +
ht). On choisit le plus naturellement k-
A partir de la condition de minimum du coefficient de l'expression de s1 :
min max j 5t (t2 -1) (t-2)+3kt (t-1) j.
k [O, 1]
On a l' egali te
t (t2 - 1) (t - 2) = t (t ~ 1) (t (t - 1) - 2).
Apres avoir effectue le changement de variable y = 4t (1 - t), on obtient„
par consequent,
St (t2-1) (t-2)+3kt (t-1)= ia y+ : !
2 y- ky.
Puisque pour t variant sur l'intervalle ferme [O, 1), y parcourt deux fois cet.
intervalle, on a ·
min max I St (t2 -1) (t-2) +3kt (t-1)1=
k [O, 1]

=min max
k [O, 1]
I1~ y 2 + 25· y- 43 ky I= 5
min max I y2 -ry I,
16 r [O, 1]
(20)

12
avec r =Ţ k-8.
Examinons la figure 2.12.2. Pour O< r < 1, la fonction y2 - ry admet
sur [O, 1] des extrema locaux en 1 et au point en lequel (y2 - ry)' = O, i.e. pour
y = r/2. Le premier extremum vaut 1 - r, le second --r2/4. Definissons To E
E (O, 1) par la condition que les valeurs de la fonction y 2 - ry en ces points
d'extrema locaux sont egales en valeur absolue, c'est-a-dire par l'equation
1 - To = ro/4. D'ou To = VS - 2 et
1
max I Y2 -roy 1=1-To=S-1/8 b.
[O, 1] a+lf8
74 INTERPOLATION ET PROBLt!iES CONNEXES (CH. II

:Sl r=rt <ro, alors max IY8 -ryl;~d.-r>i-ro=b; si r=r2>ro, alors


[O, t] .

(~ Iy -ry I>!(; }2- ~


2
> J=: 1
=1-ro=b; la validite de ces
.relations ressort irectement de la figura examinee. Nous avons trouve un ,

Fig. 2.12.2
tel que
1
min max I y 2 -ry I
r [O, 1] 3+-Vs •
-COmpte tenu de (20), on obtient pour k :

k = 5 (3+ V2)/6 = 3,6785 ••.


•et alors
5
max I 5t (t2 -1) (t-2) +3kt (t-1)
[O, 1] 16(3+ -Vă> •
{18) permet l 'estimation
I max I /< 4> (z) I h'- = max I /< 4 > (z) I h'.
S1 I< 384 (3 +VB) 2238,0 •••
'Evaluons I s2 I pour ce k :
~ max I /< 5> (z) I hf>.
I 82 '1"..:::, 1646, ..•
D'autre part, on a pour le reste de depart
max I /<6> (.x) ha.
204,8
§ 13] EB.REUR D'ARRONJH iD.ANS L'INTERPOLATION 75
En additionnant, ii vient
- max I /<4> (x) I 4
J/(xq+kt)-~a(xq+ht)I< 2238 ,0 ..• h +
max I /< 5> (x) I ks+ max I /< 6> (x) I i.a
+ _1,..,,.64..;-,6,,_,-•..;.
••..;..;,.. 204,8 ~.
On en tire que pour notre exemple f (x) = sin x l'erreur d'interpolation dans
oette formule ne depasse pas 0,5•1.0-6 pour h ~ k 0 = 0,16 ... Ainsi, par rapport
a i'interpolation lhieaire, nous sommes arrives a au~enter sensiblement le pas
oos tableaux pour une precision de l'interpolation de 0,5-10-6•
11 se peut que la forme meme de l'approximation cherchee d'une somme
contenant des differences 9.uatriemes soit sans imJ>ortance, ce qui a, par exemple,
lieu si l'on se propose d'etudier Ies proprietes dune fonction, de rechercher ses
extrema, etc. Pour le faire, on essayera d'approcher ces termes par l'expression
+
t;+1Q 3 (t) t!Qs (u) defa~n que le maximum de la partie principale de l'erreur
soit le plus petit possible.
PROBU:ME. Montrer que la solution du probleme susmentionne est
Qa (t) 960t (f-tll)-5
30720
et que la partie principale de l 'erreur ne depasse pas
max I /< 4> (x) I h'
3072 .

§ 13. Erreur d'arrondi dans l'interpolation


Supposons que nous sommes fixes · sur le procede d'interpo-
lation a employer. L'expose anterieur nous a donne une idee assez
complete de l'erreur resultant de la substitution d 'un polynome
a la fonction. Or, ce n'est pas la seule. En effet, Ies valeurs donnees
de la fonction sont affectees d'erreurs dues, entre autres, a l'arrondi.
Calculons la valeur de / (x) par la formule
71

I (x) ~ ~ /iPi(x),
f=l

qui represente la forme generale des formules d 'interpolation con-


siderees. Puisqu'on se donne en fait non pas f ;, mais leurs valeurs
approchees ll = f 1 + 1JJt on obtient en definitive
n n
f* = ~ f1P1 (x) + Li rt1P J (x) .
.1=1 i=1
Connaissant les limites entre lesquelles varie rtJt on peut evaluer la
home superieure de l 'erreur
n
s= ~ T)1P1 (x).
3=1
76 INTERPOLATION ET PROBL&IES CONNEXES [CH. II

Ainsi, pour Ifli I,<: fl, on a


n
li IPi(x)l-
lel~ri j=t
On etablit a l 'usage general des tableaux a p decimales tels que
l 'interpolation lineaire avec une erreur de 0,5 -10-P soit possible
et que toutes Ies valeurs de la fonction soient fausses de 0,5 .fO-P au
plus. Si l' on calcule une valeur de / (x) au moyen d 'une interpolation
sur Ies points x 0 , x 1 (x 0 < x < x 1), alors
p ( Xf-X x-.xo
p 1 (x)= --
o x)= x1-.xo ' X1-Xo

et
'l1 (IP o (x) I + I P1 (x) I) = 'll·
On voit qu'en arrondissant Ies valeurs de la fonction l'errenr
d 'interpolation lineaire ne depasse pas l'erreur sur ces valeurs.
Etant donne que la premiere n'est pas superieure a 0,5 -10-P, la
deuxieme erreur est de 10-P au plus a condition que l'interpolation
n'introduise aucune erreur supplementaire.
La formation des tableaux a p decimales dans lesquels les valeurs de la
fonction sont entachees d'erreurs inferieures ou egales a 0,5-10-P est une ope-
ration fort penible. Soit
0, Yt . . . Yp 499 . . . 9 (1)
"'----v--'
li fois

la valeur exacte de f (.x1) (y1 , . • • , Yp decimales). On doit prendre pour f1 la


valeur O, y1 , • • • Yp· Or, si, en calculant f (x1), on commet une erreur de
2 .10-h-P-1 , la valeur choisie de fi sera O, y1 ••• yf +10-P, soit une er-
reur> 0,5-10-P. Puisque k peut etre aussi grand que 'on veut, on essayera de
calculer f (x1) en travaillant sur un tras grand nombre de chiffres. Dans la piu-
part des cas ou bien les tahleaux a p decimales contiennent les valeurs de la
fonctîon qui ne sont en erreur que de 1Q-p au plus, ou bien on specifie que l' erreur
ne depasse pas 0,5 •10-P encore qu'elle soit en realite de 0,5 -10-P (1 + y) avec,
'\' suffisamment petit. L' erreur sur les valeurs de la fonction resulte egalement
de l'erreur d'arrondi dans Ies formules d'interpolation, qui depend naturellement"
du nombre de chiffres significatifs sur lesquels on opere. Dans ce cas, le nombre
fixe de chiffres ne garantit pas non plus une erreur d'arrondi inferieure A0,5 x
X 10-P. En effet, si le polynome d'interpolation possede la valeur (1) et si
l'on arrondit ensuite a 2 .10-1i-p-l pres, l'erreur sur la valeur ainsi obtenue
peut âtre legerement superieure a 0,5-10-P. Ainsi, mâme dans l'interpolation
du tableau a p decimales verifiant des conditions severes imposees, Ies valeurs
de la fonction arrondies a p_ decimales peuvent etre en erreur de plus de 1,5 •10-P.
L'implantation des ordinateurs et une typographie automatique des tableaux
reduisent la portee des questions que nous venons d'aborder. Les vieux traites
de calcul numerique contiennent incomparablement plus de formes d'ecriture
de polynomes d'interpolation que Ies ouvrages actuels. C'est que dans le cas de
la plupart des machines a calculer electroniques modernes, on travaille sur
§ 14] APPLICATIONS DE L'INTERPOLATION 77

des nombres de grande longueur en temps fixe independant du nombre de chif-


fres significatifs. La probabilite d'une panne ne depend pas non plus de ce
nombre. Aussi, les erreurs de methode et d'arrondi restant les mâmes, la qualite
de la formule d'interpolation n'est-elle fonction que du nombre d'oJ)erations
arithmetiques et logiques qu'elle necessite. En calcul manuel le temps de calcul
et la probabilite d'une panne (i.e. d'une erreur de !'executant) augmentent avec
le nombre de chiffres significatifs utilises. Les nombreuses ecritures d 'une mâme
formule d'interpolation de Lagrange s'expliquaient pour beaucoup par le desir
d'ohtenir des formules employant les nombres de longueur minimale.

§ 14. Applications de l'interpolation.


Interpolation inverse
On utilisera avec profit Ies polynomes d 'interpolation dans
certains problemes.
Soit a trouver, par exemple, la valeur extremale de la fonction
d'une variable et le point d'extremum correspondant. Dressons un
tableau a grand pas de valeurs de la fonction en question. Son exa-
men nous renseigne sur la position de l'extremum. Sous-tabulons
dans cette zone en utilisant un pas plus petit. Ce deuxieme tableau
precise la position de l'extremum, et ainsi de suite. On se garde a de
poursuivre indefiniment ce remplissage du tableau. D'habitude,;
on desire connaître la valeur de l'extremum avec une precision "/·
Pour un "8rtain pas le tableau permet une interpolation cubique,;
par exemple a l'aide des formules du § 12, avec la meme precision "/·
Rempla~ons la fonction par un polynome, derivons celui-ci et trou-
vons un zero. La valeur de la fonction au point correspondant est
supposee valeur extremale. Puisque I f (x) - P 8 (x) I~"/, on a
.1 max/ (x) - max P 8 (x) I~"/· Selon la nature du probleme, on
fractionnera le pas jusqu 'a ce que l 'interpolation quadratique de-
vienne possible.
Un autre probleme type se pretant a l'interpolation est la recher-
che d'une racine X de l'equation / (x) = d.
La disposition des calculs est la mâme. On forme le tableau de
la fonction pour definir grosso morlo l'emplacement de la racine cher-
chee, on sous-tabule, et ainsi de suite.
Si le calcul de la fonction est relativement facile, on evitera
d'interpoler a l'ordre superieur. a 2, sinon on se trouvera en presence
d 'un autre probleme, celui de la recherche des zeros des polynomes,.
qui exige a lui seul una masse importante d' operations arithmeti-
ques. En cas d 'un calcul penible, on essayera d 'elever le degre du
polynome d 'interpolation.
Si, au voisinage de y = d, la fonction g (y) inverse de f (x) est
suffisamment reguliere, un procede plus efficace sera I'interpolation
inverse. 11 s'agit de l'algorithme suivant. Supposons connues Ies
valeurs Yt = f (xt) pour i = 1, ... , n, ce qui equivaut a dire
qu'on connaît les valeurs xi = g (Yt) de la fonction inverse. Si l'inter-
polation en y est possible, on rem place g (y) par le polynome d 'inter .
78 INTEHPOLATION ET PR0BLbES C'0NNEXES [CH. II

polation Ln (y} tel que


Ln (Y1} = Zt, i = 1, .. •,: l'IJ,
et on pose X = g (d) ~ Ln (d). Ce procede est pa:rrticulierement
indique si on veut ou bien connaître I~ valeurs de la solution de
l'equation pour d en nombre suffisamment grand, ou bien obteni-r
explicitement la racine de f (x) = d en fonction du parametre d.
Si l'interpolation avec Ies points y1 , • • • , Yn ne garantit pas la pre-
cision desiree, on fait Xn+1 = Ln (d), Yn.+1 = j (Xn+i); puis, selon
le contexte, on remplaee g ~d) par la valeu:r du polynome d 'inter-
polation pour tous Ies y 17 • • • , Yn+i ou pour Ies points Ies plus
proches de d.

§ 15. Systemes orthogonaux: et leurs propui.etes


Soit Hun espace de Hilbert muni du produit scalaire (f, g) .et~
respectivement, de la norme li fli = V (f, f).
Les conclusions Ies plus importantes du present paragraphe sont
vraies pour Ies cas suivants:
A) H est un espace de fonctions compfoxes definies sur [a, bi
avec l'integrale hornee
b

j p (x) II (z)f: d$,


2

a
le· produit scalaire est donne par l'egalite
b
U, ~)= J
a
p(x)i(x}g(x)dz; (1)

p > O presque partou,t sur [a, b]; Ies, fonctions dist1nctes sur un
ensemhle de mesure nulle sont considerees comme egales.
B) H est un espace eueHdien de vecteurs complexes n-dimen-
sionnels (x1 , . . • , xn): avee J)(imr PJ!Od-u.it sealairei
n
,x, y) = ~- P1P~it
i=1
(2)

P =
[plt,l est une: matniee deMnie positive.
Soit {cp1 }n = q,1 , . • • , ff)n; un systeme d'elements de H. Ce sys-
teme est dit or.thogonal si (<pi, cp1) = O powr i =I= j et ltneatrement
independant si
n
2} C1cp1= O
j=1
a eondition que tous Ies C1 = O.
L'orthogonalisation d'un systeme donne d'elements d'un espace
hilhertien joue un grand role dans Ies recherches theoriques.
§ 16) SYST2MES ORTHOGONAUX ET LEURS PROPRI:eT:es

LEMME 1. Soit un systeme lineairement independant d'elements.


q>i, • • •, q>Ji. On peut construire un systeme orthogonal lineairement
independant
i=1, . 'n,
' (3)-
ou tous les bu = 1.
On se servira de la methode de recurrence. Pour n = 1, on a le-
systeme trivial: ;,1 = q>1 • Supposons que le systeme eherche {"i'J}n
soit construit pour un certain n = k. On trouve alors ,j,,i+1 sous la
forme
k
'\J'k+i = fl>k+s - ~ aki"i't• (4}
i=i

Les coefficients akt sont choisis a partir de la condition d'orthogo-


nalite (1J,k+i, ,j, 1) = Oavec i ~ k. Le systeme {,J,1 h etant orthogonal„
la derniere relation se recrit

d'oii

donc
k

'i'k+I = 'P~+i - ~
i=i
(r~;:' ,j,~)U ,j,f (5)

est orthogonal par rapport a tous Ies elements precedents. En y por-


tant
i
Wt = ~ btp'Pp
P=i

(i ~ k), on obtient la relation eherchee. L'ensemble de relations


(3) lorsque j ~ n peut etre represente par

"i'(n) = Bn 'P(n),
ou

~(n)= (!') • 'P(n) = (1' ). B.=( b:b31


o o o ...
1 o o ...
ba2 1 o ...
)
"i'n 'Pn
.. ...
~o INTERPOLATION ET PROBL1;lMES CONNEXES [CH. II

D'autre part, en transferant tous Ies ,p, du second membre de (5)


-dans le premier, il vient
1 O O O ••• )
, a~u 1 O O •••
'P(n) =Ân'\li(n), OU An= . (6)
( a 31 a32 1 O •••
..........
La matrice Bn est quelquefois appelee matrice d'orthogonalisation.
Puisque det Bn = 1, la transformation definie par Bn est non dege-
neree et change le systeme lineairement independant {cp1}n en {'\J,J}n
1ineairement independant lui aussi.
Du moment que {cp1 }n est lineairement independant,: îl en decoule
Bn = A;i. .
Les systemes de polynomes orthogonaux constituent un outil
puissant de l'analyse classique. On pre:g.d en qualite du systeme
·de fonctions {cp1 } le systeme 1, ... , :i1+1 , • • • , qui est ensuite
orthogonalise dans l'espace dote du produit scalaire (1) selon le
·schema decrit. Les polynomes

(7)

-que l'on obtient de cette fa~on, s'appeţlent polyn6mes orthogonaux


par rapport au poids p (x) et a 'l'intervalle [a, b]. Le nom de polyno-
mes orthogonaux relativement au poids p (x) est parfois donne a
'1' 1 (x) = a,$ 1 (x),. a.1 etant choisis moyennant certaines conditions
.-supplementaires,. par exemple li '1' 1 li = 1. Le systeme d'elements
.orthogonaux verifiant cette condition est dit orthonorme.
Nous avons deja rencontre le systeme de polynomes
T n (x) = 2n-1xn+ ••• ,
orthogonaux surl 'intervalle ferme [-1, 1] avec le poids 2/(nV 1-x:a)
.et note a cette occasion que leurs valeurs sont calculables
au moyen de la formule de recurrence
T n+t (x) = 2xTn (x) - T n-l (x). (8)
La recherche des polynomes orthogonaux de Tchebycheff selon
·{8) est a preferer au calcul direct suivant la formule explicite (7).
En effet,
1. Dans le premier cas il est inutile de conserver en memoire ou
-de calculer Ies coefficients bJi•
2. D'ordinaire, on doit trouver Ies valeurs de tous Ies polynomes
lj,1 (x), ... , ll'n (x) a la fois et en un meme point. Avec la formule (7)
on calcule chaque polynome separement, ce qui fait que le calcul
-comprend en tout ;;n2 operations arithmetiques.
§ 15) . SYST:tMES ORTHOGONAUX ET LEURS PROPR~rns 81

a (n) >< b (n) signifie que Ies deux elements sont d'wi mâme ordre de gran-
deur, i.e.
a (n) = O (b (n)), b (n) ·= O (a (n)).
Tandis que dans le cas de la formule (8) ces operations sont
au nombre de O (n).
3. Les valeurs de T n (x) obtenues directement par la formule (7)
risquent d'etre affectees d'une grande erreur de calcul: Tn (x) est
la somme
n
T n (x) = ~ dnJXJ. (9)
i=O
En calcul automatique, Ies ţermes dnp:7 peuvent acquerir une erreur
absolue de l' ordre de J dn;i' I 2 -t, d 'ou une erreur en Dn (x) 2 -t sur
Tn (x) avec

Minorons Dn (.x) ; l'egalite


n
T n ( J X J i) = ~ dnJ ( J X J i) 1
. ,1=0
entraîne l 'estimation
n
JTnJ(fxfi)~~ ldn1xif=Dn(x).
J=O
D'autre part, selon (8.4) on a, pour x reel,
T n ( JX Ii) = (Iz I+ V f +Iz j2)ni ( Iz I-V f +Iz 12)11 În;

vu que
(IX I+ V 1 +IX 12) (IX I- V 1 + IX 12) = -1,
on e;n tire
Dn (.x)~f T n ( Ixii) J> (Iz I -1-1/1+1 zl2)";( I zi+ V f+I zj2)-n •

Ainsi, si n sont grands et x ;/= O, le calcul direct a l'aide de la for-


mule (7) introduit une erreur de l'ordre de
(I Z f + V1 + f X f
2)n2-t •

~ROB~ME. Demontrer l'egalite


Dn (z) = I Tn (I z I t) I.
Une fois de plus nous sommes en presence de perte de chiffres
significatifs: I T 11 (x) I ~ 1, mais en calculant. Tn (x) avec (9) on
6-01007
82 INTERPOLATION ET PROBL'EMES CONNEXES [CH. 11

l'obtient comme somme de termes designe varia:ble grands en valeur


absolue, qui presente donc une erreur importante.
On peut montrer par ailleurs que le calcul de T n (x) par la for-
mule de recurrence (8) fournit une erreur de l'ordre de O (n22-').
On comprend desormais toute la portee des relations de recurrence
du type (8) reliant Ies valeurs des polynomes orthogonaux relati-
vement aux autres fonctions de poids p (x).
Passons a des formations plus generales. Soit L u~ operateur
auto-adjoint sur l'espace hilbertien H: q>1 E H, 'Pi = L'-1 q>1 ; sup-
posons que Ies elements q>i, • • •, 'Pn sont lineairement independants.
Selon le lemme 1 de ce paragraphe, on peut construire un systeme
d'elements orthogonaux
;
'\J,1= ~ bifq>J,
i=1

avec tous Ies biJ egaux a l'unite.


Tu:eoR:8ME. Les elements ,i,1 verifient le systeme de relations
'\J,;+1 + a1+1, 1""1+ a 1 +1, J-1'l1'1- 1 -L'\J,1= O, (10)
ClJ+t, J-1 > 0.
D:SMONSTRATION. On a

Vu (6): <i><J+u = A1+1'l1'li+u, on ecrit


i+1
L,J,1 = ~ am, itl't, (H)
i=1
Notons que a 1+i, 1+1 = 1 conformement a (3), (6).
En multipliant scalairement Ies deux membres de (11) par """•
k~j +
1., il vient
;+i
(11'1, L,J,1i) = (Lt(,;, '\J,1i) = ~ a1+1, d'ti'it 1h) = ai+t, k ('l!'k, '\J)k)- (12)
i=t

Exprimons IAJ,k a l'aide de (11)., puis portons cette expression dans


le premier membre de la derniere egalite
k+1
('tJ,J, ~ a;k+t,i'tJ,i)=aJ+1,1&('ti'k, '\J)k)•
i=1 '
+
Pour k 1 < j, le premier membre s'annule, donc ctJ+t, k = O quand
k < j -1. Et la relation (11) se met sous la forme
. a:1+1. J+til>J,H + ctJ+t, Mi+ ctJ+t, J-1tl>J-1 -L,J,1= o, (13)
ftS] SYST!MES ORTHOGONAUX ET LEURS PROPRililTES 83

ou, salon (12),

Nous avons
("l'i, L11>1+1)!(1"1+1, 11'1+1) = a1+1, l+i = 1,
i.e. (L11>1, Y.1+1) = (,J,1+1·, 11'1+1) ; donc
<:XJ+i, 1-t = (11'1, L11>1-1)/(11'1-h 11'1-1) = (11'1, 1"1)/(11'1-h "i'i-1) > o.
D'autre part,
a;+1, 1= (L11>1, 1"1)/(11'1, 11'1),
et la relation de recurrence (10) s'ecrit
(L,t,J, 'i'J) (,t,J, 'i'J)
'li'J+t+ ('l>J, '1'1) ,i,,+ {'l>J-h '1>1-1) 11'1-t-LWi=O. (1.4)
Le theoreme est demontre.
Considerons maintenant un cas interessant pour nous: le cas
A) pour cp1 == 1 et L un operateur de multiplication par x. 'l'J est
alors le polynome P 1 _1 (x) de degre j - 1 et, en changeant Ies nota-
tions a,11. = d1_17 k-u j = n 1, s'ecrit +
Pn+t (.x) +dn+i, nPn (.x) +dn+t, n-tPn-1 (.x)-.xPn (.x} = O, (15) ,
b b
S :tp (:t) P! (:t) dz S p (z) P~ (x) dz
dn+t, n = _a--:b,------ , dn+t, n-1 = ba > O. (16)
S p (:t) P! {:t) dz S p (:t) P~_1 (z) dz
a a
LEMME 2. Soit {'\J,J}n un systeme d'elements
j
11'1=~ bJt'Pi pour bJJ=i,
i=i
construit en orthogonalisant successivement le systeme fcp1}n, et soit
{ z 1}n un systeme orthogonal d' elements
j
ZJ =~ d1t'Ptt tous les dJJ= 1. (17)
i=i

Alors ZJ = 'l'J quels que soient j ,< n.


DlilMONSTRATION. La propoşition est vraie pour j = 1; supposons qu'elle
l'est pour tous Ies j ~ k. (17) entraîne ·
k
Zk+t = cpk+1- ~ %+1,iZi•
i=1
En multipliant par zi, il vient
0= (cph+h zi)-0/l+t, i (z1, z,>;
6•
84 INTERPOLATION ET PROBLlllMES CONNEXES [CB. II

d'oii
(q,k+t, "i'i)
($i, ,q,i)
En se rappelant la demonstration du lemme 1, on constate que zk+l est egale-
ment determine par l'egalite (5). Donc, Zk+1 = 1l>k+1, ce qui demontre l'unicite
du systeme orthogonal du type considere.

§ 16. Polynomes orthogonaux


Nous allons enumerer Ies systemes Ies plus repandus de poly-
nomes orthogonaux en particularisant la fonction de poids.
1. Polynâmes de Jacobi. L'intervalle est [-1,1) et la fonction
de poids
p (x) = (1 - x)a (1 + x)P, a, ~ > -1.
Les polynomes
pr,P>(x)= <;;r (1-x)-a(1+x)-P ;;n ((1~x)'~+n(1+x)P+n)
sont dits polynâmes de J acobi. On a Ies relations
( 2a+P+ rca.+n+1) r(~+n+1) }l/2
1
ll p(a,(3){X)II=
n ni (a.+~+2n+1) r (a.+~+n+1) '
(a+ ~+2n) (a+P+2n+1) (a+~+2n+2)xP~a, P> (x) =
=2(n+1) (a+~+n+1) (a+~+2n) P~.;.f> (x) +
+(~ 2 -a2) (a+~+2n+ 1) P~• P>(x) +
+2(a+n) (P+n) (a+~+2n+2JP~a~r>(x), (1)
-ou r est la fonction gamma d 'Euler.
Les polynomes de Jacobi satisfont a l'equation djfferentielle

La., 13 (P~• P> (x)) == (1-x2) (P~a, (3) (x))xx + ((P- a)-
-(a+ ~+ 2) x) (P~a, P>(x))x= -n(a+~+n+1) P~a, P> (x),
i.e. ce sont Ies fonctions propres de l' operateur differentiel La.r,-
2. Polynorries de Legendre. Les polynomes de J acobi pour a =
= p = O, c'est-l-dire lorsque la fonction de poids p (x) ==i 1, sont
dits polyn6mes de Legendre et se notent
1 · dn n
Ln(X)= 2nnJ din(x2-1)
avec pour norme
li Ln li =V 2/(2n+ 1)
§ 16) POLYNOMES ORTHOGONAUX 85

et la relation de recurrence
(li+ 1) Ln+l (x) - (2n + 1) xLn (x) + nLn-i (x) = O.
On: remarquera que pour n grands, eette relation, de mâme que (1)
avec a. et p queleonques, s'apparente a la relation de recurrenc&
pour Ies polynomes de Tehebyeheff.
3. Polynâmes de Tchebycheff. Pour a, = ~ = -1/2, p (x) =
= 1/y 1 - x 2 Ies polyn6mes de J aeobi deviennent Ies polyn6me!1
de Tchebycheff de premiere espece Tn (x).
4. Polynâmes de Tchebycheff de deuxieme espece. Pour a, = ~ =
= 1/2, p (x) = V 1- x2 , Ies polyn6mes de Jacobi s'appellent
polyn6mes de Tchebycheff de deuxieme espece
Un (x) = (sin ((n+1) arccosx))/V1-x2 =
= T~+t (x)/(n+ 1), n = O, 1, •.. ,
de norme li Un li = n/2. La relation de recurrence est la mâme-
pour Ies polynomes de Tchebycheff des deux especes.
5. Polyn6mes d'Hermite. L'intervalle est (-oo; oo) et la fonc-
tion de poids p (x) = exp (-x2). Ce sont Ies polynomes
dn
Hn (x) = ( -1texp (x2) din (exp (-x2})
a vec pour norme
11 Hn li= V 2n.n ! Y n
et relation de recurrence
Hn+i (x) - 2xHn (x) +2nHn-l (x) = O.
11s satisfont a l'equation differentielle
H;-2xH;,,= -2nHn·
6. Polynomes de Laguerre. L'intervalle est [O, oo) et la fonc-
tion de poids p(x)=xaexp(-x). Ce sont Ies polynomes
L~a>(x)=(-1fx-aexpx : 1
(xti+nexp(-x))
de norme
li L~a)II =V n I r(a.+n+1)
et de relation de recurrence
L~"-tt (x)-(x-a-2n-1) L~a>(x) +n (a+n) L~a21 (x) = O„
Les polynomes de Laguerre verifient l'equation differentiell&
x (L~a) (x))xx+ (a+ 1--.x) (L~a) (x))x= - nL~a) (x).
86 INTERPOLATION ET PROBL:EMES CONNEXES [CH. II

Etablissons certaines proprietes des polynomes orthogonaux. Soit


P 0 (x), ... , Pn (x), ... un systeme de polynomes orthogonaux
sur le segment [a, b]:
n-1
Pn (x) =Xn + ~ PnJX;.
;=O .
LEMME 1. Tout polynâme Pn (x) admet exactement n zeros distincts
sur l'intervalle (a, b).
DmroNSTRATION. Supposons que Pn (x) ne possede sur (a, b) que
l < n zeros x1 , ••• , Xz de multiplicite impaire. Alors
l •
Pn (x) IT (x- Xi),
1=1

ne change pas de signe sur [a, b); aussi


b l
j p (x) Pn (x) II (x-x1) dx =fo O.
a j=1

D'autre part, cette integrale est egale a zero, car Pn (x) est ortho-
gonal par rapport a tous Ies polynomes de degre inferieur. La contra-
dietion obtenue demontre le lemme.
LEMME 2. Soient x1 <n> < ... < x~0 les zeros de Pn (x). Alors
les zeros de P n _1 (x) et de P n (x) alternent„ c' est-a-dire :
a< x<r> < x~n-1) < ... < X~_-/> < x~> < b. (2)
DlilMONSTRATION. Supposons cette proposition vraie pour un cer-
tain n. Portons x = xin> dans (15.15); il vient
Pn+i (x~n>) + dn+i, n-1Pn-1 (xin>) = O.
Puisque dn+1. n-1 > O,
sg Pn+t (xin>) = -sg Pn-1 (xtn>). (3)
Comme tous Ies zeros du polynome Pn-i (x) = x"-1 + ... appar-
tiennent a l'intervalle (a, b), on a
sg Pn-i (b) = 1_, sg Pn-l (a) = (-1)n- 1 •
On en tire, compte tenu de (2),
sg Pn-t (xfn>)s::::z (-1)n-'.
De meme
sg Pn+l (b) = 1, sg Pn+i (a) = (-1)n+ 1 •
§ 16) POLYNOMES ORTHOGONAUX 87

II resulte de la derniere relation et. de (3) que le polynome P n+i (x)


change de signe en tout point de la suite a, x~"), . . . , ~>, b
et qu'il admet un zero entre deux points consecutifs quelconques,;
ce qui demontre la validite de (2) pour n suivant. On peut raisonner
a partţr de n = 1 parce que cette valeur verifie toutes Ies relations
eerites, y eompris (3). Le lemme 2 est done demontre.
Considerons un cas d 'un interât pratique certain ou le poids
est une fonction paire par rapport au milieu du segment [a, b].
Posonst pour fixer Ies idees, [a, b] = (-1, 1) et, partant, p (x) =
= p (-x). Nous avons alors le
LEMME 3. Tous les polynomes P 2 i (x) sont pairs et tous les P 2 ,_1 (x)
impairs, c' est-a-dire
P 1 (-x) = (-1)1 Pi (x) quels que soient ii (4)
et la relation de recurrence (15.15) s'ecrit
P J+l (x) - xP J (x) + d1+1,i-1P J-t (x) = O. (5)
D:&MONSTRATION. p {z) etant pair, P 0 (z) = 1 et P 1 (z) = x sont ortho-
gonaux, et
1
(Po, P1)= ) zp (z) d1;=0.
,' -1

11s sont donc elem0nts d 'un systeme orthogonal. Supposons que (4) est demontree
pour J ~ n 0t (5) pour J < n. Revenant a la formule (15.15), on a

Pn+l (z) + (dn+l,n - z) Pn (z) + dn+i,n-iPn-l (z) = O.


Puisqu0 (4) est vraie 0t p (x) pair, xp (z) P~ (z) est impair, donc, conformement
a (15.16), dn+i,n = O. 11 0n decoul0 la validite de (5) quand; = n. La fonction
xPn (z) est oe meme parite que Pn-i (z); aussi Pn+,1 (z), qui figure A gauche
dans (5), pour j = n est de mem0 parite que Pn -,Jx). Nous avons demontre
(4) pour la valeur suivante j = n +
1 et, avec 0110, le lemme 3.
11 0n resuite 0n particulier que dans le cas considere Ies zeros des polynomes
orthogonaux Pn (z) sont symetriques par rapport a !'origine des coordonnees.
En particulier pour n impair l'un deces zeros est x = O du moment que Pn (z)
sont impairs.
Les relations de recurrence citees aux n°s 2-4 pour des polynomes orthogo-
naux concrets ne sont pas identiques a (5), puisque cette demiere est vraie
pour des polynomes orthogonaux normes de fa9on que le coefficient du terme
de plus haut degre est egal a 1.

Signalons une propriete remarquable de la repartition des zeros


de polynomes orthogonaux. Soit [a, b] = [-1, 1) et supposons que
le poids p (x) est presque partout positif sur ce segment. Designons
par Wn (xi, x 2) le nombre de zeros de P n (x) appartenant au segment
88 INTERPOLATION ET PROBLlmES CONNEXES [CH. IJ

(6)

Ainsi, pour un poids quelconque, Ies zeros des polynomes ortho-


2
gonaux sont asymptotiquement equirepartis avec la densite -V •
n 1-z2

§ 17. Derivation numerique

Les formules Ies plus simples de derivation numerique sont fournies


par la derivation des formules d 'interpolation.
Etant donnees Ies valeurs d 'une fonction aux points x 1 , • • • , Xn,
on demande de caleuler la derivee j<k> (x). Formons le polynome
d 'interpolation Ln (x) et posons j<k> (x) ~ L~> (x). On effectue Ies
mâmes substitutions a l'aide des polynomes de Bessel, d'Everett, ete.
Evaluons l'erreur dans Ies formules de derivation numerique. On a
f (x) - Ln (x) = f (x; X1; ••• ; Xn) ron (x) ;
d'ou, d'apres la formule de Leibnizi
k
j<k> (x)-L!!'>,(x)=
.
21 c{ (/ (x;
i=O
X1; ••• ; Xn))'h (l)~-j) (x). (1)

Soit g (x) q fois continument derivable. En vertu de (5.4) qui donne


la derivee moyennant la difference divisee, on a
g (x; x + e; .•• ; x + qe) = g<q> (x )/q!, 2

avec x ~ Xe ~ x + qe; d'oii


g<q> (x) = q I lim g (x; x+ e; .•• ; x+ qe).
e-o
Par consequent,
~- (I(~ ; X1 ; ••• ; Xm))<q> = q ! [lim j(x ;
e-o
X+ e ; •.. ; .z +
+qs; X1; ••• ; Xm)]. (2)
En vertu de la definition de la difference divisee a points multiples~
l'expression entre erochets est
f (X ; •• • ; X ; X1 ; • • • ; Xm).
~
q+1 tola
§ 17] D~RIVATION NUM~RIQUE 89-

Donc, (1) se recrit

/<"> (x)-L!:'> (x) = ~


" (k~~)
1 / (x; ••. ; x; x 1 ; ••• ; Xn) rot-i> (x).
~o ~ (3}·
i+t tois
Nous avons exprime l'erreur sur Ies formules de derivation numeri-
que au moyen des differences divisees de la fonction. Apres avoir·
evalua celles-ci par Ies 'derivees conformement a (5.4)1 on aboutit
A l' estimation d 'erreur
I/<k> (x)-L<:> (x) f~
k
......- ~ kl max I j<n+J> (x) 11 ro<k-i) (x) I (4t
~ i=O
Ll (k- J") I (n +·)I
1 [Yt, 112) .
n ·'

ou, comme plus haut,


y1 = min (x, Xi, ••• , Xn), y 2 = max (x, Xi, ••. , Xn)-
Considerons quelques cas particuliers. Supposons que la derivee-
k-ieine soit determinee par la derivation d'un polynome d'interpola-
tion de degre k aux k + 1 absc_isses x1 , • • • , XA+i• Du moment que-
LA+1 = I (x1) + ... + f (x1 ; ••• ;
(x) X1i+ 1) (x-x1) ... (x - xk),..
la relation J<''> (x) ~ Lt+1 (x) s'ecrit
j<k> (x) ~ klf (x1 ; ••• ; X1i+1),
i.e. elle est une consequence de (5.4). Pour k . 1.i (3) donne
f' (x)- L~ (x) = f (x ; x1 ; ••• ; Xn) ro~ (x) + .
+ f (x ; X; Xt ; ••• ; Xn)
.
ron (x) =
/<11) (tt)
n1
, ( )
ron X +
(t2)
+ /<n+i)
(n+1) I ron (x), ~h ~2E (y1, Y21• (5)·
Si x est l'un des points x1 , • • • , Xn utilises dans l'interpolation%
alors ron (x) ..:.. O, et la relation (5) entraîne
I/' (x)-L~ (x) I~( max Ir> (x) I) I (t)~ \:,;) I .
[Ys, 112) n
Considerons le cas de~ points equidistants: x 1 - x 1 _1 E=i k. rog> (x)·
est la somme du produit_ de n - j facte:urs de l'ordre deh, chacunt
si bien que l'ordre de ro~> (x) est O (hn-'). Le second membre de (1)·
est donc
/ (x; X1; ••• ; Xn) ro!:'> (x) + O (h,n-k+1) = O (hti-h ).
Si ro~> (x) = O en x, il ressort de cette relation que l'ordre de-
grandeur de l 'erreur augmente. Citons quelques formules usuelles;.
possedant cette propriete.
130 INTERPOLATION ET PROBL8MES CONNEXES [CH. II

Proposons-nous de calculer /" (x) en x 0 pour Ies abscisses x_z, •.•


... . . , x 0 , • • • , xi, XJ - x,_1 h. Alors n = 2l ==1, ©n (x) = +
= (x - x_z) ... (x- xz) est impaire par rapport a x 0 • Aussi ©n (x0) =
~ ro; (x0) = O, et la relation (3) s'ecrit pour k = 2:

f"· (x0 ) - L; (x0 ) = 2/ (x; x; x_z; ... ; x,) ro~ (x 0 ).


·La derivation directe fournit
ro~ (xo) = ( -1)' (l !)2 h2l •
.Ainsi, eompte tenu de (5.4), îl vient

.f
-,, (xo) - L"n (xo) -- 2 (-i)'(l J)Z /<2l+2> (,.) h2z
(2l + 2) I 1:, •
!{6)
..L; (x0) s'exprime par Ies differences /~;. On a finalement
l
I" (x)o - ,-.J_ L" (x )-- h-2 "1
n o - LJ
2 (-i)H ((i-1) 1)2 / 2;
{21) I o (7}
J=i
..avec (6) pour reste.
Les cas Ies plus usites de (7) sont l = 1, l = 2 :

/" (xo) ~ t:1h 2 , /' (xo) ~( t: - 1\ /~) / h 2 • (8)

Le calcul de toute derivee /< 2 "'> {x0 ) sur l'ensemble ci-dessus de


·points d'interpolation s'effectue avee la meme elevation de 1 de
1'ordre de l'erreur par rapport a h"-2k.
Trouvons la derivee y' (x) en = x0 + h/2 pour Ies points x
X-u-u, ••• , x 0 , xu .•. , xi, XJ+i - x 1 == h.
Dans ce cas la fonction ©n (x) est paire par rapport a x, et la rela-
-tion (5) s' ecrit
I -
f (x)-Ln(x)=
1 - f<n+l) m
(n+t)I @n{x).
-
·Comme dans le eas de la derivee seconde, ecrivons L~ {x) en fonction
-de trj/ 1 et calculons @n (x). On aboutit a la formule de derivation
·numerique
+
.I' (x0 h/2) ~ L2z (x0 h/2) = +
l-t
_ h_1 °Yi (-t)J ((1/2) (3/2) ... (i-1/2)) 2 / 2i+ 1 (
9)
- "'-I (2i+1)1 1/2
;=O
„don t le reste est
(-t)l ((1/2) {3/2} ..• (Z-1/2)) 2 j<2l+t) (~) h2l.
(2Z+1) 1
§ 18) ERREUR DE CALCUL 91

Ecrivons Ies formuies Ies plus simpies (correspondant a l= 1,


l=2)
+
/' (x0 h/2) ~ !1J 2 !h,
(10)
I' (xo+ h/2) ~ ( n12- ~ 1112) h. I
Pour notre ensemble de points, l'ordre de precision pour une derivee
quelconque d'ordre impair s'elevera de 1.
Pour conolure, parlons des formules unilaterales de derivation
numerique qui offrent un interet pratique. Soit a calculer f' (x0)
par interpolation aux abscisses x 0 , • • • , Xn a pas constant. Selon (5).
on a
' , J<n+i) (~) ,
f (xo)-Ln+1(xo)= (n+i)I O>n(Xo)• (11)

En y portant Ln+i (x) sous forme de poiynome de Newton pour


i'interpolation en avant, il vient
n
I' (xo) ~ L~+i (x0) = h-1 ~ (-:)i-t /j12 (12)
i=i
avec pour reste
(-t)n j<n+o (~) hn
(n+ 1) •
Les formules Ies plus simples (correspondant a l = 1, l = 2) sont
f' (xo) ~ fbfh, (13)
I' (Xo) ~ ( ff 12 - ! 1n Ih.
On construit par analogie Ies formules si Ies points d 'interpo-
lation sont x 0 , x_1 , • • • , X-n:
n
f' (x0) ~ L~+1 (xo) = h-t ~ : fi_m, (14)
i=1
le reste etant

§ 18. Erreur de calcul dans Ies formules


de derivation numerique
· II peut arriver, dans une derivation numerique, que la diminu-
tion de l'erreur de methode fasse du mâme coup augmenter l'influence
des erreurs provenant des. donnees initiales et du calcul mâme.
92 INTERPOLATION ET PROBL:8MES CONNEXES [OH. Il

Supposons, pour fixer Ies idees, que /' (x0) se definit par la reia„
tion
/' (xo) ~ (f (x1) - f (xo))lh. (1)
Conformement a (17.11) s,;m reste est
T1 = -I"{~) h/2.

Supposons que I f" {~) I~ M 2 et, donc, I r 1 I~ M 2h/2.


Sile calcul de/ (xi) conduita une certaine erreur ei ( I ei I~ E),
celui de /' (x 0) donnera un terme d'erreur supplementaire
T2 =
(81 - 80)/h, I T2 I ~ 2E/h.
Le souci de la simplicite nous fait negliger Ies arrondis lors du
calcul du second membre de (1). On a l'evaluation d'erreur
Ir I~ I r1 I+ I r 2 I~ g (h) = M 2h/2 + 2Elk. (2)
L'erreur est petite si h l'est, or la diminution de k entraîne la crois-
sance du second terme {fig. 2.18.1). L'equation g' (h) = O donne
r· le point d'extremum de g (h):
ho=2VE/M2,
puis
g (ho) = 2 VM 2E.
Ainsi, pour aucun h on ne peut
affirmer que l'erreur sur le resultat
sera de l' ordre de o (V E).
ei sont dues aux erreurs affectant
Ies valeurs donnees des fonctions, si
par exemple ces dernieres sont defi-
nies par des mesures ou calculees
par une formule approchee. Puisque
ces valeurs sont arrondies une deu-
xieme fois a I' entree, on estime
h0 h que E ~ const 2 -t, t etant la lon-
gueur du nombre traite. Donc,
Fig. 2.18.1 dans le meilleur des cas la moitie
des chiffres de /' (x 0) est exacte.
Le recours aux formules plus exactes ameliore quelque peu cet
etat de chose. Calculons la derivee y<k> (x) moyennant la formule
n
y'k> (x) ~ (~ CJY1)/h", CJ=O (1), (3)
o
le reste etant O (h'). Dans le eas k = 1, 2, Ies formules de calcul
des derivees d'ordre k contiennent, on Pa vu, kr,. au denominateur.
<§ 18) ERREUR DE CALCUL 93

L'erreur generee par Ies erreurs du second membre de (3) est evaluee
par const •Efhh.. On a donc au lieu de (2) .
Ir I~ g1 (h)· = A 1h1 + A 2Elh1t.
Le second membre atteint un minimum pour un h de l'ordre de
E 1/(l+h.> et son ordre de grandeur est Ell<l+h.>. On voit que l'ordre
de l'erreur augmente devant E avec l. Ceci etant, la valeur du pas
-q'ui correspond au minimum de l'evaluation d'erreur augmente cons-
tamment. N'oublions surtout pas que A1 et A 2 peuvent croître avec
l, donc il n'y a lieu d'augmenter l que jusqu'a une. certaine valeur.
Dans la pratique on recourt volontiers a toutes sortes de methodes
-de lissage des valeurs initiales des fonctions, qui permettent, d 'une
part, de diminuer E et, d' autre part, de rendre la fonction
plus lisse et, partant, d 'utiliser Ies formules de derivation par
anterpolation plus exactes. Nous en reparlerons au chapitre V.
Bibliographie du chapitre n
§ t: I [f5], II [22] ; §§ 4-7, to: II [7-, 36] ; § 18; III [25, 34].
CHAPITRE III

. INTiGRATION. NUMiRIQUE

§ 1. Formules de quadrature de Newton-Cotes


Les formules de quadrature Ies plus simples s'obtiennent par
des considerations · intuitives. Soit a calculer I 'integrale
b

l= Jf(x)dx.
a
Si f (x) ~ const sur le segment considere, on pose / ~ (b - a) X
X f (t), t etant un point arbitraire de [a, b]. On prend tout naturel-
lement pour t le point median du segment ; on obtient alors la
formule des rectangles
/~(b-a)f(bţa ).
Supposons que f (x) soit proehe d 'une fonction lineaire,- ce qui per-
met de remplacer !'integrale _par l'aire d'une trapeze de hauteur
(b - a) et de bases f (a) et f (b) (fig. 3.1.1). On aboutit a la formule
des trapezes ,
/~(b-a) f(a)if(b).
A vec la supposition ci-dessus sur / (x), des considerations geometri-
ques permettent d'esperer des resultats satisfaisants avec la formule
des rectangles. En effet, (b - a) f (bţa) represente l'aire d'une
trapeze quelconque de hauteur b - a et de mediane f ( bţa) , en par-
ticulier, celle d'une trapeze dont l'un des cotes se confond avec la
tangente a la courbe y =rt (x) au point (bţa, f (bţa)) (fig. 3.1.2).
Les formules de quadrature plus compliquees se construisent,
comme celles de derivation numerique, ă l'aide de l'appareil d'inter-
polation. Cette mâme technique nous permettra egalement d'evaluer
l'erreur commise sur Ies formules de quadrature. .
On demande de calculer !'integrale
b

Jf(x)p(x)dx.
a
§ 1l FORMULES DE QUADRATURE . DE NEWTON-COTES 95,

Le leeteur verra plus bas ( § 3) Ies raisons qui nous ineitent a intro-
d uire la fonetion p (a:) dite fonction de poids. Fixons-nous eertains

f(o)

f(h)

a o+b h
a /J 2
Fig. 3.1.t Fig. 3.1.2

di, ... , dn E (-1, 1) et formons un polynome d'interpolation L 11 (z)


de degre n - 1 qui coincide avee / (z) aux points
b-1-a b-a d
%J=-2-.-+-2- .,.
Posons
b b ,
J/(x) p (x) dx ~ JLn (x) p (x) dz.
o o
On a
b b b
Rn{t)= Jf(x)p(x)dx-J Ln(x)p(x):dz= Î p(x)(f(x)-Ln(x))dx„
a a a
On evalue la difference / (x) - Ln (x) en recourant a l'estimation
de l' erreur sur le polynome de Lagrange
lf(x)-Ln (x)J~(maxlf<">(x)I) lron(z)I ,
(a. b] . nl
avec

D'ou

tRn Ul I~ (max f/t"> (:i) I)


(s, b)
sI
b

a
w,. <:r:> li P <z>'I dz.
nl
136 INTlllGRATION NUMlllRIQUE [CH. III

Effeetuons le changement de variable dans la derniePe integrale


X=X(t)= bţa + b2a t;
-on trouve
b
t
nT Jfron(x)p(x)jdx=D(d1, (
••• , dn) -b-a
2
- )n+t ,
a

n:(di,
r
1
.•• , dn) = J
I w! (t) pO (t) I
nI dt,
-t

~(t)=(t-d1) .•• (t-dn), p0 (t)=P ( bţa +b2 4


t}.
On a done l'estimation
I Rn (f)<D (d1, ••• , dn){max I/<n> (x) I) (
[a, b]
b 2a r+l. (1)

Supposons tous Ies d1 distincts. Alors


tl

"'1 f (x1) II :c-:c, •


Ln (x) = LJ :C·-Xt
i=1 i::pj J

lEn faisant x = X (t) il vient


b n
Jp (x) Ln
a
(x) dx= ( b : / } ~ Di/ (x1),
i=i
(2)
.avec
1
D1= Jp ·(t) II ;-=.dJ, dt.
0
·-1-• j
- 1 t-,-1

Ainsi, on aboutit a une formule de quadrature de la forme


b n
sf (x) P (x)
a
dx ~ b2a ~ DJI ( bţa
i=1
+ b2a di) • (3)

De meme que dans la derivation numerique, pour un probleme


jouissant d 'une certaine symetrie, la methode possedant une sy-
metrie du meme type presante souvent des avantages supplementaires.
LEMME. Soient p (x) une fonction de poids paire par rapport au
milieu du segment [a, b] et x 1 des points symetriques par rapport
a ce point median: di = -dn+t-J· Alors les coefficients de la formule
de quadrature associes aux points symetriques sont egaux:
D1 = Dn+t-J· (4)
§ 1] FORMULE$ DE QUADRATURE DE NEWTON-COTE$ 97

D:eMoNSTRATION. Ecrivons Ies coefficients comme suit:


1

n,·-
- Jr po (t) co(t)
ro' (dj) (t - dj) dt,
-1

ou co(t)=(t-d1) •.• (t-dn)· Pour n pair on a co(t)=ro(-t) et co'(dJ)=


= -co' (dn+t-J), Pour n impair, ii vient ro (t) = -ro (-t) et ro' (dj) =ro' (dn+1-J)·
Dans Ies deux cas la substitution t = - t' donne
1
n.1 -- Jr po<t '> co <t'>
co' (dn+t-J) (t' + dJ) at, --
-1
1
-- Jr po (t') ro'- (dn+t-J)ro (t') d '-
(t' -dn+t-J) t -
D
. n+t-J• (5)
-1

Ces formules de quadrature << symetriques >> possedent une pro-


priete complementaire que leur construction formelle ne laissait
pas entrevoir, a savoir elles sont exactes pour toute fonction impaire
par rapport au milieu du segment [a, b]. En effet, p (x) etant pair,
b
ces fonctions verifient Jp (x) f (x) dx = ~O, et, conformement a (4),
a
n
on a.~ DJI (x1) =O; aussi Rn (f) = O. En particulier ces formules
J=t

sont exactes pour tout monome const • ( x - -b+a)2Z+1


2
- •
Considerons une formule pareille pour n impair. Elle est stricte
pour I (x) = const· ( X - btar
et, par construction, pour un poly-
nome quelconque de degre n - 1. Elle est donc stricte pour n'importe
quel polynome de degre n. Par consequent, Ies formules de quadra-
ture ainsi construites basees sur 2q - 1 et 2q points et telles que Ies
points sont symetriques par rapport au milieu du segment s'averent
exactes pour des polynomes de degre 2q - 1.i
Afin de preciser l'erreur dans Ies formules de quadrature a points
en nombre impair en l'evaluant par /<n+1> {x) et non par /<n> (x),
on rem place la fonction a integrer par le polynome d 'interpolation
de Lagrange avec (b +
a)/2 pour point double. On etablit ci-des-
sous, pour p (x) == 1 des formules de quadrature elementaires avec
evaluation de l'erreur commise; si n = 1 et n = 3 dans Ies for-
mules << symetriques >>, l'evaluation se fait a l'aide de /<"+t> (x).
1. Formule des rectangles. Soit n _;, 1, d1 =: O. On a alors
1 1

D= ) I t l!dt= 1, D, == ) 1-dt= 2
-1 -1
7-01007
98 INT.JliGRATION NUM:8RIQUE [CH. II1

et la formule de quadrature
b
Jf(x)dx~(b-a)f ( aţb) (6)
a
avec pour estimation du resta
max I I' (x) I (b~a)2 •
[a, b]
2. Formule des rectangles a point multiple. Soit n= 2, d1 =-
= d1 = 0. On a

b
JL 2 (x)dx=(b-a)f( aţb )•
a
Ainsi, la formule de quadrature s'eerit
b
Jf(x)dx~ (b-a)f ( aţb ),
a
le reste etant evalua par
(b-a)S
max I/" {x) ___,.....,...........
[a, b] I 24
La formule est la mâme dans Ies deux cas, mais l'estimation
du resta diff ere.
3. Formule des trapezes. Soit n= 2, d1 = -1, d2 = 1. On a
1
D= J I t2; 1I dt = :,
-1
1
D1 = J 1
2 t dt = 1,
-t
1
1
D2 = ) ţt dt=1.
-1
La formule des trapezes se met sous la forme
b
Jf (x) dx ~ (b
2
a) (/(a)+ f (b)) (7)
a
§ t] E'ORMULES DE QUADRATURE DB NEWTON-COTES 99

et son reste est evalua par


r (b-a)3
max I (x) 1----......._ .
[a, b] 12

4. Formule de Simpson. Soit n= 4, d1 = -1, d2 =d,= O, da=


= 1. Alors
1
D- -
r
J
t2 (f-t2)
41
dt-...!..
-- 90 •
-1

Conformement a la formule d 'interpolation a points multiples on


acrit
Ll(x)=L3 (:r)+ f ( a; b; aţb ; aţb) (x-a)(x-b) X

. X (x- aţb ),
oii
. b
Ls(x)=f(a)+f(a; b)(x-a)+f (a; b; aţ )(.x-a)(.x-b).
Le second terme de l 'expression de L, (.x) est une fonction impaire
par rapport au milieu du segment.Ja, b].
C'est pourquoi
b ib
j L, (.x) dx= j La (.x)_d.x.
a a
L3 (x) est un polynome d 'interpolation
de degre 2 correspondant a
d1 = -1, d2 = O, d3 = 1
(fig. 3.1.3). II correspond a ;ces d1, d 2 ,
ds:
t 4 t a+/J
D1=3, D2=3, Ds=a· o -2-
La formule de quadrature Fig. 3.1.3
b
Î /(.x) dx ~ b/ (/(a)+ 4/ ( bţa + / (b)) } (8)
a
est dite formule de Simpson. On evalue son reste par

max I/<'> (.x) I (b-a)5 •


[a, b] 2880
7*
'100 1NT8GRATION · NUM8RIQUE [CH. III

5. Une formule de quadrature ...exacte pour des polynomes du


troisieme degre s'obtient par exemple pour n= 4 si l'on pose
t t
d1 = -1, d2 = - 3 , d3 = T , d, = 1.
Le schema decrit nous conduit alors a la formule
b
r b-a
Jf(x)dx~- ( f(a)+ gI ( a +b-a
-- ) +
8- 3
a

+ 3/ (a+ 2
(b;-a) ) + / (b). (9)

Pour le mâme degre des polynomes la verifiant, elle exige un point


de plus que celle de Simpson, on a donc moins de raisons de s'en
servir.
Une remarque s'impose A propos de la formule (9). Puisque
f (x)-Ln (x) = j<~> (~ (x)) ro~ \x) , le reste se met sous la forme

Jj<n) (~ (x)) ci>:r ăx.


b .

a
Dans Ies cas examines plus haut 2- 4ron (x) · ne presentait pas de
changement de signe .sur [a, b]. Selon le theoreme de la moyenne
b b
j h(x)g(x)dx=h(x) l g(x)dx, xE(a, b], si g(x)>O;
a a
ce qui peut s' acrire
b
j<n> (x) 5 (J): iz) dx. (10)
a

Portant dans ( 10) une expression concrete de ron (x) on represente


l'erreur dans Ies formules des rectangles, des trapezes et de Simp-
son respecti vement par
R2 (/) = f" (x1) (b;_4a)3 '

Ra (/) = - f" (x2) (b~a)3t, R,. (/) = -/<"> (x3) ~(b~~)51.

Si j<n> (x) varie peu sur [a, b], l'estimation (1) ne sera pas en l'oc-
currence trop forte. Pour (9)
©n (x)= (x-a) ( x- 2atb )(x- 2
a~ b ) (x-b)
change de signe sur [a, b] et le resta ne se met pas directement
sous la forme (10).
§ t] FORMULES DE QUADRATURE DE NEW'fON-COTES . 101

II se• peut ·donc que, dans le cas de cette formule de quadrature,


l'estimation (1) soit trop forte par comparaison avec le resultat
exact. Nous procederons au § 2 a ·des constructions generales qui
permettront une evaluation exacte de l'erreur correspondante au
moyen du maximum de I /< 4> (x) j.
Le present chapitre se propose essentiellement de traiter des
procedes de calcul d 'integrales de fonctions donnees analytiquement
et de mettre au point des principes presidant a l'elaboration de
programmes standard d 'integration de fonctions de ce type. Lţt
theorie des formules de quadrature a naturellement affaire a d' autres
problemes lies par exemple au traitement des donnees experimen.-
tales.
· Arrâtons-nous a titre d' exeu{ple sur Ies formules de Tchebycheff auxquelles
on recourait volontiers pour calculer la jauge des navires. La position du probleme
qui a abouti a ces formules rappelle beaucoup la planification d' experiences
t
(eh. II, § 1). On demande de calculer J/ (z) dz, la fonction / (z) pouvant âtr;
-t
approchee avec une'precision admissible par un polyn6me de degre q. L'obtentio;n
de chaque f (:r) par mesure est un procede assez coiiteux et est entacbee d'une
erreur accidentelle relativement importante. Supposons que Ies erreurs de mesure
sont independantes, ont la mâme varian·ce et une esperance mathematique nulle.
La variance de la valeur approchee Sn (/) calculee par la formule de quadrature
n
I (f) ~ Sn (f) = ~ CJf (zj)
i=1
est alors
n
Var ~ cj.
l=t
La condition / (/)=Sn (f) pour /=const s'ecrit
n
2= ~ CJ• (11)
i=t
n
On verifie sans peine que le minimum de Var~ c} dans la condition (11) est
~t '
realise pour c1 = ... = cn = 2/n. Ces raisonnements nous conduisent au
probleme suivant: parmi toutes les formules de quadrature ·
n
2 .
1 <t> ~ n ~ , <zJ>, .
r-t
exactes pour des polyn6mes de degre q, trouver celle qui correspond au plus
petit n possible; Pour q = O et q = 1, c'est la formule des rectangles J (/) =
= 2/ (O); pour q = 2, q = 3. c'est la formule de Gauss (voir § 3)
i <t> ~, ( - Ja) +1 ( Ja)·
1.02 INTEGRATION NUMERIQUE [CH. III

§ 2. Evaluation de l'erreur dans une formule


de quadrature sur une classe
de fonctions
Considerons la formule de quadrature
b N
I (f) = Jf
a
(x) dx ~ SN (f) =(b-a) ~
i=i
DJl(x1) *),

~iont on sait qu'elle est exacte pour tous Ies polynomes de degre
n - 1. Soit Cn (An, [a, b ]) une elasse de fonctions n - 1 fois
eontiniiment derivables qe derivee j<n> (x) continue par morceaux
telle que I j<'"'> (x) I~ An si x E [a, b]. On se propose d'expliciter
sup I/ (f)-SN (/) I,
fECn(An[a, b])

e'est-a.-dire evaluer l'erreur avec un maximum de precision pour


la classe consideree.
Signalons pour memoire la formule de Taylor avec reste sous
forme integrale
X

J
f (x) = T:t + /<"> (y) (~n-=_11~;~ dy,
C . .
1
(1)

avec
n.-1
r:t = ~ pi, (c) (:ci(>i .
i=O
Portons eette expression de f dans celle de l'erreur
RN (f) = I (f) - SN (!). (2)
Rn (f) peut se mettre sous la forme

Le premier terme a droite est nul en vertu de l'hypothese que la


formule de quadrature est exacte pour les polynomes de degre
n - 1. Ainsi,
b x
RN (I)=)
a
( J
C
j<"> {y) (~:.:'I;7 dy) dx-
N X•
( n (z1-y)n-t
-(b-a) ~ D1 J /< > {y) (n-t) 1 dy.
i=i C

*) Dans la formule de quadrature le signe som.me est precede soit du facteur


b - a, soit de (b - a)/2; le sens des coefficients D 1 varie en consequence.
§ 2] :8VALUATION DE L'ERREUR SUR UNE CLASSE DE FONCTIONS 103

Soit c = a pour fixer Ies idees. En permutant Ies variables d 'inte-


gration x et y de la premiere integrale, on trouve
b :ic

Jr J/<n> (y) (:e-y)n-1 d d -


(n-1) I y X-
a a
b b b
= J/<n> (y) ( J <~:_:1;~1 dx) dy = Jj<n> (y) (b-;:t>n dy.
a 'li a

Cbaque J/'"'
a
(y) <"'tn--:::!'f;t dy se prâte 8. 1'8Criture suivante

b --
r /<n> (y) (x1-u>n-1 dy
Ja (n-1) I '

_ { t pour t > O,
t=
O pour t~O.
Donc,
b

RN (/) = JKv (y) f<n> (y) dy, (3)


a
ou
N --
(b-y)n "1 (XJ-y)n-1
KN (y)= nI (b-a) LI DJ {n-1) I • (4)
i=1
11 en resulte l 'evaluation de l 'erreur
b

IRN (/) l~An ) IKN (y) Idy. (5)


a

Montrons qu'elle ne peut etre amelioree. Sur tout segment [a, x1 ],


[xi, x 2 ], • • • , [xN, b] la fonction KN (y) est un polynome de degre
n et admet donc n zeros au plus. Aussi sur le segment [a, b] tout
entier KN (y) en possede n (N +
1) au plus. Faisons z (x) =
= An sg KN (x). La fonction

Z (x) . J z (y)
r
X
(x-y)n-1
(n-i) 1 dy
a

admet pour la derivee d'ordre n la fonction continue par morceaux


z (x), Iz (x) I = An, c'est-a-dire qu'elle appartient a la classe con-
104 INT~GRATION NUM~RIQUE [CH. IIl

sideree. On a
b · b

RN (Z) = J
a
KN (y) An sg KN (y) dy =An 5IKN (y) Idy,
a
par consequent,
b

sup
IECn(An, [a, b])
IRN(f)l=An J
0
IKN(Y)ldy. (6)

PROBL~ME. Examinons une classe de fonctions n fois continfunent deriva~


bles, I /<n> (x) I ~ An. Demontrer que sur cette classe on a egalement
b
sup I RN (I) l=An 5I KN (y) I dy. (7)
a
Evaluons l' erreur commise dans la formule de quadrature
b
J/ (x) dx~ b8 a (f (a)+3f { 2atb} +3/ { a~2b }+f(b)}
a

par max I /<4> (x) 1- Effectuons la substitution y


[a, b] ·
= a + (b - a) t
b
dans !'integrale J
a
IKN (y) I dy. 11 vient
b 1
JIKN (Y) Idy = (b-a)n+t JIKJ, (t) I dt,
a O
ou
N (dll t)n-1
Ko (t)= (1-t)n - ~ D ,- d0 = z1-a • (8)
N nI LJ J (n-1) I ' " b-a
;=t
Dans notre cas
x: {t)= (t~t)'
4
~ ( {O. t) 3 + 3 ( ! - t )3 + 3 ( !- t)3 +(1-t) 3) ;

notons que (O - t) 8 == O si O ~ t. On verifie que pour O ~ t ~ 1


on a ra
(t) ~ O. L'evaluation d'erreur exige ensuite qu'on calcule
1 1
Jo I x: (t) Idt = - osK! (t) dt.
Si K'k (t) conserve son signe, l' erreur est evaluee par une technique
plus commode.
§ 2] JIVALUATION DE L'ERREUR SUR UNE CLASSE DE PONCTIONS {05

LEMME. Admettons que .l(fk (t) conserve son signe sur [a, b]. Alors
. 1 N
RN (/) = /<n> (t) (b-n~)n+i ( Jtn dt- ~ D1 (dj}"). (9)
O ;=1
D~MONSTRATION. En appliquant la formule de Lagrange generalisee au second
membre de (3), on obtient
b 1
RN (f)=f<n> (~) JKN (y) dy=f<n> m(b-a)n+i JK~ (t) dt.
a O
Portons-y f (y) = /o (y) = (y-;:t>n , nous avons
1
RN (/o)= (b-a)n+i JK'j; (t) dt.
o
Portant la mAme fonction dans l'egalite
RN Uo) = I Uo) :-- S N Uo),
on est conduit A
j N
RN <fo) (b~at+i ( Jt 11 dt- ~ DJ (dj)n) •
o ;=t
Ces relations entraînent
1 1 N
J
O
K~ (t) dt = n\ (Jtn O
dt- ~
i=1
DJ (d1)n) = a.
La validite de (9) est im.mediate. Notons que a est l 'erreur dans la formule

J =~
1 N 1
de quadrature J/
O
(.x) dz ~~
i=1
D1f (~) lorsqu'on calcule
O
dz.

Ainsi, dans le eas examina


RN (/) = /<'> (t) (b;.a)5 ( !- : (!r-: (;)4 - !)=
=- /<4> (t) (b~;:t .
Pour einq points on construit, eomme on l'a fait pour la formule
de Simpson, la formule suivante
b
J/(x) dx ~ b a (12/ ( aţb) +32 ( / ( 3atb) +
a
90

+f ( a~3b)) + 7 (/(a)+ / (b))) (10)

avec pour reste - !


1 93 360
(b--a) 7 /< 6> (t).
1.06 INT~GRATION NUMERIQUE [CH. III

Pour deduire ce reste on suppose le point aţ b multiple, la fonction Kg (y)


conserve le signe et on evalue l' erreur suivant le schema decrit.
On recourt rarement aux formules possedant un grand nombre
de points equidistants.

§ 3. Formules de quadrature de Gauss

La formule de Simpson et celle des rectangles attestent qu'un


choix heureux des points eleve le degre des polynomes verifiant
exactement la formule de quadrature.
C'est pourquoi on pose le probleme d 'optimisation suivant.
Pour un nombre donne n de points, construire la formule de quadra-
ture · ·
b n
I(f)=jf(x)p(x)dx~Sn(f)=b 2 a ~DJf(x1), (1)
a ~1

exacte pour Ies polynomes de plus haut degre possible. II s'agit des
f ormules de Gauss.
Cette fa~on de poser la question s'explique par des considerations
suivantes. Supposons que nous avons construit la formule (1) stricte
pour tout polynome Pm de degre m:
I cPm) = Sn cPm)• (2)
Ceci etant, on a pour un P m quelconque la suite d 'egalites
Rn (f) = Rn (Pm) + Rn (f - Pm} = Rn (J - Pm)•
On a visiblement
b n
J
I Rn (g) (:::;;; Ig (x) lip (x) Idx + h 2 a LI I Di li g (x1) I :::;;; V n sup Ig (x) I,
a i=1 [a, b)
avee
b n
Vn =JIP (x) I dx+ ( b 2 a) ~ ID1 I• (3)
a ;=t
11 en decoule
IRn (/) l~Vn sup I f(x)-Pm (x) I•
[a, b)

Prenant a droite la borne inferieure sur tous les polynomes de


degre m, on trouve l 'estimation
I Rn (f) I :::;;; V n Em (f), (4)
§ 3) FORMULES DE QU.ADRATURE DE GAUSS 107

ou
Em (/)= inf sup I/ (x)-Pm(x) I•
Pm[a. b]

La fonction est mieux approchee par des polynomes de degre eleve,


ce qui autorise a penser qu'une formule de quadrature exacte pour
de pareils polynomes donne lieu a une erreur moins importante.
Ce qui est faux en general. Premierement, l'evaluation (4) n'est
pas precise, et, deuxiemement, le coefficient Vn est fonction de la
formule mâme et, rigoureusement parlant, il peut croître avec le
degre des polynomes pour lesquels la formule est exacte. Cependant,
toute fausse qu'elle soit, notre ţ;upposition justifie dans une certaine
mesure la fa9on dont nous avons pose le probleme.
b
Si la fonction a integrer de I 'integrale initiale JF (x) dx est
a
mal approchee par des polynomes et que F (x)lp (x) avec p (x) une
fonction elementaire le soit bien, alors pour notre cas la formule
de type (1) qui est exacte pour Ies polynomes d'un certain degre
offre des avantages par rapport a la formule
b n
JF (x) dx ~ b
2
a ~ c,F (x1), (5)
a j=1
stricte pour Ies polynomes de meme degre.
Si, lorsque p (x) -=f=. O, on pose dans (1) p (x) f (x) = F (x), il vient
b n
j F(x)dx~ b 2 a ~ C1F(x1), C1= P~1J) •
a j=1

Cette formule de quadrature est evidemment exacte pour toutes Ies


fonctions p (x) P m (x), P m (x) etant un polynome de degre m. Ainsi,
notre position initiale equivaut a rechercher une formule de type (5)
qui soit exacte pour Ies fonctions F (x) = p (x) P m (x) avec un
m maximal.
Revenons a la premiere position du probleme. Pour
m
Pm (x) = ~ aqxq,
Q=O
0D a
m
Rn (Pm) = ~ aqRn (xq).
q=O
Ainsi, pour que la formule de quadrature (1) soit exacte pour Ies
polynomes de degre m, il faut et ii suffit qu 'elle le soit pour toutes
Ies fonctions x", q = O, ... , m. Par consequent, on doit avoir
108 INT~GRATION NUM~RIQUE [CH. III

Ies relations
b N
Rn(Xq)= \ xqp (x) dx- b a ~ Dp;<J= O, q ~ O, .•• , m. (6)
2
~ i=1
Nous avons un systeme de m +
1 equations par rapport aux ineon-
nues x1, • • • , Xn, D 1 , • • • , Dn.
Si m ~ 2n - 1, le nombre d'equations est au plus egal a celui
d'inconnues, et on s'attend que le systeme algebrique (6) possede
une solution. En resolvant ce systeme on peut essayer de construire
des formules de quadrature correspondant a m = 2n - 1, sans
pouvoir affirmer que leurs points appartiennent au segment [a, b].
Si cette derniere. condition n 'est pas satisfaite, la fonction / (x)
risque de ne pas etre determinee aux points de base de l 'integration
et l'operation de quadrature s'avere impossible.
Signalons qu'au chapitre VIII, en elaborant des methodes des differences
finies de resolution des equations differentielles ordinaires on sera mis en
presence de formules de quadrature basees sur des points exterieurs au
segment [a, b].
Formons Ies formules de quadrature correspondant a la valeur
maximale m = 2n - 1.
LEMME 1. Si x1 , • . . , Xn sont les points de base de la formule de
quadrature (1) exa_cte pour tous les polynâmes de degre 2n - 1, alors
b
J
,a
©n (x) Pn-t (x) p (z) dx= O,

ou ©n (z) = (z - x1) • • • (z - Zn) et P n _1 (x) est un polynome


quelconque de degre n - 1 au plus.
D:SMONSTRATION. Soit Pn-1 (x) un polynome de degre inferieur
ou egal an- 1. Par hypotheEe, la formule (1) verifie
Q2n-1 (x) = ©n (x) Pn-1 (x).
Aussi
b b
J
a
©n (x) Pn-t (x) p (x) dx = J
a
Q2n-1 (x) p (x) dx=
n
= b
2
a ~ D/22n-t (XJ) =0;
J=1
la derniere relation resuite de Q 2n-i (x 1) = O quels que soient j.
Le lemme 1 est demontre.
On suppose ensuite que p (x) > O presque partout sur [a, b].
Les raisonnements du § 15, eh. II entraînent l'unicite du poly-
§ 3] F0RMULES DE QUADRATURE DE GAUSS t09

nome 'l>n (x) = 3fl + ...


orthogonal par rapport a tous 1~ polynomes
de degre inferieur pour le produit scalaire defini par
b
{/, g) =) f (x) g(x) p (x) dx.
a
C'est pourquoi 'IJ>n (x) = ron (x) et Ies points de base de la formule
de quadrature cherchee doivent coincider avec Ies zeros de "l'n (x);
salon § 15, eh. II le polynome,i,n (x) admet sur [a, b] n zeros distincts.
LEMME. 2. Soient x1 , ••• , Xn les zeros de "l'n (x) et (1) une formule
de quadrature exacte pour les polynomes de degre n - 1. Alors (1)
l' est egalement pour les polynomes de degre 2n - 1.
D~MONSTRATION. Mettons un polynome Q2a-i (x) arbitraire de
degre 2n - 1 sous la forme
Q2n-1 (x) = "l'n (x) gn-1 (x) + rn-1 (x),
ou gn-i et rn-i sont des polynomes de degre n - 1. On a
Rn (Q2n-1)
b
= Rn (11'ngn-1} + Rn (rn-1} = Rn (-q,ngn-1),
Rn (lJ>ngn-1) = ) 1Pn (x) gn-1 (x) P (x) dx-
a

du moment que
b
·) 1'>n (x) gn-1 (x) p (z) dx = O.,
a
"l'n (z) etant orthogonal par rapport aux polynomes de degre,inferieur
et tous Ies "l'n (x1) = O par hypothese; alors Rn (Q 2n_1) = O. Le
lemme 2 est demontre.
11 est maintenant possibie de construire la formule necessaire.
Donnons-nous Ies points d 'interpolation x 1 , • • • , Xn, "l'n (x,) = O,
et etahlissons la formule de Newton-Cotes suivant le schema du·§ 1.
N ous obtenons
b n
Jf (x) p (x) dx ~ b 2
a ~ G,f (x1), (7)
a i=1
qui est stricte pour Ies poiynomes de degre 2n - 1.
Si p (x) est presque partout superieure a zero, ii n 'existe pas de
formule de quadrature stricte pour tous Ies polynomes de degre 2n.
En effet, soit Q2n (x) = (x - x1)2 • • • (x-xn) 2 ; alors le premier
110 IN~GRATION NUMliRIQUE [CH. IIl

membre de (1) devient


b
J((.x- .x1) ••• (.x-.xn)) p (.x) d.x > O,
a
2

et le deuxieme s'annule.
Etudions certaines proprietes de (7) et demontrons enlil'partieu-
2
lier le signe plus des coefficients G1• La fonction ( 'l>n(z) ) est un
z-zz
polynome de degre 2n - 2 s'annulant en tous Ies points .x1 =fo .x,.
La formule (7) sera verifiee par cette fonction, donc,
b
r ( ,i,n (z) ) 2 (.x) d.x = b-a
J Z-Zz p 2
G ( '$n (z) ) 21 .
l z-zz xi
a .
En developpant 'l>n (z) il vient
z-zi
b
Gz=-b2
-a Jr (Ilz-z1)2
zi-z1
p(x)d.x>O.
a Ml
La formule (7) est exacte pour f (z) = 1, aussi
b n
Jp (.x) d.x =
o
b2a ~ G1 ;
j=1
G1 etant positifs, la derniere egalite se recrit:
b n
JP (.x) d.x = b 2 ~ IG1 I•
4

o j=1
En revenant aux formules (3), (4) on trouve
b n b
Vn = Jp (x) d.x + b 2 a ~ I G1 I= 2 JP (.x) d.x.
o J=i a
(4) entraîne alors l'estimation
b
I Rn (/) 1<2 {JP·(.x) d.x) E2n-1 (/). (8)
a
Citons une autre estimation de l'erreur dans Ies formules de Gauss
qui s'exprime a l'aide de
max I1c2n, (x) I•
[a. b]
Soit Lsn (.x) un polynome d 'interpolation de Lagrange base sur Ies
points doubles .x1 , ••• , Xn, i.e.
L2n (.x1) = I (.x1)., L2n (.x1) = I' (.x,).
§ 3) FORMULES DE QUADRATURE DE GAUSS Hi

Selon (2.6.11), on a
f(x)-L2n (x) = f(x; X1 ;x1; ••• ; Xn; Xn) 'I>~ (x).
Puisque pour Ies formules de Gauss Rn (Lan (x)) = O, on a
Rn (f) = Rn (f(x; X1 ; X1 ; ••• ; Xn ; Xn) 'Pi (x)) =
b
= Jf(x; Xt; X1 ; ••• ; Xn; Xn) 'P: (x) p (x) dx-
a
n
- b 2 a ~ D1f (XJ; Xt ; X1 ; • • • ; Xn ; Xn) lJ>: (XJ)•
;=1
Le dernier terme est egal a zero car "l>n (x1) = O quels que soient j.
C'est pourquoi
b

Rn (/)= J/(x;
a
X1; X1t ••• , Xn, Xn) 'I>: (x) p (x) dx.
$~ (x) p (x} etant non negative, on applique le theoreme de la
moyenne, ce qui donne
b

Rn (/) = f(~ ; Xt ; X1 ; •• • ; Xn ; Xn) J'P: (x) P (x) dx ;


a
exprimant f (~; Xi; x1 ; ••• ; Xn; Xn) en fonetion de la derivee.,
il vient
b
Rn (/) = /<2"> ~) J 1:nrl
a
p (x) dx. (9)

Si I' on veut se servir des formules de Gauss, îl faut eonnaître


leurs points et leurs coefficients. Pour p (x) paire par rapport au
point aţb, il resulte des eonsiderations du § 16, eh. II que Ies zeros
des polynâmes orthogonaux, i.e. Ies points des formules de quadra-
ture de Gauss, sont symetriques par rapport au milieu du segment
[a, b]. En vertu du lemme du § 1, Ies coeffieients de la formule
d 'interpolation de Gauss (7) verifient la condition de pari te de
G1 = Gn+i-J· D'ou une redueUon de moitie des tableaux des formules
de Gauss.
Si p (x) == 1, alors G1 et d1 = 2:c,~b/a>
ne dependent pas du
segment [a, b]. En effet si le pol ynâme "l>n (x) = (x - x1) • • • (x - Xn)
appartient A un systeme de polynomes orthogonaux de poids
1 sur la, b], alors le polynome (t - di) ... (t - dn) est un element
d'un systeme de polynomes orthogonaux de poids 1 sur (-1, 1]. Aussi
112 INT:8GRATION NUDRIQUE [CH III

ee polynome, ses zeros et, eonformement a (1.2), Ies eoeffieients D1


sont-ils determines de faţon unique et independamment du seg-
ment [a, b].
En dressant les tableaux des formules de quadrature de Gauss pour des
poids differents, on · utilisera avec profit la propriete d 'alternance des 1.eros
des polynâmes orthogonaux tl>n (x) que nous avons demontrce au § 16, eh. II.
Selon cette propriete, une fois qu'on a determine Ies racines de 'l>n-t (z) on
connaît Ies intervalles renferm.ant Ies racines de 'l>n (z).
Signalons pour memoire un jeu de formules de Gauss pour le
segment [-1, 1] et .P (x) = 1. Le reste (9) est alors
c2n> (1' • 2in+1 (n 1)4
/ 1:,) (2n()3(2n+1) •
La propriete de symetrie nous fait nous borner aux d 1 non negatifs
et a leurs eoeffieients :
Tableau 1

cit d2 da
D1 D2 Da
1 0,0000000000
2,0000000000
2 0,5773502692
1,0000000000
I
3 0,0000000000 0,7745966692
I 0,8888888888 0,5555555556
I
4 0,8611363115 0,3399810436
I 0,3478548451 0,6521451549
I
5 0,0000000000 0,9061798459 0,5384693101
0,5688888888 0,4786286705 0,23692H8851
6 0,9324695142 0,6612093864 0,238fl191861
o, 1713244924 0,3607615730 0,4679139346

On dispose aetuellement, pour Ies points et Ies poids des formules


de quadrature de Gauss pour n ~ 512, des tableaux a 20 decimales.
Voyons comment appliquer Ies constructions precedentes pour
deduire d'autres formules de quadrature. Pour simplifier l'expose
faisons [a, b] = [-1, 1].
Formules d,e Markov (ou d,e Lobatto). Supposons que le calcul
de la formule
1 n
J(f)= Jf(x)dx~ ~ D;/(d1)
-1 i=i
§ 3]. FORMULES DE QUADRATURE DE GAUSS 113

soit soum1s a la condition stipplementaire: d1 = -1, dn = 1. Les


parametres libres dont depend la formule sont alors 2n - 2, et · on
a des ·raisons d' esperer resoudre le systeme (6) pour m = 2n - 3,
c'est-a-dire construire une formule verifiee par tous Ies polynomes
de degre 2n - 3. Le polynome d 'interpolation du premier degre
coincidant avec f (x) en ±1 est
Qt(x)=f (-1) 1 2 x +/(1) tţx.
Mettons !'integrale de depart sous la forme
1 1
I (f) = JQt(x) dx+ J /(xi=~:
-1 -1
(x) p (x) dx, (10)

avec p (x) = 1 - x2 •
Construisons la formule de Gauss basee sur n - 2 points relative-
ment a la fonction de poţds p (x) :
1 n-1
) I (x) p (x) dx ~ LJ D1f (di)• (11)
-1 ;=2
Pour la commodite nous avons designe Ies points par d2 , ••• , dn-i·
Posons
1 1 n-1
) /(x) dx ~ JQt(x) dx + LJ i5/ (di~-=-~~ (dJ).
1
(12)
-1 -1 i=2
Apres avoir substitue Q1 (x) et calcule la premiere integrale a droite,
on obtient la formule de quadrature cherchee
1 n-1

Jf(x)dx~Dtf(-1)+ LJ DJ!(d1)+Dnf(1),
-1 ~2
ou, en particulier,
D1=D1(i-dJ)-1 , j=2, ... , n-1.
En effet, soit f (x) un polynome de degre 2n - 3. Le calcul de la
premiere integrale de (10) ne donne lieu a aueune erreur. La diffe-
rence f (x) - 01 (x) est un polynome de degre 2n - 3 qui s' annule
pour x = ±1; aussi (f (x) - 01 (x)) (1 - x2)-1 est un polynome
de degre 2n - 5. II verifie la formule (11), et en substituant a la
deuxieme integrale de (10) le deuxieme terme a droite dans (12),
on ne commet pas d'erreur. Pour n = 2, la formule de Markov se
eonfond avec la formule des trapezes, pour n = 3 avec celle de
Simpson.
Soit maintenant p (x) une fonction impaire sur (-1, 11, p (x) > O
presque partout sur [O, 11, Ies points sont en nombre pair: n = 2l.
8-01007
114 INT.8GRATION NUM~RIQUE [CH. III

Si p (x) est paire, on a D 1 = Dn+i-;, d1 = -dn+i-i dans Ies


formules precises.
Si p (x) est impaire, ii paraît natural de rechercher des formules
pareilles sous la forme
l
l(f) ~ ~ D1(/(d1)-f (-d;))., O<d1 < ••. < dl~1. (13)
i=1
Une telle formule est necessairement precise pour f (x) paire. La
formule (13) contient n = 2l parametres lihres, ce qui fait esperer
une formule de quadrature exacte pour Ies polynomes x, . . . , x2n-1 •
Puisque cette derniere formule est automatiquement verifiee par
Ies monomes 1, ... , x 2n, elle l'est egalement par des polynomes
de degre 2n, c 'est-a-dire superieur de 1 a celui des polynomes dans
le cas des formules de Gauss pour un poids positif.
Pour construire une formule de ce type, mettons I'integrale
initiale sous la forme

/(/}= Jo
1
(/(x)-/(-x))p(x)dx= Jo
1
f(z>~1<-z)xp(x)dx.

Le changement de variable x = Vii fournit


1
/(f) = j F (y) p(y) dy
o .
avec
F(y) = 1 (VY)-:~--Vii>' P(Y)= p (Vii).
2 y .
Etablissons la formule de Gauss
1 l
JF (y) p(y) dy ~ ~ 15,F (d1),
O i=1
(14)

exacte pour F (y) de degre 2l -1. Revenons a l'ancienne variable x ;


nous avons

J(/) ~ ±.D/
i=1
(Yr,-)-t:.(--Vr,-) =
2 Vdj
±
i=1
D,(f(d,)-1(-d,)).

2n
"1 .
Si f (x) = ."-I a1:i', alors
· i=O
n-1
F (y) = 2,1 a21+1if.
i=O
Aussi . (14) et la relation suivante deviennent-elles des egalites
strictes. ·
§ 3) ...
P'ORMULES DE QUADRATURE DE GAUSS US

Cesoo form.ules de quadrature


.
permettent par exemple de calculer Ies inte-

grales J/ (z) cos X eh; !'integrale est decomposee en parties:


o
(tH1) :t 1
J
1tn
/(.x) cos :r d:r= (-t)n-1 ; J/ (
-1
(x+ 2n+ 1) ; ) sin ~ d:r,

et Ies dernieres integrales se calculent moyennant Ies formules (13) correspon-


dant a p (x) = sin ~ •

Les formules d' H ermite


1 n
/(/)=
Jr ~ dx~Sn (!)=~·~
-1
1-:i:2 n ~
·
f(x1),
j=1
(15)

ou x, = cos 2
< i-;ni}1t sont Ies zeros du polynome de Tchebycheff_·
T n (x), sont d 'un grand interet pratique, en particulier pour Ies
problemes d'approximation des fonctions. 11 s'agit des formules de
Gauss sur le segment [-ţ, 11 avec pour poids -V__ . Verifions que
1
1-x2
la formule de quadrature (15) est exacte pour Ies polynomes T m (x)
si m < 2n. On a pour m = O
1
1
I (T0) = J' V 1-z 2
dx= n, Sn (T0) =n
-1 .

et I(T 0)=Sn(T0 ). Pour m>O, l'orthogonalite des fonctions Tm(x)


de poids· .

1
2
-v'1-z
·entraîne

l(Tm)= l.(TmTo)= (Tm, To) =0.


D'autre part,
n n
Sn(Tm)=: ~ cos(marccosx1)=: ~ cos 2
m( i ~i)n
2
=
j=1 i=i
n
_ n ~ ( m(2/-1)nt)
- 2n ~ exp 2n •
i=i-n
Les quantites additionnees formant une progression geometrique
de raison exp. ( m:t) ;
pour · O < .,;;<F-, 2n e~tte raison est differente
de I 'unite. Avec la formule exprimant la somme d 'une progression
8*
116 INTgGRATION NUMgRIQUE (OH. III

geometrique :
n
"1 i-1 a(qn-1)
LJ aq = q-1 '
i=i
on a
exp ( m(2n+1) -exp ni) (m (1-2n) ni)
S (T ) - n 2n 2n
n m - 2n
exp---1
mni •
n .:.m
Puisque
exp ( m (2n+1) ni)
=exp m (1-2n) I{ ni)
2n ,.~n ,

Sn (T m) = O = I (T m) pour O < m < 2n. Du moment que la for-


mule de quadrature est stricte pour tous Ies polynomes de Tcheby-
cheff T m (x) avec m < 2n, elle l'est pour n'importe quel polynome
de degre 2n - 1.
On dispose a l'heure actuelle de nombreux tableaux des formules
de Gauss et des formules de type Markov ,. en particulier pour
[a, b]=[-1, 1], p(x)=1,
[a, b] = [O, 1] .. ., .p (x) = xa.,
[a, b] = [O, 1] p(x) =(~1-x))m,
[a, b] = [O, oo ),I p (x) = x';exp ( - .x).
Si la fonction a integrer dans
Ct)

I U) = Î f (x) dx
o
est bien approehee par des polynomes trigonometriques de periode ro.
on a la formule
N-1
I({) ~ 8 N {/) = ; .~ / ( ţ )· (16)
i=O
On a
N-t
S N ( exp ( 2nmi : ) ) = Z~ exp {2nmi : )=

I ;21
=f
i=O
N-1

exp (2nmi)- 1
2
t = ro pour ; entier,
m
O pour N non entier.
exp { ; ' )-t
~VALUATION PRATIQUE DE L'ERREUR 117

D'autre part,
I ( { . x } } ro pour m = O,
exp 2nmi oo ={ O pour m -::fa O.

II s'ensuit que la formule (16) verifie Ies fonctions cos ( 2nm : )

pour m = O ou pour ; non entier et toutes Ies fonctions sin ( 2nm : ) ;


elle est donc exacte pour tont polynonie trigonometrique
N-1

tN(x)=ao+ ~ (am cos (2nm: )+bmsin (2nm:) )+


· m=1

par consequen t,
RN (f) = RN (j - tN) + RN (tN) = RN (j - tN).
Pareillement a (8), on obtient l'evaluation
I RN (f) l~2co inf max I/ (x)-tN (x) 1·
tN [O, 6>)

Les formules de quadrature (16) s'emploient tout particulieremenţ


lorsqu'il s'agit de calculer des integrales par rapport aux vari?J>les
angulaires dans l 'integration en coordonnees spheriques et. polaires.
On montre qu'il n'y a pas ·de formules de quadrature basee sur N points
qui soient exactes pour tous Ies polynomes trigonometriques de degre N.

§ 4. Evaluation pratique de l'erreur


dans des formules de quadrature elementaires
Plus haut nous avons etabli plusieurs formules de quadrature
et evalue strictement leur erreur. Nous n 'avons pas resolu pour
autant tous les -problemes que nous pose l'integration numerique.
La tâche majeure .du calcul mathematique est la creation des algo-
rithmes et de leurs systemes permettant de resoudre Ies problemes
avec une precision donnee d 'avance et un cout minimal en travail
humain et machine. L 'utilisation pratique des evaluations obtenues
ci-dessus exige des calculs analytiques pour apprecier Ies derivees,
donc un grand effort de la part du chercheur; de plus, elles s'averent
souvent trop fortes. Aussi pour mettre au point de pareils systemes,
on refuse en general de se servir de pareilles evaluations, sacrifiant
souvent la petitesse garantie de l'erreur sur la solution approchee.
On peut dire qu'·entre son apparition et sa resolution, tout pro-
bleme traverse un systeme compose des personnes chargees de le resou-
dre et de la machine a calculer. A I' aube de l 'histoire des calculatrices,
US INT.8GRATION NU~RIQUE [CH. III

le)oulot d'etranglement de ce systeme etait le man.que de machinesA


Ce qui justifie I' emploi de methodes analytiques de resolution ou
d'evaluation analytique des erreurs.
Depuis Ies machines a calculer se sont implantees dans Ies domai-
nes Ies plus divers des .activites humaines. Maintenant, le· systeme
en question souffre d 'un choix trop lent du modele mathematique,
de la methode de resolution, du programme et d 'autres etapes ante-
rieures ia la resolution directe sur machine. Ces etapes se ralentissent
ancore plus si le calcul automatique est fait par des non-mathema-
ticiens, disons des linguistes, medecins, economistes, geographes,
peu verses dans Ies methodes numeriques ou la programmation.
Leur initiation aux arcan.as du metier risque de devenir une fin· en
soi qui leur fait oublier Ies problemes fondamentaux de leur discipline
et coute assez cher a la societe. Aussi est-il urgent aujourd 'hui de
creer des systemes tres faciles a man.ier qui n 'exigent pas une con-
naissance poussee des methodes numeriques et de la programmation.
On exige tout naturellement", par exemple, que le programme
de calcul d 'une integrale avec une precision donnee soit a la -taille
d'un chercheur qui, s'il sait ce qu'est l'integrale, ne sait ni integrer
ni deriver. .
D'autre part, la contribution• des mathematiques a d'autres
şciences n' est pas tant d 'effectuer des simulations sur calculateurs
gue d 'elaborer des modeles mathematţques. Le:speci~liste qui ela~ore
le modele doit donc posseder une certai:qe _cultura mathematique.
ţ~ Le but 'de nos raisonneinents est de vous rappeler 1.uie chose· evi-
dente. L'efficacite de notre travail doit se mesurer non seulement
au cout total de resolution de tels problemes, mais aussi au preJudiee
occasionne a la societe du fait que nous en avons laisse de câte cer-
tains autres, plus importants peut-etre.
En analysant pratiq1;1ement l'erreur commise dans l'integration
numerique on se sert souventJde procedes semi-empiriques dont
le plus usite est le suivant. On effectue Ies calculs par deux for~ules
·de quadrature
b -~ Nh

/(/)= Jf(x)dx~S_"(f)= b
2
a~ D1f(xf), k=i,2;
a i=1

une eertaine combinaison lineaire


s (t) = s 1 (t) + e (S 2 (t) - s 1 (t))
de ces formules est prise pour valeur approchee de I 'integrale et
p =· I 8 2 (t) - 8 1 (/) I pour mesure de l'erreur de la formule appro-
chee I (j) ~ S (j). 0 = O represente un eas assez typique. -
Le procede ci-dessus n'etant pas univoque, on ne saurait le
justifier completement.
§ t] :8VALUATION PRATIQUE. DE L'ERREUR H9

Soit S1 (/) la formule de Simpson:

J/(x) di~ s1 (/) =


1
f (-1)+~ (O)+ /(1) ,
. -1

et S 2 (/) celle des trapezes: S 2 (J) = / (-1) + / (1) et 0 = O. L'er-


reur est alors mesuree par
p= i 1/(1)-2/(0)+/(-1)1-
Si S 2 (J) = 2/ (O) est la formule des rectangles,i on a respectivement
... 1 .
p = 3 1/ (1) - 2/ (O) + / (-1) I- Nous avons donc obtenu d_eux
estimations empiriques de l'erreur dans une mâme formule de Simp-
son.
Essayons de voir plus clair. S (J) est une certaine somme de
quadrature
N
S(f)= b a~ D1f (x;) (1)
2
i=i
sur l'ensemble des points x~ appartenant a la reunion des points
correspondant ;. S 1 _(f) ot S (/). ,Qn a par ailleurs
p = I l (/) I,
ou
N
b-a ~
l (/) = -
2 - LJ B1f (x1)-
i=t
Prenons une combinaison lineaire de la forme (2) et posons
s1 (f) = s (f), s2 (f) = s (f) - ez (!).
La valeur approchee obtenue de I 'integrale I (J) ~ S (J) est entachee
de l'erreur p = 0 I l (/) I- Nous voyons qu'en poursuivant dans cette
voie on peut obtenir une infinite d'estimations de l'erreur sur une
mâme formule de quadrature (1).
Le probleme considere peut s'enoncer comme suit. La formule
N
/ {/) ~ 8 (/) = b-;a ~ D1/ (x1) (3)
,i=1
permet de calculer la valeur approchee de !'integrale. On desire
former une expression du type (2) donnant une idee de l'erreur pro-
venant de la formule de quadrature (3). ·.
Supposons que cette erreur soit'
120 IN~GRATION NUM~RIQUE [CH. III

Considerons le cas m < N. Pour l (f) on peut prendre

l (I)= 15 (b- ar+ m ! / (xit,


1
... ' Xim+t,),

oii Xi 1t • • • , Xim+i sont des points differents de la formule de quadra-


ture (3). L'expression de la difference divisee en fonction de la
derivee entraîne
l (J) = D (b - ar+ 1<m> (~),
1
a< ~ < b;
donc, si a = const, /<m> (a) =I= O, 'b - a ~ O, on a R (J) _, -l (J), et
I l (/) I mesure l''erreur commise. Supposons par exemple qu'on
p --:-
evalue l'erreur resultant de la formule des trapezes
b

5f (x) dx ~ S (f) = a(f (a)+ 0-f ( aţb) +f (b)) ;


b
2
a

suivant Ies estimations des §§ 1, 2, on a

R (/) = (b-;;_a)3 f" m;


ainsi, on prend pour mesure de l'erreur

b;a jf(b)-2/(aţb )+f(a)j.


11 en va autrement avec m ~ N. Les quantites / (x1), • • • , f (xN)
ne permettent alors aucune approximation de /<m> (~) et le probleme
d'evaluation empirique de l'erreur tel qu'il y a ete pose plus haut
est insoluble. 11 est impossible par exemple· de se faire une idee
satisfaisante de l'estimation de l'erreur dans la formule de Simpson
a l'aide des valeurs / (a), I (aţb) f (b), encore qu'une surestima-
,
tion soit possible.
Voici une approche du probleme surgi. Examinons la formule
(2.5) pour n = N - 1. L'erreur est alors evaluee par

IR (f) l~(b-at 15 max I /N-t (x) I= o.


[a, b]
Posons
p = (b - a)N D (N - 1)1 I/ (x1 ; ••. ; xN) 1- (5)
Si a = const, j<N-t) (a) =I= O, b - a ~ O, on a cr _, p et p peut
etre prise pour estimation approchee de l'erreur dans (3). C'est
une estimation trop forte puisque l 'hypothese m ~ N entraîne
R (/)=O ((b -a)N+ 1); nous n'en disposons pourtant pas de meil-
leure par rapport a l'evaluation ·par cr. Pour la formule de Simpson,
§ il l!:VALUATION PRATIQUE DE L'ERREUR 121 ·

(2.5) donne (5) ou.. -D = 1


81
, et l'erreur est donc mesuree par

4 (b8~a) I/ (b)- 2/ ( aţb )+ f (a) I. (6)

S'il s'agit de calculer !'integrale d'une fonction analytique et sile nombre


de points est donne, les formules de Gauss paraissent Ies mieux indiquees car
elles sont exactes pour des polynomes de degre maximal. On cvalue l'erreur
suivant le schema decrit.
Nous avons propose d'evaluer l'erreur sur la formule de Simpson a l'aide
de l'expression (6) en supposant / (x) suffisamment reguliere. Neanmoins, de
pareilles conclusions empiriques sont souvent appliquees sans que Ies conditions
imposees a leur obtention soicnt satisfaites, par exemple dans l'integration des
fonctions non regulieres.
Soit
(a, b]=[O, 1), /a.,fJ(x)=(x+a)l3, a>O, ~>0.
Alors la formule de Simpson est affectee de l 'erreur
(1+a)l3+1 _aH1 13
~+1 ( _!_
6
all+_!
3
(_!_+
2
a) +...!.
6
(1+a)l3} •
D'autre part,

lta,fj(1)~2/a,fJ( ! )+ta,fJ(O)l=Sa.,fJ=l(1+a) 13 -2 ( ! 13
+a) +a 13 1.
On a

. 1· Ea., fi 1
11m 1 m - - = - .
13➔ 0 a.➔ o Sa., IJ 6
Ainsi, l'emploi de (6) en vue d'evaluer l'erreur dans la formule de Simpson
avec a et ~ petits est injustifie. ·
Si a et fţ sont faibles, l'estimation

! (b-a) It (b)-2/ { )
aţb + /(a) I (7)
paraît plus naturelle.
Dans un programme standard d'integration ou l'on a essaye d'obtenir le
resultat avec le «maximum» de surate on mesurait l'erreur par
no (b-a)N I/ (.x1; •.• ; .xN) I
avec no ainsi defini: on a pris le segment [O, 1) et pose

DO=
IR (la., tJ) I
sup
O<a. I la., 13 (.x1; ••• ; XN) I
0<13~N-1

pour la formule de Simpson un tel choix de DO conduit aussi a evaluer l' erreur
par (7).
Dans le cas d 'integrales multiples tous Ies procedes usuels d 'evaluation
de l'erreur partent du schema initial que nous venons de critiquer. C'est que dans
122 INT8GRATION NUM:8RIQUE [OH. I_II

le cas multidimensionnel l' erreur est evaluee moyennant les valeurs de plusieurs
derivees de la fonction a integrer. L'obtention d'estimations « justifiees •
analogues a (6) paraît ici une affaire tras ardue. Aussi s'adresse-t-on au schema
initial dont on verifie ensuite les resultats. Dans le calcul de !'integrale par la
formule ·
.N
I(/)~ ~ D1f (PJ)
5=1
N
dont l'erreur est evaluee par I l (f) I, l (/) = 2] B Jf (P 1) $ O les parametres
f.=t
libres sont les quantites D 1, B I et les coordonnees des points de base P J de
la formule de quadrature. Le choix de ces parametres se fait selon la regie.
suivante. On se donne le degre m des polynomes verifiant cette formule
et on suppose que Z (/) s 'annule sur des polynomes d 'un certain degre m.1
donne d 'avance (m1 < m) et ne possede pas cette propriete pour tous les
polynomes de degre m ; on pose d 'ordinaire m 1 = m -2. Par un choix
convenable de B J, D J et P J on prend un N minimal satisfaisant aux·
conditions imposees. Dans ces conditions l (/) est definie de faQon non univoque
N
a un certain facteur a pres : Z (/) = al 0 (I) avec zo (/) = ~ B11 (P J). Gene-
i= 1
ralement a est egale au D1/B~ de plus petit module.

§ 5. Integration de fonctions fortement


oscillantes
Soit a ca lculer
b
) f (x) exp (irox) dx,
a

ou ro (b - a) ~ 1, / (x) est une fonction reguliere. Les fonctions


Re (/ (x) exp (irox)), Im (/ (x) exp (irox))
admettent sur le segment considere environ ro (b - a)ln zeros.
Puisqu 'un polyn6me de degre n possede au plus n zeros, ces fonctions
ne sont bien approchees par des polyn6mes de degre n que pour
n ~ ro (b - a)ln. Si l'on veut donc calculer directement Ies integrales
de telles fonctions, on utilisera des formules de quadrature exactes
pour des polyn6mes de degră superieur.
On gagnerait en considerant la fonction exp (irox) comme une
fonction de poids.
Comme au § 1, donnons-nous Ies points d 'interpolation
b+a b-a ·
. x1=-2-+-2-di, i=1, ... , n,
§ 5] INT.8GRATION DE FONCTIONS FORTEMENT OSCILLANTES 123

b .
et rempla~ons !'integrale de depart par JLn (x) exp (i©x) dx; celle-ci
a
s'explicite en
b

JLn exp (i©X) dx s: (/)


a
= =

n
=b-a
--exp ( iro-
a+b)~
- LJ 2
D1 (©b-a)J!
--
2
,(x,),
2
i=1
ou
1
D1(P) = J(II t=-d:,, ) exp (ipt) dt.
-1 h.=/=i 1
(1)

On aboutit a la formule.
b
J/(x) exp (irox) dx ~ s: (/)
a
(2)

avec pour reste


b
Rn (/) = J(/ (x)-Ln (x)) exp (irox) dx.
a
Selon (1.1) .
b

J
I Rn (/) I~ If (x)-Ln (x) I dx~
a

~D (dh ... , dn)(max I/"(x)


[a. b]
I) ( b 2 a r+t .' ,
Le calcul de telles integrales est un probleme type qu'on rencontre
en developpant des fonetions en serie de Fourier., en construisant Ies
diagrammes de directivite d'antennes, etc.
Les programmes standard de calcul utilisent Ies formules (1), (2)
correspondant an= 3, di = -1, d2 = O, d3 = 1 (formule de Filon)
ou a n = 5, di = -1, d 2 = -0,5, d 8 = O, d,. = 0,5, d5 = 1.
Le calcul suivant Ies formules (1), (2) peut âtre cause d 'une
difficulte que .nous allons illustrer pour le cas n = 2, di = -1.1
d2 = 1 ; on a alors
1
D1 ( p ) -- · Jr r1-t
- 2 -exp ("ipt)dt- sinp
--P-
+ pcosp-si-op
P„
.
i,
-1
1
D 2 ( p) _
-
.rJ -1 +-exp
t (. t) dt _
ip -
sin p
-P-..-
p cos p-sin p .
P2 . i.
2
-1
124 INT:8GRATION NUM:l!:RIQUE [CH. III

Si p-+ O, on a
pcosp-sin p _ _ ]!_+O ( 3) O
p2 - 3 p -+ •

Donc, D 1 (p), D 2 (p) ~ 1 pour p tendant vers zero.


Supposons p petit. Les fonctions cos p et sin p sont calculees
sur machine avec une erreur O (2-t) et O (p2-t) respectivement, et les
coefficients D 1 (p) et D 2 (p) acquierent une erreur O (2-t /p). Si
n > 2, l'erreur sur Ies coefficients D 1 (p) calcules par Ies formules
(1) peut etre de l'ordre de 2-t;pn-1 • Par exemple, pour t = 30,
n = 5, p = 0,01, une telle erreur n'est plus permise. Aussi Ies
programmes de calcul d 'integrales detfonctions oscillantes doivent-ils
posseder un bloc destine a modifier Ies formules numeriques pour
p petits afin d'eviter une erreur de calcul essentielle. Si n n'est
pas tres grand, disons n = 2, la •disposition des calculs peut etre
la suivante: pour Ip I superieur a un certain Pn choisi experimentale-
ment Ies calculs se font selon Ies formules (1), (2); pour Ip I ~ Pn
on se sert, pour trouver !'integrale de depart, de la formule des
trapezes (1. 7) et on prerid toute la fonction f (x) exp (ic.ox) comme
fonction a integrer. Pour notre cas (n = 2, di = -1,. d 2 = 1), la
formule (1.7) s'ecrit
b
J/(x) exp (ic.ox)
a
dx ~ b
2
a (exp (ic.oa)/ (a)+ exp (irob) f (b)). (3)

On regl'Oupe (1) et (3) en une seule formule


b
j / (x) exp (ic.ox) dx = b 2
a exp ( ic.o aţb } (Dt(p) /(a)+ D2 (p) f (b)) (4)
a
avec
b-a
p=ro-2-'

sin p ± peos p-;sin p i pour Ip I> P'I.,


D1. 2 (p) = P P (5)
{
exp (=F pi) pour Ip l-<P2•
Les programmes standard de calcul d 'integrales du type considere
font appel aux formules de quadrature de la forme (4), (5). Une
question se pose tout naturellement: pourquoi cette complication
des programmes? On ferait peut-etre mieux de rediger un programme
standard de calcul par Ies formules (2), un autre par la formule des
trapezes et de lancer l 'instruction suivante: pour I p I grands
appeler le premier programme, pour Ip I petits le second. Voyons
si cette politique est rationnelle. Notre intention est de faciliter au
§ 6] AM:8LIORATION DE LA PR~CISION D'INTJl:GRATION 125

maximum tle travail de l 'utilisateu.r. Si la description d 'un pro-


gramme standard est trop detaillee, l'utilisateur peut s'embrouilleret
1) appeler un autre programme de qualite inferieure mais mieux
decri t et plus facile a mani puler ;
2) executer mal le programme et n'obtenir aucun resultat; dans
notre cas, par exemple, la methode (1), (2) pour p = O conduit
a I' arret de l' ordinateur ;
3) exploiter mal le programme et aboutir a un resultat errone
en le supposant juste, ce ~ui arrivera si;par exemple l'on se sert des
formules (1), (2) avec 2- /pn de l'ordre de !'unite.
11 paraît que le cas 3) est le plus desastreux.
En choisissant la methode, on se souciera que la description
correspondante du programme soit simple et concise a souhait, car
tout renseignement supplementaire peut recevoir une interpretation
foeorrecte et limiter le domaine d' application du programme. L 'utili-
sation de deux programmes, l'un pour Ip I> p2 , l'autre pour
Ip I ~ p 2 , n'a fait que compliquer Ies choses, surtout dans le cas
des series d 'integrales dont certaines · sont a p petits et d' autres
a. p grands. On leur a donc prefere un seul programme qui effectue
Ies caleuls suivant Ies formules (4), (5) et dont la description ne
mentionne pas la quantite I p 1-
Voici un exemple instructif.
La description d'un programme standard de calcul d'integrales multiples
stipulait entre autres: « Le pre~ent programme n'est pas a recommander pour
un nombre de points superieur a 100 OOO.» Peu apres, ce programm.e a ete
retire de la circulation. 11 s'est avere que dans leur grande majorite Ies premiers
utilisateurs se donnaient un n egal a 100 OOO, et le calcul d'une integrale simple
prenait trop de temps machine. La nouvelle s'est tras vite repandue et Ies cal-
culateurs ont vite abandonne le programme en question. Or, celui-ci permettait
en fait de calculer la pluP.art des integrales reelles avec une precision acceptable
si le nombre de points etait de l'ordre de 1000; quant au nombre 100 OOO, il
representait simP,lement une borne superieure approximative des valeurs de n
pour lesquelles I influence de l'erreur de calcul sur le resultat n'etait pas ancore
catastrophique.

§ 6. Amelioration de Ia precision d'integration


par partage equidistant du segment
L'evaluation (3.4) entraîne que l'erreu.r dans la formule de
quadrature est evaluee au moyen de la precision d'approximation
de la fonction / (x) par des polynomes de degre n. La tentative
d' ameliorer la precision en elevant le degre des polynomes verifiant
cette formule semble done parfaitement naturelle. Cette voie est
eependant semee d'ecueils. Avec un ehoix malheureux de points ii
n
peut arriver que ~ I D1 I augmente avec n. Vn "ldans (3.4) croit
J~ ~
donc lui aussi avec net la diminution de Em (/) pour un n croissant
peut· ne pas eompenser l'augmentation de Vn.
126 INTgGRATION NUMgRIQUE [CH. III

Par exemple, pour une repartition uniforme elementaire des


points
d,(n>_
- - t T• 2 n-i
<i-i) , J· = 1, ... , n, [a, b] = [ - 11]
, ,
Vn augmente approximativement comme 2n (plus precisement,
log2 Vn - n) si m = n - 1. 11 en resulte que la fonction analytique
f (x) = (1 + 25x2)-1 presente pour de tels points une erreur
1

Rn (/)= J f(x)dx-Sn(/)-+oo,
-1
n -)o.OO.

Prenons le segment d 'integration [-1, 1] et enon~ns un theoreme general


recommandant la prudence dans l'usage des formules exactes pour des polynomes
de tres baut degre. Soit pour tout n la formule
1 n
J/ (x) dx ~ ~ DJn>l(dt>>, (1)
-1 i=1
stricte pour Ies polynomes de degre n - 1. Notons wn (x1 , x 2) le nombre de
points de (1) appartenant au segment [x1 , :z:2].
TH~OIU!ME (sans demonstration). Soit un segment [x1 ,x2 ) E (-1, 1} tel que

Wn (x1, x2 ) -;4
n
J .
X2
1
n V1-x 2
dx
o
pour n-+ oo.
Xf

Alors on peut indiquer un b ;:fa O et un a tels que l'une des foncttons analytiques
vertfie -

Re ( x-(!+bi) } ' Im ( x-(!+bi) ) '

.
lim I Rn (!) I= oo •
\"n ➔ OO

Ainsi, la densite de repartition des points des formules de quadrature (1)


exactes pour Ies polynomes de degre n - 1 doit âtre egale a celle des zeros
des polynomes orthogonaux, i.e. des zeros des formules de Gauss. Dans le cas
contraire ces formules ne peuvent pas âtre considerees comme universelles.
Recrivons l'evaluation (3.8) de l'erreur dans les formules de
Gauss de fa~on suivante:
b

I Rn (/) 1~2 { JP (x) dx}


a
E2n-1 (/). (2)

Supposons que la fonction a integrer / (x}'soit eontinue; le~ theoreme:


de Weierstrass dit alors que pour tout e O il existe. un polynome >
P q (x) tel que max I/ (x) - P q (x)"I ~ ·e, d'ou Em ·(I) -),.O avec
[a, b]
§ 6] AMELIORATION DE LA PR:8CISION D'INT:8GRATION 127

m ~ oo. Par consequent, pour n'importe quelle fonction f (x) con-


tinue, l' erreur commise dans Ies formules de Gauss tend vers O pour
n-+ oo.
PROBLBME. Soit f (.x) une fonction integrable au sens de Riemann. Demontrer
que pour Ies form.ules de Gauss on a
Rn (/) ~ O pour n ~ oo.
On voit que Ies programmes universels de calcul d'integrales
des fonctions pourraient tres bien se baser sur Ies formules de quadra-
ture de Gauss. II y a cependant un inconvenient : il est impossible
de predire le nombre de points des formules de quadrature dans le
calcul d 'integrales avec une precision donnee. Aussi faut-il introduire
dans la machine ou enregistrer en memoire rapide a partir de memoires
auxiliaires Ies points et Ies poids des formules qui correspondent
a un n de plus en plus grand, ce qui ralentit quelque peu Ies calculs,
notamment sur de petites machines. Signalons de plus qu'on voit
souvent surgir le probleme de calcul d 'integrales telles que la fonc-
tion a integrer ou ses derivees d'ordre peu eleve. presentent des
intervalles de brusque variation, par exemple deviennent infinies.
De telles fonctions se pretent mal a l' approximation par des poly-
nomes sur le segment d 'integration tout entier. II y a donc souvent
interât a partager le segment initial. en parties, puis a appliquer
a chaque segment partiel Ies formules . de Gauss ou autres.
B
Soit a trouver !'integrale I = j f (x) dx. Divisons [A, B] en
A
M parties [aq-i, aq] avec a 0 = A, aM = B. Pour calculer !'integrale
sur chacune des parties, servons-nous de l 'une quelconque des for-
mules de quadrature des §§ 1, 3:
aq

Iq =
·
1f (
aq-t
x) dx ~ Sq =
m .
_ aq-;aq-f. ~ Di/ ( aq-f.:aq + aq~aq-1 dJ) (a)
i=1
~vec
D ( max 1/<n> (x) I) ( ·
aq-a
q-
f. )n+1
[aq-t, aq] 2

pour evaluation du reste. L'integrale sur le segment tont entier


sera alors approchee par la somme
M M m .
$Kl(/)= ~ Sq= ~ aq~aq-1 ~ DJ! ( aq-f.:aq + aq~aq-1 dJ) (4)
q=1 q=i j=1
i28 INTgGRATION NUM~RIQUE [CH. III

dont le reste est evalua par

IR!{}(/) I= 11-SXl (/) l~D ~


M
(max If<"> (x) I) (
aq-aq-1 }n+i • (5)
2
q=i [aq-t, aq]

On dit de la formule (4) qu' elle est composite ou generalisee.


Examinons un cas dont l'etude est particulierement simple„
a savoir celui de segments partiels egaux: aq - aq-1 == H.
Apres avoir rem place max 11<n) ·(x) I par An = max lf(n) (x) I
[aq-l' aq] (a, b]
l' estimation d 'erreur (5) deviant alors
IR~(/) l~DAn (B-A) Ir, ou D= n2-cn+1>, (6)
ou
(7)

Ne pensez pas que pour des fonctions possedant des derivees bornees peu
nombreuses, les formules composites d'integration numerique convergent mieux
que Ies formules de Gauss. Supposons que la fonction a integrer possede p derivees
bornees. Par application de la formule (4) correspondant a n = p, on obtient
une valeur approchee entachee d'une erreur O (N-P). On sait par ailleurs que
pour une telle fonction EpN-t (/) = O (N-P). La formule (3.8) entraîne donc
l'estim.ation suivante de 1 erreur dans la formule de Gauss a N points:
RN (/)=O (N-P).
L'ordre de l'estimation d'erreur est le mâme dans Ies deux cas.
Les formules de Gauss appliquees a tout le segment d 'integration presentent
un autre avantage. On n'a pas a evaluer le nombre Po de derivees bornees de la
fonction a integrer ni a choisir. par consequent, la formule la plus indiquee
d'integration numerique sur Ies segments partiels, car Ies formules de Gauss
garantissent automatiquement une erreur de l'ordre de O (N-P). Si Ies derivees
d'un ordre superieur a PQ ne deviennent infinies qu'aux extremites du segment,
l'ordre de convergence d.es formules de Gauss est d'ordinaire plus eleve. On
con~it qu'une formule convergeant plus rapidement n'est pas forcement plus
precise qu'une autre dont l'ordre de convergence est plus petit (cf. Ies expli-
cations des fig. 3.15.2-3.15.5).
Donnons certaines formules de quadrature et evaluons Ies erreurs
dans Ies cas particuliers des formules (3).
1. Formule des trapezes generalisee a pas d'integration constant.
Soit le pas constant aq - aq-i == H. La formule (3) deviant
aM

j / (x) dx ~ II ( 1ţo> +f (a1) + ... + / (aM-t) + 1<;M) } ,


ao
et le resta est evalua par
A (aM-ao) os -A (aM-ao)3
(8)
2 i2 - 2 i2M1 •
§ 6] AM:mLIORATION DE LA PR:mCISION D'INT:8GRATION i29

2. Formule de Simpson generalisee a pas d'integration constant.


Pour le pas constant aq - aq-i == H = 2h, la formule (3) se trans-
forme en
aM

) f(x)dx~H {
a0
! f(ao)+ ! /(a,!)+! /(a1)+ 2

+ 6 f(a!)+ 3 f(a2)+ .•. + 31 f(aM-1)+ 64 f(aM_.!)+ 61 f (aM) ) ,


4
2
1
2
ou a,= a + jH. L'estimation du reste s'ecrit
0

A (aM-ao) B4 Â4 (aM-ao)5 A4 (aM-ao) h4


4 2880 2880M4 - 180
Cette de;·niere eeriture est la plus usitee.
Nous yenons d'obtenir Ies formules avee une erreur en O (N-n)
pour un nombre total N = Mm de points d 'integration sous l 'hypo-
these des I j<n> (x) I bornees. Les _formules des trapezes et de Simpson
sont basees sur un nombre N de points inferieur a Mm, puisque Ies
extremites des segments elementaires [aq-t, aql etaient Ies points
d'interpolation et Ies valeurs de la fonetion en ees extremites servaient
A ealeuler Ies integrales sur deux segments elementaires.
On aboutit a l'estimation du meme ordre dans l'hypothese plus
B .

faible J 1/<n> (x) I dx < oo.


A
En effet, rappelons-nous la representation (2.3) de I' erreur sur un segment
elementaire
b

RN (/) = JKN (y) /<n> (y) dy,


a
ou
N - -
(x1-y)n-1
(b-y)n
ni (b-a) ~ Dj (n-1) I (9)
i=1
D'ou l 'evaluation
b
I RN (/) I ,max I KN (y)'
[a, b] Jar I f<n) (y) I dy. (10)

Par ailleurs, on a
max I KN (y) I= D (b-a)n
[a, b]
avec

~
D= max I (1-t)n
N

~ DJ
(dl-t)n-1
(n-1) I
I '
[-1, 1] nI
i=1
9-01007
130 INTEGRATION NUMERIQUE [CH. III

'Cette egalite est obtenue par changement de variable y=a+(b-a) t dans


le second membre de (10). Finalement
b
I RN (f) I < lJ (b- ar ) I / (îl) (x) I dx. (11)
a

Ainsi, le reste de la formule de quadrature (3) est egalement evalua par


aq
D (aq-aq_t)n ) I /<n> (x) I dx.
aq-i

Soit aq- aq-i = H. L 'estimation totale du reste est alors


M aq B
IR~(/) I <D ~ Hn ) I /<n>(x) I dx=DHn ) lf<n>(x) I dx. (12)
q=i aq-i A

On demande, par exemple, de trouver


1
) {sinx)adx, O<a.< 1.
o
Comme ((sin x)a)~-+ oo pour x -+ O, il est impossible d 'evaluer l 'erreur a l 'aide
de max 11' (x) 1. D'autre part, (sin x)a est monotone sur [O, 1), donc
1
) I ((sin x)a)' I dx= (sin x)a li= 1.
o
Par consequent, avec la formule de quadrature (4) correspondant a n = 1
a pas constant aq - aq-t = H, on ohtient, conformement a (12), une estimation
d'erreur de l'orctre de O (H).
Dans le present exemple la petitesse de l'erreur ne decoulait pas
de l'estimation (6); d'autre part, il resuite de (12) qu'il s'agit d'une
erreur en O (1/N). C'est pourquoi une estimation importante de
l'erreur ne signifie nullement que celle-ci est considerable.
En particulier, on ameliore fortement l'evaluation de l'erreur
dans le cas multidimensionnel si l'on utilise Ies normes des derivees
dans Ies metriques Lp, p =I= oo.
On se demande alors si, dans Ies memes hypotheses sur la fonction
a integrer, on peut obtenir des evaluations d'erreur plus precises
ou au moins ameliorer Ies constantes y figurant. Ceci nous conduit
a etudier la construction de formules de quadrature avec une
evaluation optimale de l'erreur, c'est-a-dire de formules de qua-
drature optimales.
§ 7) POSITION DES PROBL:IDMES D'OPTDIISATION 131

§ 7. Position des problemes d'optimisation


Nous avons construit plusieurs formules d'integration numerique
et nous pourrions continuer dans cette voie. Un probleme surgit
alors: plus Ies procedes de resolution sont nombreux et plus on hesitc,
a fixer son choix, car chacun possede peut-etre des avantages tels
que la facilita de programmation, un temps machine reduit, un
faible encombrement de memoire, une evaluation d 'erreur simple,
de vastes debouches. Si bien qu'une information trop abondante sur
Ies techniques de resolution, et qui augmente demesurement, peut
etre cause du surplace. Une systematisation des methodes, leur
selection s'imposent donc. On voudrait, cela va de soi, resoudre
son probleme au mieux, par un procede optimal. Nous avons deja
considere certaines formulations types des problemes afferents aux
methodes optimales de resolution en calculant Ies valeurs de fonc-
tions; Ies problemes a resoudre se pretent alors a des positions
mathematiques determinees.
Des qu'un probleme surgit, on se propose d'en donner la descrip-
tion la plus detaillee possible, puis de lui trouver la meilleure solu-
tion. Comme on n 'y reussit generalement pas, on se contente soit de
le decrire au mieux et de le resoudre de faţon satisfaisante, soit,
au contraire, de le decrire de faţon satisfaisante pour, ensuite, le
resoudre completement. En ce qui concerne l'optimisation des
methodes, il s'agit du choix entre une resolution satisfaisante pour
des classes de problemes proches des problemes reels et une resolu-
tion complete pour des classes mathematiques types semblables
a celle qui sera etudiee dans le paragraphe suivant. Mais pourquoi
parler de la << resolution satisfaisante d 'un probleme d 'optimisation
de methodes >> pour telles classes? Celui-ci ne se reduit-il pas a un
probleme mathematique bien concret · qui est susceptible d 'etre
entierement rasolu et pas seulement << de fa~on satisfaisante >>?
C'est juste en principe, mais dans la pratique on n'arrive pas
a resoudre entierement un probleme dans un temps acceptable:
d 'habitude, la construction d 'une methode optimale coute sensible-
ment plus en temps que l'elaboration d'une description nouvelle,
amelioree, des classes de problemes consideres. II ne faut pas oublier
non plus que cette description mathematique n'admet pas toujours
une formalisation : on dispose d 'une representation qualitative de
la classe et de methodes numeriques valables, et l'on sent intuitive-
ment que Ies methodes sont a l'optimum sur le plan pratique; or,
l'on ne dispose meme pas d 'une description formelle nette de la classe
des problemes a resoudre. lJn exemple de cet etat de choses est
l'integration des fonctions regulieres par morceaux que nous allons
mettre a l'etude au § 17 (sous forme non formelle). De meme, dans
l'analyse des modeles physiques, ou bien on decrit le probleme
a l'aide d 'un systeme complique d 'equations differentielles et on
9*
1.32 INT:8GRATION NUMl!:RIQUE [CH. III

resout celui-ci avec une precision faible ou bien on le decrit par un


systeme simple dont on ·trouve la solution avec une tres grande
precision. ·
Selon le contexte, on choisit telle ou autre approche. 11 paraît
qu'une science appliquee a souvent plus d'interet a poser des proble-
mes variationnels d 'une faţon correcte que de Ies resoudre entiere-
ment. En general, une resolution satisfaisante de tel probleme varia-
tionnel bien pose sur le plan pratique s'avere plus efficace qu'une
resolution complete de tel autre ne rendant pas compte de toutes
Ies particularites du phenomene.
Qu' est-ce qu 'une methode optimale de resolution d 'un probleme?
Certains entendent par resolution optimale une resolution qui
coute le moins en temps machine. C'est la une definition malheu-
reuse car en principe tout probleme peut etre rasolu sans faire appel
a des calculatrices au prix d 'un effort considerable.
D 'autres disent que c' est la resolution la moins couteuse en
temps (ou en argent). (Notons qu'elle comprend deja le cout de
recherche de l'algorithme optimal.)
En voulant optimiser la resolution d 'un probleme nous ne tenons
pas compte des moyens mis a la disposition du chercheur. Or, selon
ces moyens (ordinateur, bibliotheque, personnel auxiliaire, colla-
borateurs rompus a la resolution de problemes analogues, facultes
du chercheur), la resolution optimale differe d 'une faţon generale.
Nous n'avons parle jusqu'a present que de la resolution optimale
de problemes concrets. A vrai dire, cette approche n'est pas juste.
Car une equipe de chercheurs a affaire a tout un ensemble de problemes.
Nous pouvons nous proposer de resoudre le premier, le second, etc.,
deces problemes en temps minimal. La situation changera radicale-
ment si nous desirons d 'en resoudre toute une serie, et cela le moins
eher possible. Nous resoudrons bien le premier, le deuxieme, etc.,
probleme par des methodes optimales. Mais la science est en conti-
nuei progres, et si nous n'etudions pas de nouveaux procedes, ne
creons pas de nouveaux algorithmes et programmes standard a s'en
servir a l'avenir, nous perdrons dans l'ensemble. En presence d'une
grande serie de problemes pas tres urgents, on ferait mieux de s'occu-
per de recherches theoriques, d 'elaborer de nouveaux algorithmes,
puis de s'attaquer a la resolution.
La question a savoir a qui confier la resolution optimale n'admet
pas elle non plus de reponse univoque. S'il s'agit d'un seul probleme
concret n'exigeant a priori ni un algorithme inedit ni un temps
machine considerable, on en chargera un utilisateur de moyenne
qualification. Des problemes compliques en nombre important appel-
lent 'des chercheurs hautement qualifies qui donneront ici le meilleur
d 'eux-memes. On ne negligera certes pas d 'etudier la pratique de la
resolution de problemes taD;t elementaires qu'ardus. Pour qu'un
probleme d 'optimisation des methodes puisse âtre considere comme
§ 71 POSITION DES PROBL1™ES D'OPTIMISATION 133

un probleme purement mathematique, on doit determiner la fonc-


tion economique (ou objectif), la classe de problemes analyses et Ies
possibilites du chercheur.
La qualite d 'un algorithme sur une classe de problemes est jugea
sur le probleme le plus difficilement maniable de cette classe. Donc,
plus la classe est restreinte et plus puissants sont Ies algorithmes
correspondants.
On pourrait penser qu'il faut construire des algorithmes opti-
maux pour le plus de classes possible. Or, en individualisant celles-ci
outre mesure la recherche des procedes optimaux coiltera trop d 'ef-
forts, si bien que Ies forces et le temps pourront manquer pour resou-
dre Ies problemes memes ainsi que pour elaborer et acrire Ies pro-
grammes usuels. Ceci concerne moins la resolution sur machines
et dispositifs specialises, cas ou il faut reduire au maximum la
classe de problemes etudies et examiner la question sous tous ses
aspects.
11 semble de prime abord que dans la pratique on a toujours
affaire A des problemes concrets, sans jamais envisager une classe de
problemes. Une remarque s'impose a ce propos: s'il est vrai que,
lorsqu 'il choisit une methode de resolution, le chercheur n 'inclut pas
formellement son probleme dans une classe quelconque, il ne s'en
guide pas moins sur ses particularites telles que la forme de l'equa-
tion differentielle, la presence d 'une singularite de la solution,
le nombre de. derivees finies, etc. En choississant l'algorithme, le
chercheur tient compte de ces particularites et, qu 'il le veuille ou
non, situe· le probleme dans une classe possedant ces proprietes.
L'analyse des problemes et leur classification appellent souvent
la question suivante: a quelle classe donner la priori te? en parti-
culier, quelle classe doit-on avoir en vue en redigeant tel programme
standard d 'integration numerique? Soit, par exemple, un programme
qui calcule avec une frequence sensiblement egale Ies integrales de
fonctions regulieres et de celles qui ne le sont pas suffisamment (c'est
une classification arbitraire, bien sur). Quelles fonctions presideront
au choix de l'algorithme? Un algorithme travaillant sur des fonc-
tions regulieres sera plus efficace, et le temps de resolution sera donc
inferieur A celui du cas de fonctions ne jouissant pas de cette propriete.
Un gain de temps de 50 % lors du calcul d 'integrales de fonctions
regulieres est moins avantageux que le meme gain obtenu dans le cas
des fonctions non regulieres, ce qui fait qu'on pretera surtout atten-
tion A l'efficacite de l 'algorithme pour ces dernieres. On agira autre-
ment bien sur si le pourcentage des fonctions non regulieres est
faible.
Supposons qu' on recherche une methode optimale de resolution
d 'une classe de problemes afin de l 'exploiter en calcul automatique.
Au bout d'un certain temps on trouve un procede soit proche de
l'optimum soit meilleur que Ies procedes existants, et on le perfec-
134 INT~GRATION NUM~RIQUE [CH. III

tionne. A quel instant faut-il arreter ce travail de raffinement et


passer a l'elaboration de programmes standard de resolution? Si l'on
se hâte trop et qu'on implanta l'algorithme a peine trouve, il se
peut que sa qualite mediocre nous oblige sous peu a en creer de
nouveaux. Par contre, si l'on fait traîner Ies choses en longueur, la
resolution par des programmes disponibles coutera trop cher en temps.
On pourrait certes objecter que la mise au point de programmes
usuels de qualite permettra dans la suite d'economiser beaucoup de
temps machine. C'est un fait, encore que le temps machine soit
de moins en moins deficitaire et onereux. D'autre part, plus vite un
probleme est rasolu, plus grand est le profit reel de la societe dans
son ensemble.
Ne perdons pas de vue que}'implantation rapide des algorithmes
nouvellement crees est importante pour la recherche meme des
methodes optimales de resolution. En effet, l' analyse des resultats
numeriques peut suggerer de remplacer la classe en question et ouvrir
ainsi la voie a de nouvelles etudes theoriques. L'approche du pro-
bleme d 'optimalite doit donc etre dynamique, a savoir on doit cons-
truire des methodes optimales ou voisines de l'optimum pour des
classes toujours nouvelles de prohlemes poses par la science et la
technique compte tenu des latitudes offertes par Ies machines a calcu-
Ier electroniques.
Ceci etant, le travail courant est necessaire au meme titre que le
degrossissage de la solution. Science appliquee, le calcul mathema-
tique se caracterise par la situation suivante: Ies problemes de type
nouveau sont en faible quantite, mais ils impliquent une solution
immediate a tout prix. A cette etape, toute methode acceptable fait
l'affaire. Puis, Ies prohlemes affluent toujours plus nombreux, on
arrive a poser le probleme d'optimisation des methodes d'une fa~on
plus ou moins satisfaisante et on trouve une solution. Enfin, a l'etape
suivante, Ies problemes sont resolus par des systemes de programmes
standard correspondants. Leur etude n'est pas finie pour autant:
on ne saurait elaborer de methodes efficaces de resolution de proble-
mes nouveaux sans repenser Ies anciens et Ies soumettre a un examen
theorique.
Le rapport entre le travail courant et la planification perspective
est lui aussi un des facteurs majeurs de l'activite d'un centre scienti-
fique quelconque. Celui-ci doit faire face a tout instantă. des exigences
d'importance vitale: rentabilite lorsqu'il s'agit d'un regime
d' autofinancement, bilan en fin d 'exercice, etc. 11 est des moments
critiques ou l'on demande de resoudre ă. temps de nouvelles classes
de problemes. En planifiant, on preverra donc des recherches
theoriques supplementaires, des reserves de main-d'ceuvre et de
temps machine.
Revenons a I' optimisation des methodes.
Le mathematicien qui a elabora une methode optimale ou voisine
§ 8] FORMULES DE QUADRATURE OPTIMALES f85

de l'optimum se plaint souvent des difficultes qu'il eprouve pour


la mettre en pratique. La eause en est souvent le conservatisme des
praticiens, leur attachement a des techniques anciennes qui ont
fait leurs preuves. Parfois, c'est la methode · meme qui laisse
a desirer. 11 arrive par exemple qu'en plus (voire au lieu) de son
optimalite, on exige d'une methode qu'elle soit simple et permette
de tester avec eertitude Ies resultats obtenus. 11 se peut egalement que
la classe des problemes etudies ne coincide pas avec celle de la plupart
des problemes poses reellement.
Autre chose encore. Si on sait qu'a l'heure actuelle et a l'avenir
on n'aura a s'occuper que de peu des problemes de la elasse conside-
ree, l'elaboration d'algorithmes optimaux et de programmes stan-
dard de resolution peut ne pas se justifier. D'autre part, l'etude du
probleme d 'optimisation des methodes sur des classes differentes
est souvent utile parce que sa discussion fait apparaître de nouveaux
procedes qui s'appliquent largement a la resolution de problemes
d'autres classes. Un exemple en est l'elaboration des methodes nume-
riques d 'integration.

§ 8. Formules de quadrature optimales


sur des classes de fonctions a une derivee
Les raisonnements du § 7 nous convainquent de l'importance
que presente l'etude des differentes positions du probleme d'optimi-
sation des methodes sur Ies classes de problemes.
Soit a calculer !'integrale
I (I)=)/ (P) p (P )dP.
Q

Le domaine d 'integration Q et la fonction de poids p (P) sont sup-


poses fixes. On determine la classe de problemes consideres par la
donnee de la classe F de fonctions a integrer. On appelle erreur
dans la formule de quadrature
N
/(/)~SN(/)= ~ Di/(Pi)
J=1
sur la classe F, la quan ti te
RN (F} = sup IRN (I) I,
- /EF
ou, comme d 'habi tude,1
RN (/)=I (j) - SN (/).
La borne inferieure
136 INT~GRATION NUMERIQUE [CH. III

est dite estimation optimale de l' erreur dans les f ormules de quadrature
sur la classe consideree. S'il existe une formule de quadrature telle
que' RN (F) = W N (F), on dit qu'elle est optimale sur la classe
consideree.
Prenons
1
I(!)= j / (x) dx, f EF= Ct(A, [O, 11),
o

C1 (A, [O, 11) etant une classe de fonctions continues de derivee


premiere continue par morceaux verifiant la condition I f' (x) I ~
~ A. La somme de quadrature s'ecrit

N
SN(/)= 2] DJ!(xi), x1 < ... <xN•
i=1
lmposons la condition
N
2] D1= 1. (1)
i=1

Si (1) n 'est pas satisfaite, on a, pour f (x) = c = const,


N
RN(f) = (1- ~ D1) c+ O.
f=1

Toutes Ies fonctions f (x) = const appartiennent a la classe donnee,


donc,
N
RN (F)>sup (11 - ~ D111 c I)= oo.
C Î=1

11 est clair qu'on ne saurait parler de l'optimalite d'une formule


pareille. La formule de quadrature verifiant (1) est exacte pour
des constantes, i.e. des polynomes de degre zero. Selon (2.6) on
a pour de telles formules
1
RN (Ct(A, [O, 11)) = A JIKN (y) Idy,
o
ou
N
KN(Y)=1-y- 2] D1(.x,-y) 0 ,
J=i
_ { 1 pour t > O,
(t)O-
- O pour t~O.
§ 8] FORMULES DE QUADRATURE OPTIMALE$ 137

Si Xm-1 <.Y < Xm, il vient


_ { O pour j < m,
(xJ-y)o = 1 pour j ~m,
(nous avons pose 0° = O) ; aussi
N
~ Di (x1-Y)o =
/:1 .

={ ,=mi:
pour y<x1i,

Qm= D, pour Xm-1 ~y<xm, m=2, ... , N, (2)


o
Le probleme initial de minimisation de l'erreur sur une elasse
se reduit done a la resolution du probleme suivant: approcber au
1
mieux, dans la metrique L 1 : li/ li= JI/ (x) Idx, la fonction
o
1- y
1
par des fonctions de la forme (2). Designons JI KN (y) I dy par
o
V (Q2, ••. , QN; x1, •.• , xN)• On a
V(0 2 , ••• , QN; X1, •• • , xN) =
x1 N :tm 1
= Jlyldy+ ~ J 1(1-y)-O~ldy+ J11-yjdy.
O m=2xm-t XN
. (3)

Un seul terme, a savoir


Xm

V (Om) = J I(1- Y)- Om Idy~


Xm-1

depend de Om fixe. Une integration immediate donne


(zm-zm-1) 2
2 + (Qm- (1-Xm-1)) (xm -Xm-1)
pour 1- Xm-1-<Qm,.
(1-Qm -zm) 2 + (1-Qm-Zm-t)2
V(Om)= 2
pour 1-xm<.Qm<.1-xm-1,
(Om-(1-xm)) (xm-Xm-1)
pour Qm-< 1- Xm•
138 INT1i1GRATION NUM1nRIQUE (CH. III

D'ou
V' (Qm) > O pour Qm > 1- Xm-t;:-Zm ,

V' (Qm) < O pour Qm < 1- Xm-t:Xm ,


par consequent,
min V (Qm) = V (1 (4)
Qm
A part V (Qm) le second membre de (3) contient
Xt 1
JI y I dy+ J11-y I dy= xf+(1;-xN~2.
O -x,N .

11 en resuite, compte tenu de (3) et (4), que


inf V (Q 2, ••• , QN; X1, ••• , xN) =
Q2, ·• •• QN

Ainsi,
inf V (Q 2, ••• , QN; x 17 ••• , xN) ===
Q2, ••• ,QN;x1, ... ,xN

E n 1"denh"f"iant a"' ~ero


' l es d'er1vees av
. ' -~-,
uJ:m
on aboutit au systeme
d 'equations
3x1-X2 -O 3xN-2-xN-t -0 Xm-1-2xm+Xm+i -O
2 -, 2 -, 2 --,
m=2, ... , N-1,
dont la solution est
Xm - ~ , m=i, ... , N ,
=2m-1
et, pour ces valeurs,
- 1
V (x1, •. •11 xN) = 4N •

Nous avons obtenu un point d'extremum de la fonction V, mais


il ne correspond pas obligatoirement a sa borne inferieure ; la fonc-
tion V (x1 , • • • , x N) est consideree dans le domaine O ~ x1 <
< x 2 < ... < x N ~ 1, et si un certain point de la frontiere realise
§ 8] FORMULES DE QUADRATURE OPTIMALES 139

sa borne inferieure, ce point ne satisfait pas forcement a la condi-


. av
t 10n 8- = O.
·
Xm
Verifions directement que la valeur trouvee de V est minimale.
P ortons a,
== 1, b = X1, b 2 = b a = -X2-X1
1 -
b b
, , = s=
Z3-Z2
2 , 2
XN-XN-1
• • •, b2N-2 = b2N-i = 2 ' dans l'inegalite de
Cauchy-Bouniakovski
2N 2N 2N
\ ~ a1b11 -<:{ ~ aj)( ~ bj};
2

';=1 j=1 i=1


2N
on a evidemment 2J a1b1 = 1.
;=1
Finalement
2N
1-<:2N ~ bj
i=1
ou
2N

4~-<: i (~ b]} = V(x


;=1
1, •• • , xN)•

11

Ainsi, la valeur minimale de JIKN (y) Idy, qui est egale a 4


~ ,
o
est atteinte pour

On a pour la formule de quadrature correspondante


1 1
D1=1-Q1= N' DN=QN=/{",
1
D;=Q1-Q1+ 1 =N' i=2, ... , N-1.
On voit que la formule optimale sur la classe consideree est bien
1 N
Jr f (x) dx ,;::: N1 ~f ( 2· 1
~N )
O ;=1
„ 1 , A
dont Ie reste est eva ue par 4
N •
En qualite d'exemple prenons la classe qu (A, [O, 1]) de fonctions eon-
i
tinfunent derivables par morceaux et telles que ) 11' (x) I dx ~A.
o
140 INT~GRATION NUM~RIQUE [CH. IIJ

Selon (6.10) l'estimation de l'erreur prend la forme


1
RN (C{t> (A, [O, 11)) < sup
[O, 1)
j
I KN (y) I I I' (.x) I d.x.
O
(5)

Montrons qu'il s'agit en fait d'une egalite. La fonction KN (y)=(1-y)-Q,n


est,lineaire sur [.xm-h .xm), aussi sup 1.KN(Y)l=max( I 1-.xm-1-Qm1,
. Cxm-1' xm>
I1 - Zm - Qm I), et sup I KN (y) I= sup I Y I= z1, sup I KN (y) I =
[O, xi) [O, xi) [xN, 1)
= sup 11-y 1=1-.xN.
[XN, 1)
Donc,
a= sup I KN (y) J =max (.x1, I 1-x1-Q2 I, I 1-x2-Q2 I, ... , 1-xN)- (6)
[O, 1]
KN (y) etant lineaire sur chacun des intervalles [O, .x1), [.xi, .x2), •••
• . • , [.xN-l• .xN), [.xN, 1], on dit que quel que soit e, on peut indiguer un seg-
ment [y1 , y 2], y 2 > y1 , appartenant a l'un des segments mentionnes et tel que
I KN (y) I> sup I KN (y) 1-e, sg Kn (y)=const.
Soit
O pour x<Y1,
X-Y1
/ 8 (x)= A - - - pour Yt -<:x<Y2,
{ Y2-Y1
1 pour x> Y2•
A
Alors t;
(x) - - - pour .x E (Yh y 2) et
Y2-Y1
t; (.x) =0 pour .x f [Y1, y 2 ]. L'erreur
sur cette fonction est

et, par consequent,


I RN (le) I> A( sup I KN (y) I-E).
[O, 1)
e etant arbitraire, il vient
RN (Clu (A, [O, 11)) > A [O,sup1] I KN (y) I•
11 en resuite, compte tenu de (5),
RN (Cfl> (A, [O, 1))) =A sup I KN {y) j.
[O, 1)
11 est immediat que
{x1}+ ({1-x1-Q2}+{-(i-x2-Q2)})+ ...
• •• +({1-ZN-1-QN}+{-(1-.xN-QN)})+{f-.xN}=
= Zt (.x2-z1) + + •••+
(XN-ZN-d f-ZN = 1. +
Selon (6), le maximum des modules des termes entre accolades est sup I KN (y) 1.
11 est au moins ~ pour une somme de 2N termes egale A 1. Aussi
2
181 FORMULE$ DE QUADRATURE OPTIMALES 1.41

sup I KN (y} I> 2


[O, 1]
1. Le maximum des modules est 2~ si et seulement si

les termes sont tous egaux a 2


~ ~- S' ii existe donc une formule de quadra-
ture pour laquelle
1
sup I KN (y} I= 2N ,
[O, 1]
on a obligatoirement
1 · 1 1 1.
Xt= 2N ' t~x1-02= 2N ' 02+x2-i= 2N ' .•. , 1-ZN= 2N •.

Portant x1 = ~ dans la deuxieme equation, il vient Q2 = 1-


2
portant!;
cette valeur de Q2 dans la troisieme, on obtient z 2 = ~ , et ainsi de suite.
2
Finalement
2;-1
x;=2N,

11 correspond a ces Q1 Ies memes D;= !. Ainsi, la formule


1. N
) f(x} tk
O
~ ! ~ I(
;=1
2~N 1 )

avec un reste ~ evalua par !


2
est bien optimale sur la classe consideree.

A ·1 'heure actuelle, Ies formules de quadrature optimales ne sont


etablies que pour un jeu restreint de classes de fonctions, principa-
lement d 'une variable. Leur interât pratique pour Ies applications
est minime, ce qui ne signifie nullement que leur construction doit
âtre negligee.
Les representants d 'autres disciplines, des sciences humaines en
premier lieu, disent que la mathematique est une discipline quanti-
tative, que Ies << mathematiciens calculent >> tandis que leurs sciences
a eux s'occupent de \·deductions qualitatives.
Rien n'est plus faux. 11 est vrai que la mathematique influence
de nombreux aspects de la vie sociale en Ies pourvoyant de resultats
numeriques de toutes sortea tels la securite de constructions, Ies plans
optimaux, etc. 11 est egalement indeniable qu'elle est l'outil par
~xcellence de l'analyse qualitative de phenomenes se deroulant dans
la na ture et la societe. 11 n 'est pas rare que ces phenomenes soient
simules par un grand nombre de modeles contradictoires qui ne se
prâtent pas a un triage theorique. Seul le calcul du modele sur
ordinateur determine son degre de conformite avec la realite, et Ies
conclusions des mathematiciens sont en l'occurrence qualitatives par
142 JNTEGRATJON NUMERIQUE [CH. III

essence. La valeur de certains modeles mathematiques de !'economie


se mesure souvent non pas au plan optimal qui resulte de leur exa-
men, mais a une recommandation essentiellement qualitative portant
disons sur l'orientation nouvelle a donner ala structure de la balance
des combustibles, au systeme de paiement afin de stimuler la branche
correspondante.
De meme, on apprecie Ies constructions ci-dessus des formules
de quadrature optimales et leur generalisation au cas de fonctions
tres regulieres de plusieurs variables non pas d 'apres Ies formules
concretes en resultant, mais d'apres Ies eclaircissements qu'elles
apportent a !'aspect qualitatif du probleme: ou telle methode est la
plus performante, quelle precision escompter en utilisant telle infor-
mation sur la fonction a integrer, quelle est la densite de repartition
des points dans Ies bonnes formules?
Nous avons vu, par exemple, que seule l'information sur le carac-
tere borne de la deri vee premiere permettait une estimation d 'erreur
en O ( !} au plus. Ainsi, Ies evaluations obtenues au § 6 pour n = 1
ue peuvent etre ameliorees par rapport a N. Nous avons vu, d 'autre
part, que l 'hypothese de la derivee premiere bornee ne pouvait pas
ameliorer de beaucoup l'estimation de l'erreur obtenue en supposant
que
1
JI/'
o
(x) I dx

etait bornee.
§ 9. Optimisation de la repartition
des points de base des formules
de quadrature
Les methodes d 'integration numerique auraient pu se develop-
per par la creation de methodes optimales sur diverses classes
C~P> (A, [a, b)) et l'elaboration de programmes adequats. On s'est
vite aper~u que pour ces classes Ies procedes connus avec estimation
(6.7), (6.12) etaient proches de l'optimum; nous verrons au § 7,
eh. V que l'optimisation de la formule de quadrature n 'ameliora
pas l'ordre de l'estimation (6.7), (6.12) de l'erreur sur Ies classes
considerees. On a egalement constate que certaines methodes qui
coincident pratiquement avec Ies methodes classiques d 'Euler et de
Gregory sont asymptotiquement optimales relativement a l'evaluation
de la partie principale de l 'erreur. Plus precisement, dans ces methodes
sur Ies classes correspondantes de fonctions l 'erreur a ete evaluee par
§ 9] OPTIMISATION DE LA R~PARTITION DES POINT$ DES QUADRATURES 143

tandis qu'elle l'est par

pour des methodes optimales sur ces classes.


On pourrait penser que du moment qu 'il existe des methodes
presque optimales, l'etape suivante consisterait a Ies faire accepter
par tous Ies systemes d 'integration.
Cette affirmation est sujette a caution. En effet, l'extreme diver-
site des problemes a resoudre implique une certaine prudence lors
de la mise en pratique des methodes. Nous ne sommes pas tout a fait
certains que notre description de ces classes de problemes correspond
le mieux a une classe de problemes reels; ainsi, Ies classes C1 regissent
mal Ies problemes reels. Devant I' attachement aux methodes admi-
ses, Ies partisans de nouvelles techniques doivent faire preuve d 'une
energie perseverante. Ils ne doivent pas oublier pour autant que Ies
vieilles 1echniques ont fait leurs preuves et sont peut-etre plus appro-
priees a des problemes de certaines classes. Avant de Ies abandonner
on procedera donc a une analyse pratique et theorique suffisante.
Dans notre cas (probleme d 'optimisation des methodes d 'integra-
tion), avant meme d'eclaircir completement Ies questions afferentes
a l'optimalite des methodes, onest arrive aux conclusions suivantes.
En divisant le segment d 'integration de depart en segments
elementaires egaux aq - aq-i == H, nous obtenons l'information sur
la fonction a integrer de faţon uniforme sur tout le segment. D 'autre
part, la fonction sur tel tronţon peut s'averer plus reguliere, ce qui
necessitera relativement moins de points de base. Aussi, dans Ies
methodes pratiquement optimales, le partage du segment d 'inte-
gration se conformera au comportement de la fonction a integrer.
Voyons comment repartir Ies points de base d 'apres le comporte-
ment de la derivee de la fonction a integrer. 11 existe plusieurs faţons
qui ont de nombreux traits communs, mais tel probleme appelle telle
approche. Pour simplifier l'expose, bornons-nous au cas de la for-
mule des trapezes.
Soit a calculer
1
I (f) = Jf
o
(x) dx

avee f(x) telle que I/" (x) l<Az sur (Bz-h B 1), l= 1, . .
0=B0 <B1 < ... <Bq= 1. On trouve

Iz(/)= j1 f (x) dx
.Bl-1
1.44 INT:IDGRATION NUM~RIQUE (CIL. III

par la formule des trapezes generalisee avec Ies segmenta partiels


egaux de longueur Hz= !z, , bz =B,-Bz-t:

lz(f)~Sz(f)=Hz ( f(~-t) +f(Bz- 1 +H,)+ ... + 1 <:z) ).


A,bf
Conformement a (6.8), le reste est evalua par 12N 2 • L'erreur
l
q
totale en rempla~ant I (I) par la somme ~ S 1 (I) ne depassera pas
· 1=1

q Azbf
Cl>= ~ 12N 2 •
l=1 l

Nous nous proposons de choisir Ies quantites N 1 de fa~on que,


pour le nombre N donne (N = N 1 + ... + N q) de segments de
division, l 'erreur (]) admette une estimation totale minimale.
Trouvons le minimum de (]) dans la condition 1P' = N 1 + ...
. • . +Nq-N =0 sans supposer N 1 entiers. En egalant a zero Ies
derivees de la fonction de Lagrange (]) + Âlf, on obtient le systeme
d 'equations

11 s'ensuit

N,=bz V:~. (1)

La condition 'I'= O fournit l'equation par rapport a Â:


q

(~ bz V¾)=N.
l=1

Determinons Â,.puis a l'aide de (1), trouvons N 1• Puisque N 1 doivent


âtre entiers, prenons
(2)
On a visiblement
N-q,<.m_+ ••. +N~,<.N.
Nous n'avons pas obtenu de minimum reel de <I> sur l'ensemble des
N 1 , • • • , N q entiers quelconques tels que (N1 + ... N q = N),
mais nous estimons superflue toute amelioration ulterieure.
Voici un autre probleme variationnel qui presante generalement
un interet pratique. Trouver un minimum de N = N 1 + ... N q
i§ 9) QPTIMISATION DE LA RtPARTITION DES POINTS DES QUADRATURES {45

tel que Pevaluation .de l'erreur .(J) est e au plµs. Comme <I> diminue
de fa~on monotQne avec la croi$sance des N 11, le c~ <I> = e sutfit
.al,llp,1~:QJ.~nt. .Mettons la foncti.on de Lagran,ge_ :soµs .la . for.me
+ ... +
N1 Nq +
1'.-1 (CI> - e) •
.E;n a.nnulant ses derivees par rapport a Ni, on aboutit aux memes
equations (1). Substituant Ni = b, V t{ dans <I> = e, ii vient
q
Â2/3 "'1 ( Ai ) t/3 b _
.cJ 48 l- 8.
l=i .

Determinons Â, puis Ies N I correspondants. Les deux problemes nous


ont do:r:me. Ies memes relations en N 1• .Po~ pouvoir nous prononcer
qualitativement sur la repartition optimale des points il nous suffira
donc d'examiner l'un d'eux.
Notre but est d 'elaborer des· methodes optimales de resolution
pour ensuite, sur leur base, mettre au point des systemes de program-
mes de resolution des problemes mathematiques types. Soit un
programme de calcul d 'une integrale avec une precision donnee
qui se deroule comme suit. On caleule.le .tableau des valeurs de la
fonction sur un reseau x 0 , • • • , Xn• Moyennant ce tableau on dresse
celui des differences divisees
f (xo; Xi; X2), • • ., f (Xn-2; Xn-1; Xn)•
Son ·etude determine le partage le plus rationnel en segments par-
. tiels (B l-i, Bi) et Ies valeurs correspondantes de A,. Ensuite, compte
tenu de (1), on choisit Ies N I et on effectue l'integra.tion. 11 exisţe
des programmes en exploitation qui realisent l'algorithme de calcul
. de !'integrale ne differant que tres peu de l'algorithme decrit. 11 ·
paraît que de pareils programmes sont tres efficaces dans lar~solu-
tion des problemes de certaines classes.
Neanmoins la plupart des algorithmes des programmes standard
en usage sur ordinateurs n 'utilisent pas directement Ies relations
obtenues, mais une conclusion qualitative, resultant de (1). Met-
tons cette egali te sous la forme
~(J!L.)3=~-
12 Nz 2
.Son premier membre est l' evaluation de l' erreur sur un segment
elementaire de longueur 1:) de [Bl-u B 1J. Ainsi, cette relation veut
1
dire que pour une repartition optimale des points d' integration, les
evaluations des erreurs sur les segments elementaires coincident.
Po~r arriver a ce resultat il suffisait de se hornar au cas .q = 2.
Cette circonstance confirme la propriete suivante commune aux
10-01007
t46 INTEGRATION NUM~RIQUE [CH. III

earacteristiques qualitatives des methodes de resolution des problemes


(pas forcement mathematiques): pour les obtenir il su/fit d'examiner
les mocleles les plus simples rejletant les aspects essentiels du phenomene.
Voici une autre position semblable du probleme relatif a l'opti-
misation de la repartition des points d 'integration. Afin de ne pas
vous importmner par Ies details, nous n'allons evaluer Ies termes
d'ordre superieur dans l'evaluation d'erreur .que sous une forme
sommaire.
Supposons que le segment d'integration [O, 1) soit partage en
parties [aq-i, aq], q = 1, ... , N, a 0 = O, aN = 1, et que !'inte-
grale pour chaque segment elementaire est calculee par la formule
des trapezes ·

lq (I)=
r
aq
J f (x) dx ~ Sq (f) =
aq-aq-t
(/ (aq-t) + / (aq})•
2
aq-t
L'integrale sur le segment [O, 1) tout entier est alors determinee par
N
I (t) ~ ~ Sq (J)
q=1
et le reste s'evalue comme suit:
N
(aq-aq-t)3
r = ~ ( max If" (x) I) 12 (3)
q=i (aq-1, ag)

Soit I j'1 (x) l~F (x) sur [O, 1], F (x) continue; prenons pour a9 Ies
valeurs q> ( ; } d 'une fonction q> continument derivable et telle que
cp (O)= O, q> (1) = 1. 11 est immediat que
aq-aq- 1 =q> ( ; )-q> ( q N
1
) =q>' ( 1) ! +o cţ) pour N-+oo,
aussi
max lf"lx)I~ max F{x)=F(aq)+o{1)=F(cp(t})+o(1).
[aq-t, aq] [aq-1, aq]
Ces relations entraînent
(aq-aq-1)3 "
12 ( max I/ (x) l)<eq=
[aq-t, aq]

= ( cp' ( ! ))3 F ( :tf) )+ U, )• o

En portant ces dernieres dans (3), il vient


§ 9] OPTIMISATION DE LA R~PARTITION DES POINTS DES QUADRATURES {47

L'expression entre accolades est la somme de quadratures de Riemann


pour !'integrale ·
1
) (cp' (t))3 F <rt)) dt
o
d 'une fonction continue. Par consequent,

;2 (J(cp' (t))3 (T
1
;: =
.o
F
2
(t» dt) + o ( ;2 ). (4)

Proposons-nous de minimiser le terme ·principal' (le premier) de-


(4). L'equation d'Euler se resout plus facilement si l'on adopte cp-
pour variable independante. Le coefficient de ~ 2 de 1a partie prin-
cipale de l'erreur s'ecrit alors
1
) (t' (cp)t2 F1~cp) dcp.
o
L'equation d'Euler pour la fonction qui rend minimale la
foncti onnelle
1

j G (cp, t, t') dcp


o
est
1
d ( aG ) oG
dip iii' -ae=O. (5)

Dans le cas considere ~~ = O ~t (5) donne lieu a = const. En !;


portant une valeur concrete de la fonction G, on obtient
(t' (cp)t3 F ~cp) = const
ou
F (cp)_ (cp' (t)) 3 = C1 • (6)
La solution generale de cette equation depend de C1 et d'une autre·
constante C2 • Les valeurs de C1 et C 2 se determinent' a partir des:
conditions aux limites cp (O) :..__ O, cp (1) = 1. La mise en pratique·
de la solution de ce probleme variationnel est des plus variee~.
II existe par exemple des programmes realisant l'integration numeri-·
que (6) sur un reseau a pas s~nsiblement sup~rjeur a ~, puis repartis-
sant Ies points selon la solution obtenue.
La relation (6) autorise la meme conclusion sur l' egali te des evalua:-
tions des erreurs sur Ies segments elementaires pour une repartition
fOit=-
',148 INTiGRATION NUMtRIQUE · [CH. III

optimale des points. En effet, multiplions (6) par 12~ 3 , posons t =


= 1 et rempla~ons F ( q> (t )) et ! q>' {t) respectivement par Ies
quantites equivalentes max F (x), aq - aq-i• Le resultat en est
[aq-t, aq]

(aq-aq-t)3 Ct
( max F (x)) 12
~ 12Ns'". (7)
,[aq-1, aq]

Voici un autre moyen d'utiliser l'equation (6). Soit a calculer


une grande serie d'integrales dont Ies fonctions sous le signe somme
pre~entent une _mâme allure caracteristique. Isolons une .fonction
·modele elementaire pour laquelle le probleme d' optimisation de
points se resout de fa~on ·explicite et integrons pour une repartition
de points correspondant a cette fonction. Si la variation des fonctions
de la serie consideree depend d'un certain parametre, on en tiendra
compte lors du choix de la fonction modele qui peut ne pas apparte-
nir a la classe interessee. Plus on a de problemes a resoudre et plus
vite s'amortissent Ies depenses .necessitees par un bon choix et une
.etude. reussie ,du probleme modele.

§ 10. Exemples d'optimisation de la repartition


des ·points d'integration
Voyons comment se presente la solution de (9.6) dans certains
.cas concrets.
EXEMPLE 1. Soit a calculer la serie d'integrales
1
l(b)= ~ f(b, x)dx,
·o
:JJ est le parametre de la serie, / (b, x) = xb g (b, x), -1 b 2, < <
g (b, x) est reguliere, g (b, O) =fo O. Si b =I= O, 1, la derivee seconda
,f xx (b,
x) n'est pas bornee dans le voisinage du point O; on tiendra
compte de cela lors du choix du probleme modele. Dans le voisinage
de x = O, on a
f xx (b, x) = b (b - 1) xb- 2g (b, O) O (xb-1) . +
. -Donc f xx y est--proportionnelle a la.derivee seconda de la fonction xb,
et par suite H est natural de prendre cette derniere pour modele.
Ădoptons en· qualite de F (x) 1a quantite I b (b - 1) I xb- 2 , l'equa-
tion (9.6) s'ecrit alors
I b (b- 1) I rpb- 2 ( !~. ) = C
3
1.
§ 10) EXEMPLES D'OPTIMISATION DE LA R:8PARTITION DES POINTS 149

D'ou
a~-.-----.--. o+1 ·, ·
(
3-y'I b(b-1)
b+i.
I) m3- _
'Y -
C t+c
t:
.
~2,

la eondition q,(0)=0 donne C2 =0, la eondition cp(1)=1 entraîne.


b+t
cp-3- = t. Ainsi
.3
<p (t) = t1+b (1);
1 3
et le probleme modele de calcul de ) xb dx admet a q · = (; ) 1+b ,. pour·
. o
repartition de points optimale dans le sens considere.
Nos raisonnements ci-dessus manquent de rigueur, car l'evalua- ,
tion (9.4) suppose que l'evaluation de la derivee · seconde de· F (x)·
est bornee, or cette condition n'est pas realisee dans le- probleme
modele etudie.
Essayons de demontrer que dans l'exemple considere il serait bon de se
guider sur (9.6)· pour choisir la- repartition optimale des points d"e cp (t). Soit
F (z) continue en tous Ies points de (O, 1] (hypothese de l'exemple'1). Supposons
que la repartition correspondant a une certaine fonction cp 0 (t) est: telle· que la·;
partie principale de l'estimation de l'erreur dans l'integrat1on existe, ne depasse
pas celle de n'importe· quelte· autre repartition et est de l'ordre de O (17N2).
Montrons que p0 (t) est alors solution de (9.6). A cette ffo prenons un ri quelcon-
que superieur a O. La partie principale de l'erreur d'integration sur [cp 0 (ri), 11
a la forme 111 (cpo) avec ·
12N2 '
1
. J11 (cp)= JF_(cp(t))(cp' (t))3dt.
TI
Soit cp (t) une fonction arbitraire de la classe consideree qui se confond avec·
cp 0 (t) si t ~ 1). 11 est clair que Ies erreurs d'integration sur [O, cp ('11)1 sont les
mâmes pour de telles fonctions. La partie principale correspondant a cp O (t)
etant minimale, on a J 11 (cp) ~ I n (cp 0). 11 en resuite que cp 0 (t) verifie l'e.quation
(9.6) pour 11 < t ~ 1. 'l') etant arbitraire, cette fonction la verifie pour O < t ~
~ 1. . .. . .
1
~ontrons sur l_'exemple de l'integrale ) zb dz, pour -1 < b < 2. que si,
o
cp 0 (t) est solution de (9.6). avec Ies conditions aux limites cp 0 (O) = O, cp 0 (1) = 1,
et
la partie principale de l'estimati~n d'erreur existe est de l'ordre de ; 2 • Selon
3
(1) la fonction correspondante cp 0 (t) est t 1+b ;. il est clair que d= 1 !b > 1.
Conformement a la formule de Taylor
, ( q ) 1 · .,, (8 ); 1.- .
aq-aq-1=CP,o •F, 7r-<Po, q 2N2, , (2~
150 INTgGRATION NUM~RIQUE [CH. III

aq-aq-•t<'Po ( ; ) iv =d ( : (-t. ! . (3)

Pour 2 ,< q il vient

I q>~ {8q) I ,<max (I'Po (g 1) l, l N q>~ ( ; ) I)= o ( ( ; t-2). (4)

11 decoule de (2) et (4)


q ) d-1 1
aq-aq-1=d ( N y+o ( ( Nq ) d-2 1 )
N2 =

Dans le cas considere,


F (x) =I b (b-1) f .xb-2 , f F' {z) I=I b (b-1) {b-2) I .xb-3
.croit, donc
max
[aq-1, aq]
I (x)-1
F b (b-1) f { ;
2
}d(b- ) I,< I F' (aq-1) I (aq-aq_t).
Si 2 ,< q, compte tenu de (3), on a

IF
,
(aq . 1) (,iq - aq-t) I ,< const ( q )d-i+d(b-3)
N
t
N •
D'ou

max F{x)=lb(b-1)1 ( N
q )d(b-2) +o ( ( Nq )d(b-2)-1 N1 ) =
(aq-1, aq]

= I b (b-1) I ( Nq )d(b-2) ( 1+ O ( q1 ) ) .
Par consequent,
(aq-aq-1)3
max F (x)
(aq-1, aq] 12

= I b (b-1)
12
I (-'L)d(b-2) ( (..!L)d-t _1 )a (
iV d N N
(.!.)).'
t+O q (5)

du moment que b=
3-;;d, l'exposant de la puissance a laquelle on eleve ; est

3(d-1)-l-d(b-2)=3(d-1)+d (
3
(i;d)) =0.
De cette fa ţon
3 3
max F (x) (aq~:t•> d I :~~-;- 1>I ( 1 + O ( qi ) ) pour 2 < g.
[aq-t, aq] ""

Pour g grands, le deuxieme membre depend faiblement de q; c'est natural, car


ia fonction q> {t) verifiant (9.6) satisfait egalement a (9. 7).
§ 10) EXEMPLES D'OPTIMISATION DE LA !UlPARTITION DES POINTS 151

L'estimation de l'erreur d'integration sur le segment [O, a1] qui s'ecrit


(a1-0)3
( max F (x)) ..........,..,,,...a--
[O, at] 12
n'est pas valable vu que F (x) n'est pas bornee. Pour b < O, la fonction a integrer
zb devient infinie si X = o. Supposons-la egale a zero dans cette derniere con-
at
dition. Alors, quel que soit b, la difference entre !'integrale J :r:b d:r: et la somme
o
81 (/) s'ecrit
tq+1 a, •tq ( 1 1) b 1 ( 1 i ) i
b+1 - 2 - b+i - 2 ai:+ = b+i - 2 N3 •
La somme de cette expression et des estimations (5) de 1' erreur sur Ies autres
segments est egale a
N
r= d3b12~~11 +o ( ~ q!s) d3b g;;1 I +o ( ~~) · (6)
q=1
Nous avons obtenu la relation requise.
PROBL:E:ME. Soit
O pour z=O,
I (x) = { :r:b pour :r: E (O, 1],
1
-1 < b < 1, et !'integrale J f(:r:) d:r: se calcule par la formule des trapezes
o
a pas constant aq-aq-t = ! . Demontrer que l 'erreur totale verifie
R
N
cn ,_ DNi+b
(b)
,
ou D (b) =I= O.
La comparaison de la derniere estimation avec (6) entraîne que
s'agissant de fonctions dont Ies derivees presentent des singularites 1
I' optimisation de la repartition des points d 'integration peut augmen-
ter la vitesse de convergence.
EXEMPLE 2. On calcule la serie d 'integrales
1
J xb ln xg (b, x) dx,
o
g (b, x) etant reguliere, g (b, O) ;fo O, b Ie parametre de la serie.
Puisque ln x a une singularite. en O, il paraît naturel de prendre
xb ln x pour fonction modele. Sa derivee seconda s'ecrit
xb-s (b (b - 1) 1n x (2b - 1)). +
Si F (x) = I (xb ln x)" I, l'equation (9.6) ne se resout pas par quadra-
tures ; essayons donc de la simplifier. Pour x tendant vers zero,
152 IN'mGRATION' NU?.raRIQUE [CH. ID

I ln x I eroît plus .Ieniement' que toute.puissanee x...:e, e > O. Aussi,


pour simplifier la soluti?n de (9.6), po~ons F (x) = const •xb- 2 •
EXEMPLE 3. Soit a calculer ia serie d'integrales
1
Jexp { - : )' g (b, x) d:r:, (7)
o
g (b, x) est reguliere, g (b, O) =/:= O , b le parametre de la serie, susceptible
de valeurs tras .petites. Pour b petits, la fonction a integrer et ses derivees varient·
brusquement ·au- voisinage du point z = O a: cause du facteur .exp, ( - : ) •
On optimisera donc la repartition des points d'integration sur le probleme modele
1 .

. o
J.
du calcul de exp ( - : } dz. Faisons F (x) =.= I( exp ( - : } ) "f. L'equation
(9.6) se met sous la forme ·

! exp ( - b)-( :c:· )'3 = C 1•


D'ou
1 _:_exp ( - : ) = C3t+ C,.
L~ condition q> (O)= O entraîne c, = O et la condition q> (1) = 1 donne
1-exp· (.-:',,.} = ( 1-exp (-;b)} t.
11 en resuite

EXEMPLE 4. La serie d 'integrales est celle de l' exemple precedent, mais


1
g (b, x) = xh (b, z), k (b, O) =fo O. On peut prendre J
o
(x exp ( - : )dxpour

!'integrale modele. Pour

l'equation (9.6) correspondante ne se calcule pas par des quadratures elemen-


taires. Si le probleme est urgent, oii se borne a la repartition. optimale de points
construite pour !'exemple 3. ·
EXEMPLE 5. O~ demande de calculer ia serie d'integrales
1
Jexp ( - :: ) g (b, .r,).d:r:',
o
§· 10): EXEMPLES D'OPTIMISATIONDE LA lU~PARTI'l'ION DES POINTS f53!

g (b, z) etant reguliere, g (b, O) :f=. O, b, parametre de la serie, pouvant âtre-


petit. Dans cette demiere hypotbese,· la fonction· a' integrer et ses derivees
varient ·brusquement au voisinage de z = .O du fait de leur multiplication pai
:s
2 ' .
exp ( - }r .: Adoptons donc en qualite de probÎeme modele le calcul-de l' integrale,.

r
1 . .

jo exp· ( ~ ::) · d~~ Soit: F (:t) =.I; (exp ( ~~) I,alors au' lieu d'e (9.6) il vi~nt;_
3
·1......:2..î:..
1 b2 lexp (. - ~
b2 ) (~·)
dt ' =~
2 ..
D'ou

J.r_. VI 1-2 F
qi2 exp I (- r ~
3b2 . dq>= J _ -j/2 dt.
(Jl, )

Cette integrale ne s'explicitant pas~ des simplifications s'imposent; on remplace„


par exemple, VI I
1 - 2 :: par 1. Avec b
importants et l' erreur de substi-
tution grande,. la repercussion J·e celle-ci n' est pas tellement decisive'vu la petites•
se du facteur exp ( -
3 2
?) . Cette simplification faite, q> (i) s'exprimera par la,

fonction · inverse, d·e


u
f ) exp (-v2 ) dv.
o
Les problemes analogues aux exemples 3, 4, 5 sont assez friquents. Ainsi„
en calculant Ies diagrammes de directivite des antennes on recherche l~s series
d'integrales
1
Jexp (ibg (b, z)) h (b, z) dz
o
pour b variant dans de vastes limites et Ies fonctions g {b, z), li, (b, z) suffi-
samment regulieres. Si b n'est pas tres important, on trouve ces integrales
a l'aide des formules de quadrature· connues. Les derivees de la fonction ii inte-
grer augmentertt avec b, ce qui impose-un nombre toujours plus grand de points
d'integration. Si b est tres grand, on fait recours a la methode du col ou a d'autres-
procedes asymptotiques. Les deux techniques s'averent cependant peu efficaces-
pour des valeurs « intermediaires » du parametre b: la premiere est trop lourde„
la seconda peu precise. On agit donc quelquefois de la maniere suivante: on,
transforme le- contour d 'integration de f~on qu 'ii coincide avec Ies lignes de la
plus grande pente exp (ibg (b, z)), comme on le fait dans la methode du col.
Les integrales· des fonctions variant brusquement que l'on obtîent sont analogues
a celles des exemples 2, 3, 4. On optimise ensuite la repartition des points
d'integration et l'on se sert des formules de quadrature correspondantes.
On voit sur Ies exemples 3, 4 qu'une optimisation de la reparti~
tion de points a partir de (9.6) exige un chercheur assez qualifie.
Dans le paragraphe 17 du presant chapitre·c'est donc la machine qui
s'en chargera. ·
INTgGRATION NUM~RIQUE [CH. III

§ t 1. Partie principale de I'erreur


Plus haut (§§ 1, 2, 6, 8),. nous avons examina plusieurs formules
oe quadrature et evalua leur erreur en fonction du maximum ou des
integrales des derivees. Ce faisant, nous n'avons pas suppose l'exis-
tence des derivees d'ordre superieur. Sila fonction a integrer possede
de telles derivees, cela pourrait contrebalancer certains termes de
l'erreur. Pour pouvoir discuter la qualite des evaluations et la
valeur reelle de I' erreur, il faut isoler dans celle-ci la partie prin-
.ci pale.
Revenons a la formule (1.3)
b n
I (I)= J f(x) p (x) dx ~ Sn (/) = b a ~ DJI ( bţa + b-;a d; )'
2 (1)
a i=1
avoo pour reste (1.1):
b
Rn (/)=I (/)-Sn (/) = j p (x)(f (x)-Ln (x)) dx.
a
Afin de se fixer Ies idees, nous nous bornerons au cas p (x) = 1.
Apres la substitution x = bţa + b2 a
t, le reste s'ecrit comme suit:
1
Rn (/)= b2 a J (/(bţa + b at )-Qn ( / (
-1
2 b ţa + b 2 at)) )dt. (2)
Nous avons introduit la notation
n
On (g (t)) = ~ g (dJ) II t=-t •
i=1 i::l=i J
Soit un m tel que la formule (1) soit stricte pour tous Ies polynomes
-de degre m - 1 et non stricte pour Ies polynomes de degre m. Le
procede de construction de la formule d 'interpolation (1.3) entraîne
m ~ n. Substituons dans (2) le developpement taylorien
b + b2 a t) =
.f { ţa
l-1 ( b-a ); ( b-a )l
= ~ l'' { aţb) ~ t +/O(~(t)) ~t (3)
j=O

pour un l>m(a<~(t)<b si -1<t<1). En groupant Ies termes


-contenant Ies mâmes /" en facteur, on a
l-1
Rn(f)= ~ f'"> ( bţa) (:b 2a);+1 "h+Pt,
i=O
§ U] PARTIE PRINCIPALE DE L'ERREUR t55

ou
'Vi= J (ti-jÎ
1
(ti)) dt,
-1
1

Pz
= (·'b-a
2
)l+1 Jr j<l) (t (t)) tl-Qn
l l
(/<l> (~ (t)) tl) dt

-1

Compte tenu de l'expression explicite de l'operateur d'interpolation


Qn on trouve l'estimation grossiere du dernier terme
I pl l~yf max I j<l> (x) I ( b 2 a }l+1
[a, b]
avec
1 n t d
1'Î= J (ltl + ~ ld1l'~I
-1
1

:,=1 i.-4::,
d
1
-=_Jt 1)/zi dt.
Le coefficient de /<1> ( b ţ a) est egal a l' erreur commise en calculant
.
!'integrale de
(
z-; b+af
d'apres.la formule consideree. C'est pour-
quoi y 0 = ... = Ym-i = O. Par ailleurs, 'Vm =I= O, sinon la formule de
quadrature serait precise pour n'importe quel polynome de degre m.
Ces raisonnements nous autorisent a acrire
Z-1
Rn (/) = ~ j<i> ( b ţ a ) ( b
2
a ) i+ 1 '\'i +
J=m
+max I f
( !) b-a
(x) I ( - )l+1 0l'\'Î,
[a, b] 2- (4)

ou I e, I ~ 1,Ym =I= O, m ~ l - 1.
Rappelons-nous qu'au § 1, nous avons obtenu des relations
de la forme
Rn (j) =const• f (m) (~) ( -b-a-
)m+1 (5)
2
pour Ies formules des rectangles, des trapezes et de Simpson. Pour
la formule de Gauss avec p (x) == 1, une telle relation decoule de
(3.9). II resuite de (5) la validite d 'une relation analogue a (4) avec
l=m+1.
Supposons que pour calculer
B

I(!) = J
A
/(x) dx
t-56 IN~GRATION NUdnIQUE [CH.· IU

on applique la formule de quadrature (6.4)


M
/ (/) ~ S11.r(f) = ~ Sq (/),
q=1
ou
aq-aq-i) ~ ("'aq-i +aq
Sq = ( 2 .LJ D1/ 2 + aq-aq-1
a
d)
J ,
1· , ,"• ' i=1

aq= q> ( X, } , q> (t)' etant uiie- fonct:ion reguliere, <p (O)= A, cp (1) = B.
Alors aq- aq-i = â ( if ) . Utilisant (4) on ecrit
aq
J /(x) dx-Sq = Yml~) ( aq-1;r-aq) ( aq-./q-1) m~1 +o ( M!+2 ) .
Oq-1 .

Par consequent, l'erreur totale sur tous Ies segments elementaires est
M .
R~ (/) = Ym' ~ ,cm> ( aq-1:aq) ( aq--;aq-t) m+1 + O( ~+1 ) •
q=1

Effeetuons des transformations analogues a celles du § 9;


aq-aq-1= if q>' ( X, )+o(~},
f m> ( aq-1: aq ) = fm> ( q> ( if ) ) + O ( ! }.
On a, en definitive,
M
R~ (/) = (Ym2~:+1>) { ~ if <I> ( if)} +O ( M!+t)'
q=1

ou. <I> (t) = t<m> (q> (t)) (rp' (t))m+1 „


L'expression entre accolades repre-
sente la somme de quatlratures de I 'integrale
1
J<I> (t) dt,
o
qui est sa limite. Si /m+1) (x) et cp" (t) sont bornees, ~n montre que
1
2 -(m+1)
R~ (n = 1'm Mm j <I> (t) dt+O ( ~+ 1 ) • (6)
o
En particulier si Ies points di,, ... , dn sont symetriques par
rapport a O et que Ies derivees f(m-2> (x) et q>< 3> (t) soient bornees_,
§ 11) PARTIE PRINCIPALE DE L'ERREUR 157

le deuxieme terme a droite dans (6) est· O (M~+~) . Demontrons la


derniere affirmation pour .le cas de la formule des trapezes a pas
d'integration constant, i.e. pour q,i = const et aq - aq-1 == H.
Soit l = 4; alors

'\'2 =
rJ1 ct2-1)
2I
2
dt = - 3 '
-1

y3 =
rJ1 <t3-t) dt = O,
31
. -1

o_ 1 (t4+1 t 21 l+I tţt I) _...!_


'\', - J -1
41 dt- 10 •

J\insi,
aq
J f (x) dx- ! (f (aq-1) +I (aq)) =
aq-t

= - as f" ( aq-1 +aq ) + 8 H5 max I/<l> (x) j. (7)


12 2 q 320 [aq-1, aq]

L'expression R~ (/) de l 'erreur totale que l'on obtient en sommant. (7)


s'ecrit '

ou
M
E2 (/) = ~ Hf" ( aq-1:aq )..
q=1

La quantite E 2 (/) est la somme de quadratures pour -!'integrale


B
Jf" (x)
A
dx si le calcul d 'integrales sur les segments elementaires se

fait a l'aide de la formule des rectangles (1.6):


b
Jgtx)dx~(b-a)g(bţa}
a
dont le reste s'evalue par
(max I g'' (x) I) (b-a)s.
[a, b] 24 •
t58 INT~GRATION NUM~RIQUE [CH. III

Par consequent, en vertu de (6.6), on a


B

IE 2 {/) - Jf" (x) dx ,~(max I/<'> (x) I)


A [A, B]
(B-~) na,

et, en definitive,
B
RM (/) = - :; ( J/" (x) dx) +o ((B--A) H'). (8)
A

§ 12. Formules d'Euler et de Gregory


La relation (11.8) sert a plusieurs usages. Elle s'ecrit, par
exemple,
RM (/) = - :; (f' (B)-f' (A)) +O ((B-A) H"). (1)

Le calcul de /' (B) - f' (A) fourni t la partie prineipale de l 'erreur.


Supposons mediocre la precision obtenue. Mettons (1) sous la forme
I (I) =Sir(/) +o ((B-A) H6.),
oii
f
81.t(f)=Sir(f)- 2 (/' (B)-/' (A)).
2

L'expression de Sit U) est une formule de quadrature entaehee de


l'erreur O ((B - A) H4}, i.e. elle approche mieux I (j) que la for-
mule des trapezes dont nous sommes partis.
Essayons d'isoler la partie principale de l'erreur dans la formule
trouvee. On a
M
Sif (I)=
q=1
~ s; (I),
s; (/) = ! (I (aq-1) + f (aq)) - :; (/' (aq) - I' {aq-1)).
s: (/) sera pris pour valeur approehee de !'integrale
aq
I q (I) = ) f (x) dx.
Portons dans la difference lq (1)-sH/) la representation de f(x)
sous forme d 'une serie partielle de Taylor (11.3) pour l = 6. Comme
( aq-i+aq \
au paragraphe 11, groupons Ies coefficients de f 01 2 1
:

lq(f)-sHf)= ~~ /<"> ( aq-t:aq) +O(H 7).


§ 12) FORMULE$ D'EULER ET DE GREGORY 159

En sommant sur q il vient


N
I (1)-S'4 (I)= ~~ { ~ Hj<"> ( aq-t:aq)} +O ((B-A)H 6 ).

q=i
L'expression entre accolades est la formule de quadrature des reetan.,-
gles pour !'integrale
B
J
A
j<t.> (x) dx = /< 3 >(B)- /< 3 > (A).

On a donc
I (f)-S11 (f) = ~~ (/< 3 > (B)-/< 3 > (A))+ O ((B-A) H6).
Nous avons obtenu le reste de la formule donnant S~ (f) et une-
nouvelle formule de quadrature
I (!) ~ SJt(f) = Sit (!)- :; (/' (B) - j' (A)) + ~~ (1< 3 (B) -
> /< 3> (A))'
avec pour reste O ((B - A) H 6), et ainsi de suite. En continuant,. ·
on trouve, pour chaque p entier, la formule de quadrature d'Euler
l(t) ~sf (/)
avee

Les nombres 'Vi verifient


00

z - "'1
exp z-t - .LI rJ •
,u.xf
;=O
'VJ se notent d'ordinaire B,fjl; B 1 sont dits nom:bres de Bernoulli.
Afin d'evaluer le resta de (2) on procede comme suit. Soit
p-1
H
I q (/) ~ S: (/) = 2 (/ (aq-t) + / (aq))- ~ y21r.H2h (/<211-1> (aq)- /<2k-1> (aq_t)).
1'=1
Portons dans le reste
r: (/)=IqU>-S: (f)
le developpement de / (z) sous forme d 'une serie taylorienne partielle

p (aq-1:aq) fi- {z aq-1:aqy + 5


2p-1 :,c

fC1' J<IP> (y) (~;;::.!.9;;.l dy„


.1=0 (~q-t+cq)/2
1.60 JNT~GRATION NUM~RIQUE [CH. III

Le reste s'ecrit alors


aq
r'g (f) = ) Kp ( x aq-t:aq_, H) /<2P> (:c) d:c ·.
aq-i

{comme·au § 2); Ies coefficients des,derivees d'ordre inferieur /<i> (aq~t:aq),


; < 2p, etant devenus nuls. Au prix de calculs assez laborieux on etablit que
aq-t+aq )
Kp ( :e 2 , H ne. change pas de ~igne pour aq-t <.x< aq. En se
servant du theoreme de la moyenne, on a
aq
r: (I}= JC2P> (t:> J KP (.x aq-t +aq
2
, H
)
dx, (3)
aq-t
· ou aq~t < t: < aq• Or
Jrq Kp
(:c- aq-1 +aq ,
2
)
H dx=-y 2 pH2P+i •
. tiq-i
. La sommation de (3) donne .
,. 2
I (f)-S J (/) = -Y2pH P E2p 2

avec

compris entre
(B-A) min /< 2P> (x) et (B-A) max f<2P> :c ;·
[A, B) [A, B]
cette quantite est donc aga.le a (B-A)/< 2P> (~p), A<~p<B. L'expression
definitive de l'erreur est ·
/ (t)-S~ (I)= -Y2p/C2p) (bp) H2P (B-A).
Ci tons Jplusieurs valeurs
. 1 1 1
'\'s.=12 ' Y, = -720 ' Ya= 30 240'
1 1
Ys= 1209 600' '\'to 47900160 •
Dans la pratique, Ies formules d 'Euler sont · d 'un emploi peu
commode: on calcule, en plus de la fonction, ses derivees.
Rempla~o:µs dans la formule donnant Sx,f (/) Ies derivees j< 21t-1> (A)
et /< 2h-t) (B) par Ies derivees des polynomes d 'interpolation de
degre l bases respectivement sur Ies p~ints ao, .•. , al et aN, •.•
• • . , aN-.l• Si l = 2p - 3 et l = 2p - 2, Ies transformaţions inter-
_mediaires aboutissent aux .formules d 'integration numerique dues a
§ 13) RIGLE D'tVALUATION PRATIQUE DE L'ERREUR DE RUNGE 181

Gregory
I U) ~ Gk·(/),
l
~ ~k (Vkf (aM)-(-1)k â"'f (a
Gk (/) =S~ (/) +H k=i 0)),

ou
1
A.k = (-1)1'+1 r X (x-1) ••. (x-k) d
t-' J (k+1) I x.
o
En particulier,
1 1 19
~1= -12, ~2= - 24 I ~3 =- 720'
3 863 275
~~= - 160' ~5 =- 60480' ~a= - 24192 •

La partie princi pale de I' erreur sur la formule / (/) ~ Gk (f) est
~l+1Hl+2 (f(l+i) (B)-(-1)l+1 fZ+1) (A)).
PROBUi:ME. Demontrer cette derniere relation en supposant valables tous Ies
raisonnements ci-dessous.

Puisque le comportement des derivees des fonctions a integrer


differe en realite selon le segment elementaire, Ies programmes gene-
raux d 'integration numerique font a.ppel a des procedes divers avec
recherche a,utomatique du pas (v. §§ 17, 18). Aussi l'avenement
des ordinateurs a-t-il restreint le domaine d 'application des for-
mules d'Euler-Gregory. Ces dernieres s'appliquent cependant dans
l'integration de fonctions donnees par une table, lors du calcul
d 'integrales indefinies, pour resoudre Ies equations integrales de
Volterra, ainsi que dans certains autres problemes ou la fonction
a integrer doit se calculer essentiellement sur un reseau regulier.
§ 13. Regie d~evaluation pratique
de I'erreur de Runge
La relation (11.6) et ses consequences nous renseignent sur la
grandeur de Ia· partie principale de l'erreur. Cependant, le calcul
direct de I 'integrale
1
Km= 2""m":. 1 j /<m> {<p {t)) (q,' (t)}mi-t dt, (1)
o
caracterisant cette partie principale, s'avere assez penible.
Dans la pratique on suit donc une autre voie.
11-01007
162 INT:mGRATION NUMgRIQUE [CH. ':III

Donnons-nous certainsM1 etM 2 , M 1 <M2 , etintegrons deux fois


1
1
sur Ies segments partieis [ q> ( q; ) , q>
1
(Ai.)]
et [ q> ( qM ) , q>
2 2
)] CJ
respectivement. Nous obtenons Ies valeurs approchees SM 1 (/). et
SM2 (/). Selon (11.6),
1(/)-SMt (f)=KmM-;m+PM1,
(2)
I(/) -SMs (/) = KmM;m + PM2
oii PM = o (M-m). Soit Km -=fo O. Si Ies reiations (2) ne conte-
naient pas PMt et PM2 on obtiendrait deux equations a deux inconnues
I(/) et Km se prâtant a une determination; dans le eas eontrairei
on n'obtient que Ieurs approximations. En eliminant I (j), on definit
Km par

D'ou
SM„ (f)-SMt (f)+PM2-PM1
Km= _ _ _ M___m
_ _M___m
_ __
1 - 2

et l'erreur commise sur SM,. (I) s'ecrit


I(/)= SMa (/) = KmM;m + PM2 =
SM2 (f)-SM1 (!) PM,-PM1
= (M2/Mt)m-1 + (M2/M1)m-1 + PMs-
Le premier terme
SM (1)-SMt (f)
Z1= ___
2 _ _ __
(M2/M1)m-1

. est caleulabie. Si e'est la partie principale de l'erreur, alors J. (J) -


- S M 2 (/) ~ z1 , et z1 sera consideree comme estimation de l'erreur.
L'evaluation de l'erreur par la quantite z1 porte le nom de regle
de Runge. Afin que z1 soit la partie principale de l'erreur I(/) -
- SM,. (/) de l'ordre de M;"'. il faut que
PM51 -PM1
Z2= (M2/M1)•-1
+ PM2=0 (M-m) 2 •.
(3)

Si par exemple M 2 .,..,, M 1l, Â > 1, alors

-
Z2 -
o (M;m)
-------------
Âm-1
+ O
(M-"')
I
-- O
(M-"')
2 '

et la eondition necessaire est satisfaite.


·§ 13] R:li:GLE D'~VALUATION PRATIQUE DE L'ERREUR DE RUNGE ·168

. Si l'on possede une evaluation plus forte de- PM, I (J) - S1o12 (/) ~ zi
sera satisfaite dans des hypotheses plus faihles .sur la relatio:Q. entre M1 et Ma•
Dans le calcul d'integrales simples• un cas typique est· celui ou '
(4)
Alors
Z2= o (Mim-1)+0 (Miffl-1) +o(Miffl-1)'.
(M2/M1)m-1
Soit d'abord M 2 /M 1 -+ t; d'apres (1
il vient
+e)m-1.,..., em avec e tendant vers zero,

{!: )m-1-m(!:-1).
Alors

Z2 =0 (
Mf+l ( z: -1)
f ) + 0 (Mr
~) = 0 ( i
(Af2-Mt).il1JW
) • (a)

Pour que cette premiere condition verifie (3) îl suffit donc que M 2 -M1 -+ oo
avec M 2 -+ oo.
Soit maintenant M2 /M1 -+ oo. Alors

(6)

pour que (3) soit satisfaite, i. e. il suffit que M 1 -+ oo. En reunissant Ies
estimations (5) ·et (6), on a
Z2=0 ( max ( ~1 , M2:MJ ~)-
Par consequent, pour que la regie de Runge s'applique au cas (4), il suffit que
M 1, M 2 - M 1 ~ 1. (7)
PROBL:li:ME. Demontrer qu'il suffit que M 1 ~ 1 pour que la regie de Runge
s'applique au cas PM = O (M-m-2).
II peut arriver que Km definie par (1) soit nulle ou tres petite.
Avec Ies M utilises dans la pratique, le terme K mM-m ne sera pas
sensiblemeni superieur en valeur absolue a p M et nos constructions
seront plutot douteuses. Dans ce cas, en evaluant ·l'erreur par z1 ~
on aura souvent une idee ·fausse de celle-la.
Si z1 est la partie principale de KmM;m et si z2 = o (M;m),
on est en droi t d 'acrire ·
/ (/)- (SM2 (/) + Zt) = 0 (M;j, (8)
i.e. S M 2· (j) +
z1 est une meilleure approximation de la valeur
initiale de I 'integrale.
La regie de Runge est a la base de plusieurs procedures de calcul
d'integrales. On se donne par exemple certains M 0 et  > 1 et on
u•
:f64 INT:mGRATION NUM~RIQUE [CH. III

1caleule successivement SMk (f) pour M11. = [M01'.1 ], k = O,. 1, ...


Chaque valeur de S M11. (f), k > O, permet de determiner

" - SMk (/)-SM1t-1 <I>


Zi- m
(MkfM1t.-d -1

correspondante et de tester la condition Iz~ I< e, e etant la preci-


sion voulue. Des que cette condition a lieu pour un certain k = l,.
on adopte S Mz (/) ou S Mz (/) +
zf pour valeur approchee de !'inte-
grale de depart.
Cette methode appelle l' objection suivante: si Ies valeurs de
S Mk (/) pour k divers sont calculees independamment l'une de l'autre,
on accomplit un travail vain puisque nombre d 'entre elles sont
« su perflues >>.
La situation n'est cependant pas si catastrophique qu'elle le
semble de prime abord. Le volume de travail necessaire au calcul
de chaque S M1t. (/) est proportionnel a M k ,_ M 0 1i.1t et le volume
total a

(9}

Si l' on ne considere comme << utile >> que le calcul de S Mi (j), ce


dernier travail est egal au rapport de M 01'.z a M 0 ~z+\:i.e. a1-1'.-1 •
Si l'on estime <<utile>> le travail accompli pour calculer S Mz-t (/),
valeur necessaire pour evaluer l'erreur., le pourcentage de travail
[ 1',l+l
utile est egal au rapport M 01'.l +
M 01'.-1/M 0 "--f' i.e. 1 -1'.- 2 •
L'argument suivant s'avere excellent pour parer toute observa-
1:.ion eventuelle sur le volume important de travail inutile. Prenons
.'.Â, = 10; la part du travail utile sera alors de 99 %. Cette maniere
-de justifier l'efficacite d'une methode en arguant d'une proportion
•elevee du travail <<utile>> est generalement probante, encore qu'illi..
~cite. Car la qualite d 'une methode doit se mesurer au cout total
'8t non pas a la part du travail utile.
11 paraît que la procedura de calcul de l'integrale que nous avons decrite
-plus haut n' est pas la meilleure. 11 serait pourtant utile d' examiner le probleme
de choix du parametre "-·
Pour que cette analyse soit possible, simplifions le probleme et admettons
que l'erreur RM (f) verifie la condition RM (f) = KmM-m; alors z1 est egal
a KmM;m. Soit k le plus petit entier tel que I Km I (M0"-")-m < s. La demiere
relation equivaut a l'inegalite .
_!_ log,. ( I/5::: l ) < k.
m · Jr.10·8
§ 13] RBGLE D'~VALUATION PRATIQUE DE L'ERREUR DE RUNGE 165

k=[ ! log,. ( ~ !)] +1. 8

Adoptons une ecriture plus cam.mode

k=i+ ! log,. ( ·l:; 1}-{ log„ V 1


8
:; J} 8

avec, comme toujours, {Y} = y- [y). Le volume total de calculs est proportion-
nel, selon (9), a
(·IKml) +t-{log VIKm,I}
~Â,
..!..tog
m '- Mme
o
„ Mms o

1-r1

Le second facteur
m r1xm1}
1-• { log,_ 1/ - , ; -
 y Mo e
g (Â)= i
1-1;

depend de 1-.; puisqu'.on.ne sait.rien sur I Km I, il conv.ient de preciser la position


du probleme.
On peut le f aire:
1) en rendant
Â,
max ,g (~) =,g1 (Â) = - -1-
1Km l 1--
h
minimal en Â. Une etude directe montre que g1 (ii:) prend la v.aleur minimale 4
pour  = 2; ·
2) en etudiant la statistique du comportament de g (Â).
La statistique .etablit que st Z'.on se donne un  >1 quelconque et qu'on
obttenne de il.iver.ses' sources independantes certatns ]I_, les quantttes {log1., y} auront
une repartitton asymptotiquement uniforme sur LO, 11] .
La quantite

s'ecrit
. y={log,_ v1:rel}
{log1., }/ I Km,I -log„ Mo-.log„ lfe}.
La precision 8 ne saurait etre consideree comme aleatoire, puisque d 'habitude
elle est donnee sous une forme bien determinee, par exemple s = 2-a, s = 1.0-•~
ou s = 0,5 •10-1 • Il en est egalement de la valeur M 0 • Par contre, I Km I y
166 INTt GRATION NUM:ERIQUE} [CH~ III

peut tras bien âtre aleatoire, puisque Km caracterise la partie principale de


l'erreur comm.ise~ans divers froblemes. On supposera donc naturellement que
la repartition de1 y sur [O, 1 suit la loi uniforme. Alors
1
At-y Â.
K2(Â)=E(g(Â})=
J1--r
o
- --dy=ln).:
1
.
On verifie directement que la plus petite valeur de g2 (l.), a savoir e, est atteinte
pour Â. = e.
Quel procede est a_preferer? Si l'on a beaucoup de problemes a resoudre, Ies
autres conditions etant Ies memes, l'approche statistique semble plus rationnelle.
On aura alors le tableau

Â, 1,5 2 2,718 3 4 8 16

81 (Â.) 4,5 4 4,300 4,5 5,333 9,143 17,667


g2 {Â.) 3,699 2,886 2,718 2,730 2,886 3,848 5,772

D'ou
Kt (e) = 1 075 2
g 2 < > = 1 062.
(2)
gi ' ' K2 (e) '
Ainsi, la substitution au point d'extremum d'une !onction g1 (Â.) du point
d' extremum d 'une autre change peu Ies valeurs des fonctions. On preferera
Â. = 2 ou Â. = e, ancore que, dans notre cas, le choix defiI1itif soit sans
importance: bien que  = e soit statistiquement meilleur, Â. = 2 est traditionnel
et presante certains avantages en ce qui concerne l'accumulation de l'erreur
de calcul. II est d'usage, lorsqu'on calcule des integrales s-uples et que l'on
passe A un grand nombi'e de points, de multiplier ce dernier par 28 , ce qui
correspond a Â. = 28 • Si s = 1, 2, ce choix est satisfaisant, et si R > 2, il
est moins heureux.
La regle- de Runge admet une autre utilisation. Integrons sur
un nombre de points M 1 et M 2 peu important, puis determinons Km·
Dans le cas unidimensionnel, on a ordinairement M,/M1 = 2.
A l'aide de l'equation I Km I M-m = e, on definit le nombre inconnu
M = Ms et on integre sur Ms segments partiels. Verifions le resultat
par la regle de Runge (si elle est licite) en nous appuyant sur Ies
calculs a M 2 et Ms points. Si, pour M 2 et Ms donnes, la regie en
question s'avere douteuse, on prend un autre nombre M,._ de segments
elementaires pour determiner l'erreur. Sila precision ne nous satisfait
pas, nous nous servons de SM3 et SM, pour calculer un nouveau Km,
puis le nombre cherche de segments M = M 5 • En choisissant la
strategie optimale de cet algorithme, îl faut voir s'il n'est pas pos-
sible d 'eviter de nombreux calculs repetitifs en prenant M plus
grand que· ne le donne la solution de I Km I M-m = e.
Formulons _une regla gouvernant le ehoix du eritere d'evaluation
pratique de l' erreur. Soient u une solution du probleme, Un Ies
approximations obtenues, lim un = u. On prend pour erreur sur
n-oo
§. 13] R:1!:GLE D':8VALUATION PRATIQUE DE L'ERREUR DE RUNGE 167

la solution
!
approchee
. • .
un certain Vn tel que
I Vn-(Un-u) I ~o
Iun-ul
pour n tendant vers l'infini. Evidemment I Vn I _, I Un - u I-
Dans notre probleme d 'integration numerique, nous adoptons
eomme mesure de l'erreur verifiant eeite condition la quantite
z1 si:z 2 = 70 (i1). Or, la relation / (/) - S M (f) ~ z1 est asymptotique.
Aussi, dans Ies cas particulierement importants, verifie-t-on si cette
relation a lieu. Par exemple, pour le cas decrit du calcul successif
des SM1. (/) pour Mt = M 0'J...1, on a
SMN)-SMi-1 (/) = (/ (f)-SMi-1 (/))- (I (t)-SMi (/)) =
= Km (Î--.m-1) M;-m + O (Mi"m).
Sile nombre d.e points est tellement eleve que o (Mt-m) e~t sensible~
inent inferieur a Km (Âm - 1) Mim, alors ·
SM.i+t (f)-SM. i (/) ,__ _
Km_(Âm-1)
_ _ _M:-+mi
_. _ Â,-m.
roi= SMi (f)-SMi-t {/) --., Km (Âm-1) Mim

Si roi est suffisamment proche de Â.-m, on se borne a z1 pour l'evalua-


tion de l'erreur.
Une fois on a eu a resoudre un J>robleme avec une grande precision, laquelle
devait âtre garantie. Ce probleme etant insoluble avec les programmes usuels
et on a.fait appel a la formule de quadrature d'interpolation (voirtU1) corres-
pondant am = 6 avec division du segment d'integration. L'integţale se calculait
successivement pour les segments partiels au nombre de Mk = 2" et(on a evalue
l'erreur parzt pourtant la precision voulue n'etait pas atteinte mâme pour un
tras grand nombre de points. On a teste l'evaluation asymptotique par le com-
portament des roi. On a constate queces dernieres quantites tendaient vite vers la
valeur 1/4. On s'est alors demande sile programme ne renfermait pas par erreur,
au lieu d'une formule correspondant al'ordre de convergence m = 6, une for-
~ule de quadrature associee a m = 2; e~est c~ gui a eu effectiveD?-ent lieu.
· Dans· un autre cas semblable, les quant1tes rot s'accumula1ent autour
de 1/3 au lieu de tendre vers 2-a. Toute tentative de detecter une!erreur1 de pro-
+
1

gramme fut vaine. Il s'est trouve que l'integrande etait de la forme g (z) V :z: 6
ţtvec 6 > O tres petit et g (:z:) reguliere. Pour un partage equidistant du segment
d'integration, l'erreur se comporte en effet comme M-6 a,condition que M
soit tres grand. Pour des M reels elle se comporte comme M- 3 / 2 et, par conse-
quent, les quantites ro doivent âtre proches de 2-s12 • La verification de la regle
de Runge selon le critere roi-+ 2-m a ete en l'occurrence fort utile: l'estimation
d'erreur d'apres cette regle a ete d'environ 20 fois inferieure a l'erreur reelle,
et n'etait la yerification, le resultat definitif aurait ete entache d'une erreur
inadmissible.
Voici un exemple d'emploi heureux de la regla de Runge. On a eu a trouver
une importante serie d'integrales d'un mâme type et â garantir dans ehaque
cas la petitesse de l'erreur. On a decide de faire appel a·la premiere des proce-
dures decrites ci-dessus avee evaluation de l'erreur par la regla de Runge. Afin
168 INT:SGRATION NU'M:SRIQUE fCH. III

de parer l'eventualite d'un malentendu analogue A ceux des cas precedents,


on a cboisi plusieurs dizaines d 'integrales types, effectue les calculs et donne
l'ordre d 'imprimer les tableaux des valeurs des ID1.1Celles-ci ayant ete convergees
assez bien, on a conclu a l'applicabilite de la regie de Runge dans la resolution
des problemes de la serie donnee.

§ 14. Formules de Romherg


Sila fonetion a integrer est suffisamment reguliere, l'erreur dans
la formule de quadrature s'ecrit
l
RM(f)= ~ Dk(/)M-ik+r(M) (1)
k=1
avec
i1 < ... < iz, r (M) = o (M-iz).
En supposant par exemple que la derivee j< 2m+ 2> (x) .est bomeei
on a, selon (12.2), pour l'erreur sur la formule des trapezes:
m
RM (I)= - ~ Y2k-( B MA) 2k (l2"- 1> (B)-P"-1) (A))+
k=1
+( O.(B-A) ( B MA )2m+2).
En general, si la fonction a integrer est reguliere, alors
Î2 - i1 = ... = Îl - Î z-1 = S.,
s etant egal â. 1 ou 2. Admettons qu' on a trouve S M U) pour M =
= M 0 , • • • , M 1• 11 vient Ies egalites
I
I (f) =8M1 (/) + ~ Dk (/} Mjik +r (Mi),
k=1
i=O, ... , l.
Realisons une combinaison lineaire de ces r.elations munies de certains
coefficients cJ tels que
(2)
On a
l l l . l
I (j) = ~ CJSM (I)+ ~ Dk (/) (~ c;M1-"1t)
J=O 1 k=1 J=O
+ J=O
~ CJr (M;).
Supposons qu'on a
l .
~ c1M1 -ik= O pour k= 1, ...., l; (3)
i=O
FORMULES DE ROMBERG 169

alors
(4)

l
Si ~ cir (Mi) est negligeable, on pose
r=O

(5)

C'est la formule de Romberg. Les relations (2), (3) forment un systeme-


de l + +
1 .equations lineaires a ,l 1 inconnues, et il est donc suscep-
tible d 'une solution.
Signalons le lien existant entre la resolution de ce systeme et le-
probleme d'interpolation. Supposons, par exemple., qu'on a comm&
pour la formule des trapezes:
l
I (f) = S M (f) + ~ DkM- 2"
Pl=i
+ r (M).
Recrivons cette relation:
l
Qz(M-2) = SM (f) + r (M), avec Qz(y) =I(!)-~ D,i,,.. (6}
k=i

Son examen revele que le probleme de caleul de I (j) s' enonce comme
suit. Soient donnees Ies valeurs approchees du polynome Q z (y)
pour y = M;j2, . . . , Mî 2 ; on demande de trouver Q z (O) = I ·(t) ..
Selon la formule d'interpolation de Lagrange (§ 2., eh. II),
l

Qz (y) = ~ Qz (yJ) II ;. Y;i ·• 1


j=0 i-=J:j
D'oii
l
Qz (O)=~ ciQz (yi) avec CJ= II .Yi . , YJ = M-,, (7}
i=O i=l=i Y, Yi
et donc
l l l
I(/) =Qz (O)= ;~o CJQl (YJ)= ;~ CJSMJ (I)+ ;eo CjT (MJ).

On a abouti a la meme egalite (4) et explicite en meme temps les-


coefficients ci·
t70 INT:8GRATION · NUM:8RIQUE [CH. III

Les approximations (5) representent certaines formules de quadrature.


Soient, pour fixer Ies idees, SM la formule des trapezes, l = 1, M1 =
~ 2M0 • D'apres (7), on a
1 1 1 4
co= 1-22 = -3 ' C1 ( 1 )2 3 •
1- 2
.Alors (5) s'ecrit
4 1
J (/) ~ 3 S 2Mo (/)-3 S Mo (I)=

=H ( 61 f(A)+ 64 f ( A+ T
H) +62 t(A+H)ţ . .. +61 f(B) ) (8)

~vec H =(B-A)/Mo; le second membre represente donc la formule de Simpson.

64 . 20 t
4
1
f'aisons l=2, M1=2Mo, M 2 =4Mo. Alors co= 5 , c1= - c2 !, =: ,
.I(/)= 45 s,Mo (/)-45 8 2Mo (l)+45 8 Mo (/)=

7 t ) +gol
32 ( ~+,a
=H ( 00/(A)+gol 12 ( A+ŢH
2 ) +
+ :~ f (A+ : H) + :~ / (A+ H) + :~ / (A+ ! H) + ... + ;0 / (B)). (9)

Cette formule dont l'ordre de precision est 6 coincide avec la formule _de
quadrature (6.4) pour aq - a9 _1 = H si le calcul des integrales sur Ies segments
-elementaires ;se fait d'apres (2.10). De m@me, on obtient (9) en precisant la for-
mule de Simpson avec M 1 = 2M0 segments de division par la regie de Runge
:pour M 9 = 2M1.
La regie de Romberg procure certains avantages par rapport aux
formules composites. Supposons qu'on s'est donne une formule de
•quadrature, puis qu'on a calcule et imprima Ies valeurs SM02 i (/),
i = O, •.• , l, sans realiser la precision desiree. On essaye alors
-d'approcher !'integrale en appliquant la regie de Romberg pour
un certain ensemble de valeurs S Mo 2 , (/), • • • , S Mo 2P (/)_, puis de tester
la precision en l'appliquant pour l'ensemble
S Mo2s+t (f), • • •, S Mo2p+1 (/).
Le programme usuel le plus repandu de la methode de Romberg
travaille de faţon suivante: on se donne un certain M 0 et on calcule
.-successivement Ies valeurs approchees de !'integrale par la formule
.des trapezes I(/)~ S'JJ,,, (/) pour M,,, segments partiels: Mk =
= M O •2k. On se servira de preference de la formule
Mk-1
sW,k (/) =.!.sW,
2 k-1
(/) + B-A
Mk
"'
L.J
I (A+ 2j-1
Mk
(B-A)).
i=1
§·15) EXPiRIENCES ET LEUR DISCUSSJON 171

Pour chaque k, le calcul de swk (/) est suivi de celui dş


swk.(f),. • .. , 8~;1) (/)
selon la formule de recurrenc.e
s~k (I) =S~~1> (I)+ 2i 1 1 (s~;1> (f)-s~;~: (I)).
L'ordre des calculs est donc determine par le schema

On poursuit le calcul de S~k·(f) tant que

mfn IS~k (/) -S19 k-t (/) I< e


pour un certain k.
PROBU:ME. Montrer que S~ (I) est le resultat de l'application de la regie
. k
de Romberg a
S'JJk (f), ••• , S'Jlk-i+1 {/)',
et, en particulier, que~s'Ji.k (I) coincide avec le resultat de la formule de Simpson
et s'lJ,,, (I) avec celui de (9).

§ 15. Experiences et leur discussion


Considerons un exemple d'application des resultats du § 14.
Lors de la resolution d'un probleme on a calcule successivement cer-
taines approximations S Mk avec M 11 = 21&. On a evalua l'erreur sur
la solution par l 'ecart entre deux approximations successives
I s Mk - s Mk-t ,. II s'est avere que cette difference tendait tres
lentement vers zero et que l'ordre de convergence etait en realite
172 INT~GRATION NUMltRIQUE [CH. II

O (M-1). Or, Ies eonditions impliquaient l'emploi d'une methode


avec une erreur en O (M-2). Ces conditions sont Ies suivantes: on
demande de resoudre une grande serie de pro-blemes pour une contrain-
te donnee sur le temps de resolution; cela determine le nombre
maximal d'operations qu'on admet pour calcu'ler un probleme quel-
conque de cette serie. Une amelioration de la pr.ecision par la regie
de Runge s'est imposee tout natur.ellement qui a coincide avec
celle d'apres ~omberg pour l = 1 -en supposant
R M (j) _, D1M-1 + 0 (M- 2).
La relation (14.5) prend .alors la for.me
I(!)~ swk = 2SMk-SMk-i" (1)
On a evalua l'erreur sur la solution par la difference de deux approxi-
mations successives I S'J{k - S'ik-t 1- Cette erreur tendait elle aussi
vers O comme M-1 de sorte qu'on n'a pas ameliora la convergence.
11 a fallu donc effectuer une analyse theorique plus profonde de
l'erreur. Celle-la a montre que l'erreur sur une solution approchee
se comportait qualitativement
1 .
comme l'erreur commise lors du
calcul de !'integrale j / (x) dx par la formule de quadrature
o
M
SM(/)=if ~/(if)
q=1

pour f (x) = g (x) ln x; g (x) est reguliere, g (O) =I= O. Autrement


dit, on prend pour modele le probleme de calcul de cette integrale.
On montre que dans ce cas
I (f)-SM (/)= D1l~2M +~+O ( lo: M). 2

En substltuant M k = 2k, îl vient


SM ,(f)-SM
k k-1
(f) = D1 log2 M1i-1
M1i-1
+~-
Mk-1
( D1 log
Mk
Mk + D2
M1i
+ 2 )

(D1 log2 Mk +D2)


+ 0 (-k
22"
) = .4
i'r.rk
+ 0 ( log2MlMk ) •
Cette relation correspond a la decroissance .experimentale de S M1i -
- S Mk-t comme 1/Mk; Ie facteur log 2 M k varie beaucoup plus
lentement que cette derniere quantite et on le met en evidence tres
difficilement. F.or-mons
S~i (/) = 28M k ( / ) - 8 Mk-t (/) ;
§ 15] EXPtRIENCES· ET LEUR DISCUSSION f73

on a
swk (/)-= I (/)

Donc,
1(1)-Sll~ (I)= 2;; +o ( Io~~1i). k

Les approximations S<Jl {/) verifient la relation (14.1) lorsque


l.= 1. On a toutes Ies raisons d'employer la regle de Runge-Romberg.
Formons Ies approximations
s~~ (/) = 2S~~ (/) - s1'}~-1 (/) = 4SMh (!)- 48Mk-1 (/) + sMk-2 (/).
On a
I (f)-Sg~ (f) = O ( lo:~k ).
k

On obtiendrait la meme swk (f) de la fa~on suivante: ecrivons

l(f)=SM 1 (f)+ Dtl~tMi + ~: +r(Mi), i=k-2, k-1, k.


Choisissons convenablement Ies c1 et realisons une combinaison
lineaire de ces egalites
2 2
I (f) = 21 c18Mk
J=O
• (f)
-J
+a=O
~ c1r (Mk-J).
L'examen theorique montre qu'en calculant !'integrale consideree
on verifie la relation
R (/)- D1log2M
M-M
+.E~+
M
D3log2M +.E!.+o ( log2M)
M M 2 MS• 2
( 2)

11 vient a l'idee d'utiliser (2) afin d'ameliorer l'ordre de preeision


des formules de quadrature. Neanmoins, avant de recourir a cette
relation asymptotique, il serait bien de verifier si elle a lieu avec
une precision permise pour des valeurs acceptables de M.
Deux voies s'ouvrent devant nous en l'occurrence.
On pourrait essayer de choisir un probleme modele de solution
connue., proche du probleme considere. Les calculs faits, on disposera
de la valeur approchee de S M et d 'une erreur egale a
RM = 1 - SM•
11 se peut qu'on sache quelque ehose sur le comportament de cette
quantite, par exemple que
RM _, const •M-m. (3)
i74 INT~GRATION NlnmRIQUE· [CH. "IIJ

On calcule alors,: pour une suite de M,u Ies valeurs..,.Mr RMh et on


verifie si celles-ci se stabilisent avec la croissance de M. En'l'absence
de toute hypothese sur le comportament de l'erreur dans le 'probleme
donne, on procede comme suit.
· Prenons le plan de coordonnees ln M., ln (I! ) (fig. 3. 15.1)
1
et portons Ies points {ln M 10 ln IR~il } . Si ces points sont disposes
en desordre.i Ies nombres MA ne sont pas grands au point de pouvoir

1
ln IHHKI

Fig. 3.15.1

isoler la partie principale de l'erreur. Supposons que dans le domaine


donne de variation du parametre M, l'egalite asymptotique (3)
est realisee avec une grande precision. Cette egalite entraîne

Inj R~ 1-minM;
§ 15) · EXPgRIENCES ET LEUR DISCUSSION

apres derivation il vient


dinli;-1
dlnM _, m. (4)·

Notons que l'operation de derivation des egalites asymptotiques


n'est pas en general licite.
Selon (4) et pour (3) suffisamment rigoureuse,: Ies points
( ln M k, ln R~k I) , obtenus par calcul sur ordinateur,: doivent s&
I
placer sur une courbe reguliere dont la pente tend vers m. La,
proximite de la pente de cette eourbe et d'une constante caracterise-
la precision de l'egalite asymptotique RM _. const •M-m. Si la,
pente varie brusquement_, la regie de Runge est a exelure. En,
particulier, Ies cas

se confondent pratiquement dans cette methode car Ies deux fois


dlnj R~
dlnM
I -+ 1 pour M-+ oo.
11. existe un autre procede permettant de verifier nos suppositions
sur l' allure de I' erreur. Si
RM,.,,,,_c_ (5>
Mm
est valable, alors
c(f-Â-m)
S MA- S M,_ Mm • (6}

D'autre part, si (6) est satisfaite pour]M ~ M 0 et SM-+ I, ii en;


est de ·meme de (5). Aussi, au lieu de verifier la validite pratique·
de (5), on teste (6), notamment en etudiant Ies courbes representati-
ves des fonctions g (M) = (S MA - S M) Afin ou la disposition des
points
( ln M k, ln I s ~s I) . (7}
Mk'>. Mk

Dans le probleme considere·, Ies points (7) se situaient, pour  = 2, sur·


une courbe râguliere do pante~ f. On en a conclu a. l'ordre de:convergence (f en
l'occurrence)j de la methode en question. Pour Ies valeurs ameliories s!f,
Ies points

(1nM, ln ISfJ,.,~S1JI) (8),

presentaient la mâme disposition.


176 IN~GRATION NUM~RIQUE (CH. III

Ce comportament curieux de l'erreur a incite a s'adresser a un probleme


modele et a construire une nouvelle methode I (f) ::=::: s<JJ (f). Les points (7) et
·(8) appartenant ă. des courbes regulieres, on avait quelques raisons de supposer
,qu'en isolant puis en eliminant la partie pl'incipale de l'erreur par le procede
indique on obtiendrait une meilleure precision. Pour escompter une precision
-plus bonne en isolant et en eliminant Ies termes Ds ~~2 M et : : de la partie
principale de l'erreur dans la formule I (f) ::=::: S~ (f), on doitâtre sur qu'il s'agit
bien des termes principaux pour Ies M utilises. A cet effet, on a construit
l' ensemble de points

( lnM, ln l,S~ _:SW l ) •


Pour des valeurs de M realisables dans Ies conditions donnees, on n' a constate
aucune < regularite » et aucun ordre dans la disposition de ces points. D'ou
l'impossibilite d'ameliorer la precision pour la methode en question.

Les fig. 3.15.2-3.15.5 donnent l'erreur en fonction du nombre de


points dans Ies differentes methodes de calcul d 'integrales des fonc-
tions presentant des singulari tas typiques. L 'integration numerique
etait executee a l'aide des programmes generaux d'integration avec
recherche automatique du pas (voir § 18). N est le nombre total de
points de base de l'integration et RN l'erreur. Les courbes Mk cor-
respondent aux cas ou Ies integrales sur Ies segments elementaires
ont ete calculees par Ies formules de Markov a k. points; la courbe
correspondant a la formule de Markov a trois points qui coincide
avec la formule de Simpson est notee S; on integre sur [O, 1].
L'examen de la fig. 3.15.4 nous revele d'une fa~on particuliere-
ment spectaculaire que Ies formules tres rigoureuses sont parfois
moins effieaces que Ies formules peu precises. On voit egalement
sur Ies figures que pour des N petits, Ies courbes de l'erreur peuvent
avoir une allure fort complexe et ne pas representer des fonctions
regulieres; dans ce cas l'application de la regie de Runge en vue
d'evaluer pratiquement l'erreur paraît injustifiee.
Nous voudrions attirer l'attention du lecteur sur un fait d'une
-portee pratique. Sila solution du probleme renferme des singularites
non etudiees qui deteriorent la convergence des methodes, on dega-
gera un probleme modele simple presentant Ies memes singularites
et, sur ce modele, on choisira une methode et testera Ies differents
criteres asymptotiques. Ce procede permet de saisir plus rapidement
le fond du probleme et evite de nombreux tâtonnements sur le pro-
bleme origine!. En particulier, on economise ici sur la program--
mation et le temps machine, et l'etude est simplifiee grâce a la
-construction de courbes rendant mieux compte du comportement
de l'erreur (on obtient plus de points (7) et (8), car c'est plus facile
pour un probleme simple).
-Lg IRNI
s
g

8
7

J
4
3

2
I
o
2 3 4 J 6 7 8

Fig. 3.15.2

-lg INNI

.9
8 s
7
6
J
4
J

2
I

o I J J 6 7
. Log2 N
Fig. 3.15.3

12-01007
-Lg' IRHI
7
s
6

2 f(:r)- -ln:r .

o I J 4 ,f 6 7 8
tog2 N

Fig. 3.i5.4

"\alg_ ·.e~J

z
f{z) •45·z-45

o I I 4 s 6 7 6
togiN

Fig. 3.15.5
§ 16) CALCUL D'INTEGRALES DANS DES CAS NON R:E:GULIERS 179

§ 16. Calcul d'ip.tegrales dans des cas


non reguliers
La plupart des fonctions a integrer qu'on rencontre en pratique
sont des fonctions qui presentent des singularites (ou bien telles que
leurs derivees presentent des singularites) ou des fonctions a derivees
tres grandes. Si ce comportement irregulier de la fonction n 'est pas
du a son caractere oscillatoire, Ies programmes generaux d'integra-
tion avee recherche automatique du pas (voir § 17) s'averent assez
efficaces. Dans le cas d'une faible serie d'integrales a singularites,
ils permettent de resoudre le probleme avec un cout minimal. Par
contre, le. calcul d 'une grande serie de telles integrales doit faire
appel a des chercheurs plus qualifies. Decrivons plusieurs iechniques
susceptibles de nous aider.
1. Degagement de la fonction de poids. Soit a trouver I 'integrale
b
J/ (x) dx, avec
a
a et b eventuellement infinis. Mettons la fonction

a integrer sous la forme f (x) .= g (x) p (x), p (x) etant suffisamment


elementaire et g (x) reguliere. Appliquoils un quelconque des procMes
examines plus haut pour calculer une integrale avee poids. ~xaminons
quelques exemples.

J p. Representons (:t) par V


1
Soit a ealculer 1
~a:2 • V 1~:z:2 ;
-1
la fonction V
1
i+z
·2 est regulie.re. V1-:z:2
1
· · peut âtre consideree corb.me
. .
un~ f oilction de poids ă laquelle correspond la formule de quadrature
d'Hermite.
. 1
Soit ă ealeuier
.r
o
f (x) tiz, f (x) pouvant s'eerire g (x) z!I-, uee
- i <a< 1, g (x) reguliere, g (O)=/:= O. En caleulant cette inte-
grale par la formule des trapezes a pas constant H = M-1 , l'erreur
tend vers zero plus lentement que M- 2 • Un procede possible est le
recours aux formules de Gauss associees a la fonction de poids donnee.
2. On peut aussi decomposer !'integrale et en calculer chaque
partie par Ies constructions du § 1. Mettons !'integrale sous la forme
M qB
I=~ lq, lq=
q=i
J
(q-1)H
g(x)x«- dx, H = _;,.
Rempla~ons g (x) par le polynome d 'interpolation
P<q> (x) = g ((q - 1) H) + (x - (q - 1) H) (g(qH)-~(q- 1)H)).
12*
180 INTEGRATION NUMERIQUE (CH. III

II vient/9 ~ r
(q-1)H
P, 9 ,(x):i:"dx=

1
1- ( 1-q
)~+2
+( a+2
(1)

En sommant en q Ies seconds membres de (1) on obtient une


·formule de quadrature permettant de trouver !'integrale initiale.
Dans nombre de cas on posera
g (qH) = (qH)-« f(qH)
~t on obtiendra une formule de la forme
N
I •• • • I~~ D(q, H)f (qH). (2)
(1=0

„ p'ROBL:8ME. Etablir l'estimation d'erreur

const•max I g" (x) I M- 2


[O, 1]
pour la formule de quadrature (2).
Ci-dessous on examinera des procedes apparemment plus simples
de _calcul d'integrales presentant des singularites. La technique
d'approximation d'une integrale par Ies valeurs de la fonction sur
un reseau fixe,. en particulier regulier, offre des avantages certains,
en per:QJ.ettant entre autres de se ramener, en resolvant des equations
integrales, â. la resolution d'un systeme d'equations algebriques.
Certains cas importants pour Ies applications admettent la pre-
cision desiree des que g (x) est remplacee par une constante sur Ies
segments elementaires. On pose alors
aq aq

j g (x) p (x) dx ~ g (~) ) p (x) dx,


Oq-t aq-t

et la formule de calcul de I 'integrale de depart s'ecrit


1 M aq

J g(x)p(x)dx~ ~ q(~q) ) p(x) dx. (3)


O q=1 aq-i
§ 16) CALOtm D'INT~GRALES DANS DES OAS NON R~GULIERS 181

Soit a calculer
i
I= Jr g (z) b .
b2 +xs dz avec b petit.
o
PROBLBME. Montrer qu'en calculant !'integrale par la formule des trapezes
a pas constant aq - aq-i = H = M-1 , l'erreur s'evalue par
• ( Mb
const•mm 1. • (Mb)S
1. ) • (4)

Si aq-aq-t = H, la formule de quadrature (3) deviant


M
I~ ~ g(~q) ( arctg q: )-arctg rq-/) H)) ,
q=1

ou (q-1) H < ~q <qH.


PROBL:8ME. Etablir l 'estimation
const-max I gl (x) I JJ,f-t.
[O, 1]
Dans Ies cas examines Rlus haut, les coefficients des formules de quadrature
se mettent sous forme d integrales

1
aq

P,<x) p (x) dz,


Gq-1

Pi (x) etant des polynomes. Ces integrales peuvent s'expliciter. Pour plusieurs
classes de problemes, ou l'explicitation est impossible, îl serait bon de trouver
ces integrales par integration numerique. Ce travail supplementaire porte ses
fruits si Ies formules obtenues sont utilisees a maintes reprises, par exemple lors
du calcul d'une serie importante d'integrales, des integrales multiples en tant
qu'integrales repetees (voir eh. V), dans la resolution d'equations integrales.
3. Soit a calculer
1
I"' (I) = J/(x) exp (irox) dx
o
avec ro grand et / (x) suffisamment reguliere; exp{irox) sera pris
pour fonction de poids. Recrivons I 'integrale comme suit:
M qH
I=~ lq, lq =
q=1
J /(x) exp (irox) dx,
(q-1)H

et appliquons la formule du type (5.2) pour trouver / q•

PROB~ME. Dans cette methode etablir l'estimation


Dn •max I /<n> (x) I M-n
[O, 1]
avec Dn independant de ro.
t82 INTlilGRATION NUM~RIQUE [CH. III

4. Dans certains cas la fonction a integrer se prete a la represen-


B

tation f (x) = G (x) + g (x), JG (x) dx etant pris sous forme expli-
A
cite et g (x) reguliere~ On demande de calculer
t
r
I= J j (x) dx, f (x) =
ln.x
+.x 2 • (5)
1
o
Posons G (x) = ln x. Alors
:z:2 ln x
g(x)= -1+z2 ;

5I g• (x) I dx est finie, et l'erreur eommise en ealeulant 5g (x) dx


o o
par la formule des trapezes a pas constant aq -· a _1 = M-1 est
de l'ordre de O (M-2). Pour que l'erreur dans la formule de Simpson
soit en O (M-4), on prend G (x) = (1 ~ x2) ln x.
Si f (x) = (x2 +
b2)-1 exp x, b petit, on prendra
bi
+
G (x) = (Res f (z}) (x-bit 1 (Res / (z)) (x+bit 1 ;
-bi
l'extension du domaine d'analyticite de la fonction a integrer qu'on
a ainsi .realisee, est particulierement efficace ((3.8.),. (4.10.1)) si l'on
utilise Ies formules de Gauss.
5. Une autre methode pour eliminer la singularite de la fonction
a integrer est le changement de variahle d'integratioµ.. Avec la
substitution x = cp (t), cp (O) = O, cp (1) = 1, !'integrale initiale
1
I = Jf (x) dx se met sous la forme
o
1
Jg (t) dt, (6)
o
ou
g (t) =f (cp (t)) cp' (t).
L'apparition du facteur cp' (t) fait disparaître Ies singularites de la
fonction en des points isoles. Effectuons la substitution x = t"
dans (5) ; on; obtient
1
k 2tk- 1 ln t
l=
J
o
---dt·
1+t2k '
1
.si k > 2, !'integrale JI g" (t) I dt est finie., et l'erreur resultant de la
o
§ _16J CALCUL D'IN'F:8GRALES DANS J;>ES CAS NON R:8GULIERS 183

forxnule des trapezes est donc de l'ordre de O (M-2). En mâme temps


que k augmente l'ordre des derivees g<n> (t) pour leşquelles
i
) lg<n> (t) I dt est bornee; par consequent on peut avoir recours
o
a des formules de quadrature toujours plus strictes.
Mais pour k tres grand, Ies derivees de g (t), bien que finies, le
sont aussi; c'est pourquoi on doit respecter une certaine proportion
ep.tre k et le nombre N de points. Le danger que presante l'emploi
:r,o .r,s :rM Z17 .r,, .r,9

o
J ll I l I f(t) • t 5, M•20
I
I

Fig. 3.16.1
desk tres grands ressort ne serait-ce que de la consideration suivante.
Le pas constant tq -·tq-l = if
de !'integrale (6) correspond aux
points aq = <p (.t) r
= (; dans !'integrale initiale; aussi pour
k eleve exploite-t-on peu de valeurs de la fonction a integrer dans
la partie droite du segment (fig. 3.16.1).
6. Nous avons vu au § 10 que l'optimisation de la repartition
des points accelera elle aussi la convergence dans le caleul d 'inte-
grales de fonctions presentant des singularites.
7. Dans certains cas, on combine quelques-unes des methodes
decrites. Soit a calculer
I
Sg (x} ~exp (ioox) dx,
o
<0 etant grand, g (x) reguliere, g (O) -=I= O, -1 < a. La presence
du facteur exp (irox) exige qu'on l'isole en tant que fonction de
poids et celle de x'- qu'on adopte des mesures speciales afin de pouvoir
integrer au voisinage du point x = O. On ne saurait en l'occurrence
effectuer le changement de variable x ·= <p (t}, etant donne que la
fonction de poids correspondante exp (iro<p (t)) exclut le calcul
explicite des coefficients des formules d 'interpolation. La tactique
acceptable est la division du segment en parties inegales correspon-
dant a la repartition optimale de points lors du calcul de I 'integrale
de la fonction :J!X, puis l'application a chacun des segments partiels
des formules d 'interpolation (5.2) associees a la fonction de poids
1
exp (irox). Si l'on a des integrales du type ) g (x)x~ sin rox dx
o
184 INTi;:GRATION NUM~RIQUE [CH. II

(2 > a ~ 1., g (x) reguliere, g (O) =I= O), ce procede ne)oue pas puisque
la fonction non integrahle x-a. n'est pas approximee par des polyno-
mes dans le voisinage de x = O. Ici, on decompose !'integrale ori-
e 1
ginelle en J et ) , avec e de l'ordre de ! ; la seconde integrale se
O e
calcule par la procedura que nous venons de decrire. La fonction
sin rox de la premiere integrale n 'est pas un facteur fortement oscil-
lant, car ce choix de e limite le nomhre de ses oscillations; on trouve
donc cette integrale en adoptant, par exemple, comnie repartition
des points la repartition optimale pour g (O) rox1 -a. qui approche
la fonction a integrer pour rox petits.
8. Notre expose ne serait pas complet si nous omettions la metho-
de de Runge. Nous l'avons deja consideree· en calculant
1
Jg (x) ln x dx, i.e. !'integrale d'une fonction presentant des singu-
o .
larites. L'erreur provenant de la formule des trapezes a pas constant
1
dans le calcul de Jg (x) a!'- dx avec g (x) reguliere, g (O) =I= O.,
o
-1 < a < 1, s'ecrit D 1N-1 -a. +
D 2 N-2 -a. + ... ;
on a donc toutes
Ies raisons pour employer la methode de Runge.
9. On resout toute une serie de prohlemes en calculant Ies inte-
grales singulieres du type
B
I (a)= r x-a
J
8 (x) dx

avec a E (A, B), g (a) =I= O. L'integrale est consideree au sens de la


valeur principale, i.e. comme
a-e B
lim ( f
e➔ o JA
8 (x) dx
x-a
+ Jr 8 (x) dx) .
x-a
a+e
Elle peut s'ecrire comme la somme d 'une integrale sur le segment.
symetrique par rapport au point a et d 'une integrale de la fonction
reguliere sur la partie restante. L'expose serait plus bref si nous-
b
supposons que le premier terme de la somme se transforme en J g ~x) dx.
-b
Si g (x) verifie la condition de Holder au point x = O, c'est-a-dir&
I g (x) - g (O) I~ A Ix la, a> O, le deuxieme terme est egală l'in-
b
tegrale non singuliere Jg(x>-;<-x) dx. En particulier, pour g(x)
o
§ 17) PRINCIPE$ D'~TABLISSEMENT DES PROGRAMMES USUELS 18&

reguliere, la nouvelle fonction a integrer g (z)-g <-z) est reguliere elle·


X
aussi.
11 peut arriver, par exemple lors de la resolution d 'equations integrales a,
noyaux singuliers, que Ies valeurs de la fonction g (x) soient donnees sur un
certain reseau fixe. Compte tenu de l'information disponible sur ces valeurs?
on demande de calculer l (a) pour divers a. Si g (x) est suffisamment reguliere,.
on opere comme suit.
Partageons [A, B] en parties
[A 0 , A 1 ], ••• , [AM-i, AM], A 0 = A, AM= B.
Sur chaque [A~_1 , Aq] approchons g (x) par le polynome d'interpolation Lq (z)-
Rempla~ons 1 integrale initiale par la somme d'integrales .
Aq
.- r
iq- J
Lq {z) dz
z-4 .
Aq-1
Trouvons i9 sous forme explicite. Si a E (Aq-i, Aq), iq correspondante est
sţngulţ~re.
si a= Aq, on reunit tq et iq+i (integrales divergentes) en une integrale-
smguhere

. +. .
'q iq+t=
J --A-~'
Aq+t -q
L
z-
(x)
q
.1_

Aq-1
-Lq { Lq (x) pour z < .Aq,
(x)=
Lq+t (x) pour z>Aq.
Notons que pour que cette integrale existe et soit singuliere, on doit avoir
Lq (Aq) =Lq (Aq+t)•
Les integrales obtenu~ s'explicitent.
PROBL~ltIE. Soit H la longueur des segments elementaires egaux et supposons-
que sur chacun d'eux g (x) est approximee par interpolation lineaire. Ceci.
etant, !'integrale de depart l'est par la somme
M A+qH g ((q-1) H) +(z-(q-1) H) (g (qH)-,;(q-1H))
"1
LJ Jr ------
x-a
--a.x,
q=1 A+(q-1)H
ou H = (B - A) M-1 • Dans l'hypothese de I g" (x) I bornee etablir l'estimation
d'erreur O (M-2 ln M).

§ 17. Principes d'etablissement


des proframmes usuels avec recherche
- automatique du pas
L'exemple 1 du § 10 montre gue Ies integrales de fonctions pre-
sentant des singularites du type x 6 se calculent bien par Ies methodes
d 'integration a pas variable pour une repartition optimale
des points. II en est visiblement de mâme pour les fonctions
186 INT:8GRATION NUM:8RIQUE [CH. III

de type different. On est donc fort tente d'etablir des programmes


standard d 'integration numerique de fa~on que, quelle que soit la
fonction, la repartition des points soit optimale ou voisine de
l'optimum.
Le paragraphe 9 nous a donne une idee d'une repartition voisine
de l'optimum construite en fonction du comportement de l'integrande
sur un reseau lâche. Or, s'il s'agit de fonctions a variation brusque,
de celles du type xb par exemple, la mise en pratique de cette idee
aboutit a des methodes assez mediocres. Si le reseau initial est fin,
il y a une occupation memoire importante; s'il est lâche, on n'arrive
pas a approximer de fa~on satisfaisante la repartition optimale des
.})Oints sur Ies tron~ons ou la fonction a integrer varie brusquement.
Aussi pour etablir des programmes usuels d 'integration opte-t-on
pour des procedures de repartition des points qui sont legerement
differentes et qui assurent une meilleure approximation de l' optimum
dans le cas de fonctions presentant des singularites. Examinons cer-
t~ines de ces procedures.
Pour calculer des integrales sur Ies segments elementaires [aq-u
aq], on choisit la formule de quadrature
m
lq (/) ~ aq-2~q-f ~ D1f ( aq-1taq + aq~aq-1 d1) (1)
i=i
-et la mesure (§ 4) de l'erreur

(2)

Soit a trouver
B
J/ (x) dx,
A
A= ao.

La premiere procedura qu'il semble natural de qualifier d 'hori-


zontale se definit par la donnee des parametres ~' rJ < 1, h 0 et e0 •
Posons 8 1 = 8 0 ~. Supposons qu'on ait deja calcule par un procede
aq
-quelconque une valeur approchee de J/ (x) dx. Le programme dispose
ao
.atout instant d'une certaine valeur hq avec laquelle on commence
.acalculer la partie restante de I 'integrale. Calculons p q (f) corres-
pondant au segment [aq, aq
aq+hq
+
hql- Si pq (f) ~ 8 0 , trouvons la valeur
.approchee de J / {x) dx selon la formule (1) et posons aq+1 =
aq
§ 17] . PRINCIPES D'gTABLISSEMENT DES PROGRAMMES USUELS t87

aq+i
= aq + hq. Nous avons obtenu 1~ valeur approchee de J / (x) dx.
ao
Si e1 < =
hq et, dans le cas contraire, hq+t =
Pq (/), faisons hq+i
= h: .
Nous sommes prets a faire le pas suivant. Si Pq (j) > e0 ,
il faut prendre ahq pour nouvelle valeur de hq et revenir au point
aq
de depart: on dispose de la valeur de J / (x) dx et on s'est donne
ao
le pas hq, Les conditions initiales de la procedura sont
ao
q= O, Jf(x)dx=O, h
ao
0•

La procedura doit posseder un bloc de fin de travail: s'il s'avere que


aq +
hq > B, on pose hq = B - aq. 11 est d'usage de prendre
1
<J=2·
Une autre procedura, qu'il est logique d'appeler verticale, se
µefinit par la donnee de e0 et s'execute comme suit. Supposons qu'une
necessite se fait sentir, a un certain pas, de calculer !'integrale sur
d

Je segment partiel [c, d], soit Jf (x) dx; on trouve la quantite


' C
p U) associee a ce segment. Si elle est inferieure a e 0 , on ntilise la
formule (1) correspondante et on passe au segment suivant a droite.
Dans le cas contraire, on prend pour segments elementaires [c,
(c +
·d)/21 et [(c +
d)/2, d] et le programme passe au calcul de I 'inte-
grale sur le segnient a gauche. Au debut le programme calcule
B
) f (x) tk. Un certain inconvenient de cette procedura est la necessite
A
de memoriser Ies segments elementaires sur lesquels on n' a pas
integre. La repartition des points realisee par ces procedures
n'est pas asymptotiquement optimale au sens du § 9 parce que
pq U) n'est pas le terme principal de l'estimation de l'erreur sur la
formule (1), mais son estimation grossiere trop forte; Ies segments
elementaires ne peuvent prendre que des valeurs espacees; ils sont
de la forme h0a'li. pour la premiere procedura et (B - A) 2-k pour
la seconda.
Considerons certaines particularites de l'utilisation des proce-
dures decrites.
Si l'on veut, dans certains cas, rapprocher la repartition des
points de l'optimum, Ies quantites pq (j) correspondant aux segments
partiels sont comparees non pas a e 0 , mais a e 0 h:,
ou y est choisi
specialement. Quand on a commence a se servir des machines a cal-
188 INTEGRATION NUMERIQUE [CH. III

cuier, il etait d 'usage de comparer p (j) a e 0 hq, i.e. de prendre y


egal a l'unite. Avec cette convention ia repartition des points s'ecar-
tait notablement de l'optimum pour Ies fonctions variant brus-
quement, et pour Ies fonctions presentant des discontinuites, le-
programme n'arrivait pas a calculer !'integrale. En effet, soit
O pour x<c,
f (x) = { 1 pour x > c.
Si, q etant quelconque, pq (j) renferme Ies valeurs de f aux points
ou / = O et / = 1, p q (f) est de-
1' ordre de hq, et on n'a aucune
raison de penser que
I Pq (/) I ~eohq
sera satisfaite pour hq petits;
le programme realisera le frac-
tionnement du pas jusqu 'a la
remise a zero. Si la fonction
varie brusquement sur un petit
tron~on, le pas sera fractionne
plus que de raison. Les utili-
sateurs en ont pris note, et au
bout d 'une analyse theorique
ils ont convenu de poser y = O
si rien ne s'y opposait.
En ce qui concerne Ies fonc-
A C B tions variant brusquement, il
convient de noter de plus que
Fig. 3.17.1 le programme peut ne pas
remarquer leur intervalle de
variation. Soit p (/) = O si / (x) = P 8 (x) est un polynome · de
degre s, et supposons que la fonction a integrer reelle s'ecrit
I (x) = P s (x) + g (x)
avec g (x) ne differant en fait de zero que sur un petit intervalle,
par exemple
g (x) __1_ exp ( (x-C)2}
2 '0ie 28
(fig. 3.17 .1). Pour fixer Ies idees, adressons-nous a la prennere
des procedures snsmentionnees. Si le segment partiel [aq_1 , aq]
est distant du point C, alors p (/) ~ p (P 8 ) = O, et le programme
augmentera le pas. A proximite du point C, le pas peut s'averer si
grand que le voisinage ou g (x) est sensiblement superieure a O
est limite par des points de base. Alors p (/) sera proche de zero
egalement sur le segment contenant C. En definitive, la valeur
·i 17] PRINCIPE$ D 1:QTABLISSEMENT DES PROGRAMMES USUELS 189

obtenue de I (/) sera I (P 8 ) ; l' erreur sur cette valeur a pprochee


-est voisine de un. Aux fins de controle, on aurait pu integrer pour
une1 autre valeur de e 0 ; pourtant la probabilite est grande de repeter
le resultat.
L'inconvenient dont nous venons de parler n'est pas propre aux
.seules methodes d 'integration avec recherche automatique du pas.
En caleulant cette mâme integrale par des formules a pas constant
il se peut, si H ~ V-e, que g (x) ~ O en tous Ies points de base de
l'integration, d'ou la valeur approchee I* ~ I (P 8 ). En effectuant
1'integration numerique pour plusieurs pas differents et en evaluant
l'erreur conformement a la regle de Runge, on en eonclut a tort que
I* ~ I (P 8 ). D'une fa~on generale, dans Ies algorithmes d'integration
avec recherche automatique du pas, de pareilles conclusions erronees
sont plus frequentes.
En redigeant des programmes standard il faut toujours tenir en
equilibre Ies deux objectifs contraires : garantir la precision desiree
pour toute fonction a integrer ou calculer rapidement !'integrale avec
une precision voulue dans la plupart des problemes demandant a etre
resolus.
S' agissant des methodes tres efficaces on peut parler d 'un prin-
cipe d 'incertitude: la securite est en raison inverse de la vitesse du
travail. Pour eviter que le programme << saute >> Ies domaines de
variation brusque de la fonction, on prevoit des segmenta avec
fractionnement donne d 'avance du pas. Ainsi, la description d 'un
programme usuel du paragraphe suivant comprend Ies extremites
d 'un certain segment [a, ~]. Si le segment partiel [aq-i, aq] a des
points communs avec [a, ~], le choix du segment partiel suivant
obeit a une regie plus compliquee. On se donne en qualite de [a, ~]
un segment sur lequel lalfonction a_, integrer varie brusquement.
Faisons attention au choix de a. Soit

(3)

pour / (x) reguliere. Pour comprendre le mecanisme de la modification du pas,


supposons que /CB> (x) soit constante par morceaux. On a dans son domaine de
constance
p (f)=c 8 I /<a> (x) I (aq-aq-t)ai-1.
Examinons le cas ~ < aa+1 • Admettons que le pas h0 qui est le pas initial de
l 'integration dans le domaine donne verifie c8 I (/<a> (x) I (h0)a+1 ~e1 • Le pas augmen-
tera chaque fois de a-1 fois jusqu'a ce que p (f) devienne superieure a e1 • Puisque
pour un pas a-1 fois moindre, on avait p (f) ~ 8 1 , l'integration aura lieu avec
un pas minimal h = h0 ak tel que c8 I j<a> (x) I h8 +1 > 8 1 • De meme, si le pas
initial verifie c8 I /< 8> (x) I (h0)tt1 > e0 , le pas sera le plus grand des h0 a" tels
· que cs I /<a> (x) I hs+1 ~ e0 • Sous Ies hypotheses faites ( : = ~ < a 8 +1 }, ii se peut
que Ies pas pour le presant domaine soient choisis selon le comportament de la
190 INT~GRATION NUM~RIQUE [CH. IIJ

fonction pour x plus faibles. D'autre part, nous avons vu que le pas d'integration
doit âtre reparti de fa~on que l'estimation de l'erieur soit sensiblement identi-
que pour tous Ies segments partiels. On en tire une conclusion en faveur de la
valeur p ~ as+1 •
Considerons ce cas. On peut prendre un pas h = h 0 tel que a"
Eoos+I < Cs I f<s> (x) I hs+I ,< Eo. (4)
Si
St< cs I /U> (x) I hs+i ,<so, (5)
c'est justement le pas qu'on adoptera pour integrer sur le segment considere;
Cependant, pour
eoaa+I < Cs I /<a> (z) I h•+i ,< Et (6)

le programme elaborera le pas suivant egal a h/a. En vertu de (6), on a alors


s 0 < p (f) et h/a ne sera pas accepte. Le programme fera appel a un pas h qui
verifie (6) ; par consequent, l'integration sur le segment courant est consideree
comme term.inee et on prend h/a pour pas initial sur le segment suivant. Ainsi,
l'integr&tion utilise en f~it le pas h, et a chaque pas on essaye d'integrer avec
k/a. Si Ies calculs avec h et hla sont indepeildants, on foutnit un effort double
a chaque J)a'S. L'inegalite (5) est equivaleilte a
logaa+i 81 > logaa+t I/<•> (.x) I+ log,a+t
a (c8 h3+1)+ k ~ loga a+t 80• (7)

La quantite {log ,+1 I JW (.x) I} a une loi uniforme sur [O, 1] puisque c'est vrai
6
(cf. p. t65) pour la repartition {log4 g} avec a quelconque et g de sources
independantes. . . . .
On montre que la J?robabili,te dQ l'evenement : l'inegalite (7) est satisfaite
pour un k entier, est log a+t p.
. a . .
Si l'ineialite (7) n'a pas lieu, alors, J?our as+1 ~ jţ, on a (6); la probabilite
de cette' derniere inegaltte est donc 1 - log a+t jţ. Ainsi, avec notre ptocedure,
' . u .
on effectue l'ini~gratio~ avec le pas h determine par la condition· (4), et I' esperance
math~matique du coO.t par pas est Pro:portionnelle a
loga a+t ~+2 (i-iogaa+t ~) =2-loga a+t ~-

Nous avans la une expl'8S$ion quantitative de l'accroisseinent moyen du cout


pour ~ > us+1 • Elle parle en faveur de la valeur p = u1 +1 • L'egalite p (f) =
= c8 I /<•> (x) I {aq - aq-i) a+t, /< 8>{x) =I= const,. est as~ptotique. Aussi a-t-on
etudie, potir. certaines classes de problemes, l'allure de p {/) pour aq - aq-t
reels pas tres petits. Si l'ordre de decroissance de p U) s'averait different, fţ,
changeait en consequence.
Tout comme dans l'integration a pas constant on desire evaluer l'erreur
commise. Considerons d'abord la seconda procedura qui est d'une description
plus simfle. Prenons toujours une fonction constante par morceaux /< 11> {:t).
Le pas d integration dans le domaine de constance de /< 8> (z) est defini. pour
cette procedura par la condition suivante: c'est le plus grand pas h de la forme
(B - A) 2-k pour lequel
Ca I J<s> (.x) I k•+t < Bo• (8)
Ce pas maximal verifie evidemmeilt l 'inegalite
eo2-<a+i) ,c::::: c„ I /<I) (:t) I 1,,a+t.
~ 17] PRINCIPES D'~TABLISSEMENT DES PROGRAMMES USUELS 191

Effectuons l 'integration avec un certain So < So- Dans le domaine oii


80 < Cs I J<a) (x) I kB+1 < so,
l'ancien pas d'integration est inoperant, c'est pourquoi on le divisera en deux
au moins. Dans le domaine ou .
eo2-<a+1> < Cs I /U> (x) I hs+1 eo, <
le pas restera entier. Donc, ponr s 02-cs+i> < s0, le partitionnement du pas.
n'interessera qu'une partie du segment d'integration ou bien ii n'aura pas lieu
du tout. La confrontation des resultats des calculs avec s 0 et s0 ne foumira pas.
d'information sur l'erreur provenant de l'integration dans le domaine ou le pas.
est conserve. Pour
(9}
le pas est obligatoirement fractionne ; ii n' en decoule pas pour autant que la
comparaison des resultats des calculs avec s0 et avec e0 quelconque satisfaisant.
A (9) garantit l'exactitude du resultat. Soit
eo2-<l+1)(a+1) < Bo < eo2-zca+l) ;
dans le domaine ou l'on avait anterieurement
8o2ZCa+1) < Cs I J<a) (x) I h,a+i < so, (tO}
on coJistate une reduction du pas de Z fois; et dans celui pour lequei on avait
so2-u+h < Cs I /U> (z) I hB+i 8o2Z<a+i) < ( H)
le pas diminua de l :I-- 1 fois. Supposons que l' erreur d 'integration de parametre-
eo soit la somme de deux temi.ea :
Reo (/) = R~o (/) n:o (/) ; +
lt, premier terme rej>tesente la somm& des erreurs commises dans le domaine
verlfie par (10), et le second celles qui affectent le domaine aveo (tt). Dans
le cas de e0 l'erreur prend la forme .
Rt3, (I)== Rl~ (/)
o o
+ ll:,o (/),
Supptisofls q&e pour f (z) reguliere, l'meur sur la formule de quadrature (t)
s'eoHt ·
aq-t +aq)
"in/Ut) ( (aq-aq-1)n+ 1+o ((aq-aq_1)n+1).
2
Avee toutes Ies conditions d'existence de la partie princifale de l'erreur (§ H) ►
en diminuant le pas sur un certain domaine de 2" fois, l erreur diminua de 21in-
fois. Supposons respectivemeiit qtie
ni,(/)_
s
Rl,
e
(/) 2-nl, RII,
e
(/)_nseo (/). 2-n<Z+t>. (12)
0 0 0
Alo:rs
I (f)-8eo (I)= R~ (I)+ n: 0
(/), ( 13)

I (f)-880 (/) =R~0 (I) 2-nz+.R:0 (/) 2-na:.u. (14}

En filimiiumt l 'inconnue 1 (/), il vient


8 (/)-8 (./)=R~ (1) (t-2-nz)+R:O (f-~cl+i>). (15)
80 80 0
'192 INT8GRATION NUM~RIQUE : [CH. IIJ

rLe second membre de (15) n'est proportionnel ni au membre homologue de (13)


-ni a celui de (1.4), ce qui exclut la possibilite d'obtenir la partie principale de
R,,,,. (/) et de R , (/). Si nl est tres eleve, le second membre de (15) est proche de
""" eo
1R
80
U). On se demande cependant s'il vaut la peine d 'utiliser cette expression
pour evaluer l'erreur sur Se.o(/), etant donne qu'il y a interât a le faire en ce
qui concerne une meilleure approximation, a savoir S 6 ,(/). Dans le cas e0= 2-nze 0 ,
o
.il y a degenerescence du domaine ou est realisee (11), donc R:,, (f) = O. Alors
I (f) - seo (/) = R~o (/) I J (/) - seo (/) = R~o (/) 2-nl
,et l'on peut se servir de la regle de Runge.
En se livrant A una analyse complementaire assez ardue, on constate que
-dans l'hypothese de /<n> (x) continue et en astreignant le plus grand pas possible
.a diminuer d'une faţonproportionnellea eV<s+1), on arrive a justifier les raison-
nements ci-dessus.
Revenons a la premiere procedura de recherche du pas. Soit fi = as+i,
pour fixer les idees, bien que les raisonnements restant valables quel que soit ~
faferieur a un. En multipliant (4) par ?i.8 +1 , il vient
eo?i.s+1as+i < Cs I f<s> (x) I (Âh)s+i < eo?i.s+i.
'11 en. resulte qu'en multipliant simultanement e0 par ?i,s+1 et h0 par Â, le pas
-d'integration varie de faţon proportionnelle: il se multiplie par Â. Aussi, pour
:toutes Ies hypotheses du § 11, l'erreur totale d'integration varie-t-elle d'en-
-viron in fois. Ainsi, on a
I (/)-S~!~ 180 (f) ~ (/ (/)-S:g (/)) ;.,n, (16)

sf (/) etant le resultat de l'integration a pas initial H avec e pour valeur du


·parametre de la precision par pas. Nous pouvons nous servir de (16) pour evaluer
--i'erreur salon Runge dans l'integration numerique avec recherche automatique
du pas. .
Nous avons donc obtenu, entre parametres du schema des relations qui
sont necessaires si l'on veut appliquer la regle de Runge pour evaluer l'erreur.
Notons qu'une variation de ak fois du pas initial h 0 (k entier), les autres
1parametres de la methode etant fixes, ne modifie pas sensiblement l' erreur sur

le resultat : en diminuant le pas, a fois ou en l' augmentant, 1/a fois, le programme


-deboucbera rapidement sur le pas verifiant la condition
so2-<s+1> < Cs I JU> {x) I hs+1 < Bo•

§ 18. Programmes usuels d'integration


numerique
La description d'un programme ·standard comprend d'ordinaire
Ies parties suivantes: but, appel de procedura, commentaire, descrip-
tion de la methode, corps de procedura, tests.
• Prenons comme exemple Ies descriptions partielles des proce-
dures Algol d 'integration numerique.
La construction des programmes de calcul d 'integrales simples
-et multiples obeissant aux memes principes on se bornera a une
1>rocedure de calcul d 'integrales multiples.
§ 18) PROGRAMMES USUELS D'INTgGRATION NlJDRIQUE 193

· 1. Procedure INT 120. Appel de-· procedura: Z: INT 120 (A„ B,.
·F„ P, I, X). Parametres formels de la procedure: reel A {home
inferieure d 'integration); reel B (borne superieure d 'integration);
reel procedure F (fonction procedura sans parametresldonnant la
fonction A integrer f (x)); entier P (nombre conventionnel prenant
la valeur 1 ou 2 suivant la formule de quadrature utilisee ; si P = 1i
on emploie la formule de Gauss, si P = 2, la formule de Simpson);
entier I (nombre donnant le jeu de points ide base de)l 'integration ;
le nombre N de points est determine par la procedura d'apres la
regie suivante: N = 21 dans le cas de la formule de Gauss et N =
.= 2I + 1 pour la formule de Simpsoil. Quand P = 2, I est quel-
conque et su perieur A zero, et quand P = 1, I ne prend que les
valeurs suivantes: 1, 2, 3, 4, 6, 8, 12, 16, 24, 32, 48); reel X.
(argument de la fonction f (x)); reel Z (valeur calculee de !'integrale).
Les procedures INT 110 et INT 111 servant A ~alculer Ies integra-
Ies du type (a) et (b):
B B
(a) ) f (x) dx.,: (b) j f (x) cos (px+ cp) dx.
A A
2. Procedure INT 110. Appel de procedura:

Z: = INT 110 (X.,; A„ B., RO, FI, E, F, L).


Parametres formels: reel X (argument de la fonction f (x)); reel A.
(borne inferieure d'integration;
A si. elle est egale a -oo,. on doit
.

poser A~ -1019 tel que j f (x) dx soit petite); reel B (borne supe-
-co
rieure d 'integration ţ si elle est infinie, on posera B ~ 1019 tel que
00 .

j f (x) dx soit petite;· B doit âtre toujours superieur a A); reel R0 1


B .
FI (parainetres pcp du facteur oscillant cos (px + <p); dans le· calcul
d'integrales du type (a) RO et FI doivent etre egaux a zero); ·reel E'
(precision donnee du calcul de !'integrale; la valeur approchee sera
B
entachee de l'erreur E (1 + I
.
J/ (x) dx I); reel procedure F (fonction
A .
procedure sans parametres donnant la fonction a integrer - f (x)) ;
etiquette L (etiquette ou l'on se renvoie si la precision donnee est
impossible a atteindre ou si l 'utilisateur pose A superieur a B) ;
reel Z (valeur calculee de !'integrale).
CoMMENTAIRE: 1) Si la fonction a integrer presente une singu-
larite en pic sur le segment d'integration (voir fig. 3.17.1) 1 on s'adres-
sera a la procedura INT 111 ci-dessus.
13-01007
194 INT:8GRATION NUM~RIQUE [CH. III

2) E caracterise l'erreur absolue commise sur la valeur approchee


de !'integrale si cette derniere est inferieure a l'unite et l'erreur
relative dans le cas contraire. II arrive que l'utilisateur se fixe une
precision trop grande impossible a atteindre pour la fonction donnee
a integrer. L'ordinateur fait alors imprimer la phrase: << la precision
desiree ne peut pas etre atteinte >>., et la procedure s'arrete a l'eti-
quette L.
3) L'utilisateur doit posseder son bloc etiquete L ou l'on se
renvoie en cas de refus. Ainsi le bloc elementaire Y: = 1/0 provoque
l'arret de la machine.
3. Procedure INT 111. Appel de procedure: Z: = INT 111 (X, Sl,i
A, B, RO, FI, ALFA, BETA, TAU, EPS, E, E1, F, L). Para-
metres jormels non d,efinis dans la declaration de la procedure INT HO:
entier SI (nombre conventionnel permettant le calcul des valeurs
intermediaires de I 'integrale; Ies seules valeurs de SI peuvent etre O
ou 1; si SI = O, la machine ne sort pas de valeurs intermediaires);
reel ALFA (origine du segment partiel sur lequel on integre a pas
donne d'avance (debut de la singularite)); reel BETA (extremite de ce
segment (fin de la singularite)); reel TAU (pas donne d 'avance de
l'integration sur le segment [a, ~] ou la fonction presente la singu-
larite); reel EPS (erreur absolue permise de calcul de !'integrale par
pas); reel E1 (estimation (peut-etre un peu forte) de l'erreur absolue).
COMMENTAIRE: 1) Si la fonction a integrer f (x) presente en un
certain point du segment d'integration une singularite en pic (voir
fig. 3.17.1), on parcourt un voisinage de ce point (que l'on note
[a, ~]) a pas donne d 'avance ,; (TAU). 11 faut que a (ALFA) soit
inferieur a ~ (BETA); s'il n'existe pas de segment partiel a parcourir
avec un pas donne d 'avance, Ies parametres formels a, ~' ,; peuvent
âtre quelconques, mais ~ < a necessairement.
2) En calculant !'integrale l'utilisateur doit se donner l'erreur
absolue par pas B (EPS) et l'erreur sur tout l'intervalle E; si l'on ne
dispose pas d 'information qui pourrait dicter le choix de e., on pose
s = E.
3) Si l'utilisateur se donne SI = 1, on imprimera, au cours du
calcul, le nombre SI meme et la valeur approchee de !'integrale
pour EPS egal a e, 1; 8 , 12~ 2 , • • • ; il y aura autant de resultats
imprimes que de calculs sur le segment donne, et cela tant qui,on
n'aboutira pas a la precision voulue E.
Description de methodes d'integration pour Ies integrales du type (a). La
droite infinie sur laquelle on integre est partagee en deux par le point M ; on a
00 00 -oo

J/
-oo
{x) dx = ) / (.x) d.x-
M M
j /(.x) dx.
§ 18] PROGRAMMES USUELS D'INrnGRATION NUlrnRIQUE 195

S'il y a singularite, M = a, sinon M = O. Voici la marche des calculs sur la


demi-droite infinie. On divise celle-ci en segments Ai de longueur I A1 I = 2, ..•
• • •, I An I= 2n. L'origine de A1 coincide a-vec le point M, son extremite soit
00

avec le point M + 2 (pour !'integrale ) f(x) dx), soitavec M - 2 (pour l'inte-


M
-00

grale jf (x) dx}. Donc,


M
:l;.oo 00

j f (x) dx = ~ j J(x) d:e.


M i=i Ai

Sur chaque Ai le calcul se fait avec recherche automatique du pas conformement


aux formules de Markov. Soient Ii la valeur de !'integrale sur Ai et Et l'erreur
absolue de calcul. Trouvons les integrales sur les segments successifs Ai, Ai+i,
Ai+2· Le calcul de !'integrale sur la demi-droite infinie s'arrete si

(1)

Soit
i+2 i+2
~ Eh<E(1+
h=1
I~
h=l
Ihl}; (2)

on en conclut que !'integrale sur la demi-droite infinie est calculee avec la


i+2
precision E donnee et qu'elle vaut / 1 = ~ Ik (si l'on demande de trouver
k=1
l'inte~ale sul' toute la droite infinie, le calcul sur la demi-droite se fait avec
la precision E/2). Si la condition (2) n'est pas remplie, on divise s (precision
par pas) par 128 et on reprend le calcul sur la demi-droite; le calcul sur chaque
At est alors plus precis. Designons par / 2 la valeur ainsi obtenue de I 'integrale. Si
i+2
min ( ~ Eh, I 1 2 -1 1 I)< E (1+1 / 2 I)
k=1

(E11 et i correspondent au deuxieme calcul), }'integrale est bien calculee et


egale a 1 2 ; dans le cas contraire e est de nouveau divise par 128 et on reprend
le processus par le commencement. Sila demi-droite est exempte de singularites
et si deux valeurs consecutives lt et Ii+i sont null~. le calcul s'arrâte sans test
des conditions (1). Passons maintenant a la description de la methode d'integra-
tion numerique sur le segment fini A = [a, b]. Le calcul s'effectue salon les
formules de quadrature de Markov a 7 points. Le changement de variable x =
= a+ (b - a) t transforme A en segment unite [O, 1]. Considerons le segment
[p, p +h] E [O, 1]. L'integrale y est remplacee par la formule de guadratur&
correspondante et l'on calcule le terme de controle associe p = I l (t) 1-
Si

(3)

13*
1.96 INT:€GRATION NUM~RIQUE [CH. III

+
on estime que ! 'integrale sur le segment [p, p h] est determinee. Soit p +h<
< 1. Passons au segment P.lementa~re suivant:
[P1, P1+h1], P1=P+h, h1=min(h, 1·-p1)

. si 128 (:-a)< p, et h1 =min (2h, 1-p1) si


e
p < 128 (b-a) 0

8
Quand on a b a~ p, on passe au calcul de !'integrale sur [p. P+ !].
U se feut que la condition (3) ne soit satisfaite pour aucun h < H, H =
= 2-a (p ţ 2-24) (valeur voisine de zero machine); ici est pravu l'arrât de
procedure l'etiquette L avec impression prealable de l'information p et h.
Le calcul commence avec h1n1t = 1, Ptnlţ = O et continue jusqu'A ce que
l'integrale ne soit calculee sur le segment tO, 1] tout entier. Si l'on se donne
+
la singuţarite [a;, Pl, pour chaque seginent partiel [p, p h] on teste l'inter-
section des [a;, PJ et LP, p + h]. Si elle n'est pas vide et que le pas suivant
h > 't, h est pose egal A ,;.
La procedure INT 120 pour P = 1 sert a calculer Ies integrales
de fonctions analytiques. Les procedures INT 110 et INT 111 lui
cedent un peu dans le cas des fonctions .regulieres et sont bien meil-
leures pour des fonctions non regulieres.
Signalons certaines particularites des deux dernieres procedures.
Leurs corps presentent des differences insignifiantes. Pour 8 = E
,et a> p, ces procedures travailleri.t de faoon identique. La variante
.-simplifiee (INT 110) vise a faciliter l'appel pour des series de pro-
blemes peu importantes. Quant a la variante compliquee INT 111,
~elle permet de reduire notablement la masse de calcul dans le cas de
~grandes series d 'integrales et de calculer Ies integrales _des fonctions
.:pourvues de singularites en pic. ·.
La possibilite de diminuer le volume de calculs que .nous venons
•de mentionner se realise de maniere suivante. On choisit !'integrale
"type (d'ordinaire la moins apte au calcul) de la serie donnee. La
:procedura INT·111 pose SI = 1, E egal ou inferieur a la precision
·voulue et 8 = 8 0 tres eleve. Les calcula nous menent a des valeurs
:approchees correspondant aux coups 8 = e0 , e02-~, ... , e 02-"n; k = 1
pour Ies integrales du type (a), k = 5 pour le type (b). L'examen
des resultats indique pour quel s = e 02-M est realisee la precision
demandee.
Si, pour cet e, la precision obtenue est sensiblement superieure
â celle desiree, il convient parfois d 'effectuer des calcula de correc-
tion avec e = 8 0 2-1 , ~ •• , 8 02-<"-1>. On disposera alors au total
des resultats pour 8 = 8 0 , e 02-1 , ••• , d' ou I' on choisira un e maximal
ieorrespondant a la precision voulue.
On calcule ensuite toutes Ies integrales de la serie pour e obtenu
,et E tres grand, disons E = 1019 ; un E grand garantit une seule
:Sequence de calcul sur tout le segment.
On trouvera Ies integrales multiples a l'aide de procedures ci-des-
eus si le compilateur admet des procedures recursives. Ainsi, on
§ 18] PROGRAl!MES USUELS D'INrnGRATION NUM~RIQUE 197

acrit
·1 -V1-x2
I= J( J exp(10(x+y))dy)dx
o o
sous la forme
1
I= J1
o
1 (x) dx
avec
-Vr=xi
11 (x) = ) exp (10 (x + y))d y,
o
et Ies deux fois on integre. numeriquement. La fonction a integrer
de I 1 (x) est reguliere, ce qui fait · que l 1 (x) se calcule aisement par
n'importe laquelle des procedures susmentionnees. La fonction 11 (x)
. 1
a une derivee non bornee au point x =;= 1; et pour trouver ~ 11 (x) dx
. o
on appliquera la· procedure INT 120 qui convient au calcul d 'inte-
grales des fonctions regulieres.
11 paraît naturel de prime abord de calcule~ Ies integrales sur des segments
elementaires en se servant des formules de Gauss· qui, pour le mâme nombre
de points, sont plus exactes que celles de Markov. Aussi est-ce bien ces formules
qui ont ete employees dans Ies premiers programmes standard d 'integration
avec recherche automatique du pas. Cependant la pratique en a revela un defaut
dans le cas des fonctions a variation brusque. Parmi les points des formules de
Gauss ne figurant pas Ies extremites du segment [p, p
1
+
h]; si l'on calcule

j exp (-Az) tk pour A important, tous Ies points de la formule de Gauss


o
appliquee a-u s~ent (O, 1) tout entier risquent de se trouver dans le domaine
ou la fonction a integrer est infiniment petite; le programme s'arrâte apres
avoir fourni une valeur approchee egale A zero. Une situation analogue peut
survenir mâme pour des formules contenant Ies extremites (cas de

i 1
z exp (-Az) dz, A iltant grand), maiSle risque en est sensihlement moins
grand. · ·
Si la formule d 'integration sur un segment partiel renferme un point fron-
tiere, la valeur de la fonction en ce point sera utilisee pour trouver Ies integrales
sur Ies deux segments auxquels il appartient. C'est pourquoi le volume de
calcul par segment elementnire resta le mâme qu'il s'agisse de la formule de
+
Markov â n 1 points ou de la formule de Gauss a n points, et Ies formules sont
exactes pour des polynomes de mâme degre 2n - 1.. Un autre avantage de
la formule de Markov est de donner~ pour son (n +
1)-ieme point, la difference
divisee d'ordre n, i.e. d'evaluer la derivee j<n>, alors que la formule de Gauss ne
permet d 'evaluer que la derivee I (7t-:.l). La repartition reelle des points de la
formule de Markov est visiblement plus proche de l'optimum. .
198 INT:eGRATION NUM~RIQUE [CH. III

4. Procedure INT 21. Le but de cette procedura est le calcul


d 'integrales etendues a un parallelepipede rectangle a S dimensions
Jf (X)dX,
g
Q= [a1 ~x1 ~b1, •.. , as~Xs~bs],
X = (x1; ... , Xs).
L'appel de procedura s'ecrit:
Z: = INT 21 (S, A, F, X, EPS, P).
Parametres formels: entier S (multiplicite de !'integrale); tableau
A [1: 2S] (tableau donnant le domaine Q: A [1] ~ ai, A [2] =
= bi, ... , A [2S - 11 = a8 , A [2S] = b8 ); reel procedare F (fonc-
tion procedura sans parametres donnant la fonction a integrer /);
tableau X [1: S] (argument de la fonction /); reel EPS (valeur de
l'erreur absolue permise par pas); reel Z (valeur calculee del'inte-
grale); etiquette P (etiquette a laquelle on se renvoie si la precision
voulue EPS est impossible a atteindre).
DEscRIPTION DE LA M:STiiODE. Le changement de variable

xi = ai + (bi - ai) ti,; i = 1, ... , S,


transforme le parallelepipede donne en cube unite
G = [O ~ t1 ~ 1,
• . . , O ~ ts ~ 1] ,:
t = (ti, ... , ts),
· et !'integrale est prise sur ce cube. Soit Ps Ie jacobien pour notre
changement de variable: Ps = (bi - a 1 ) • • • (bs -as). La methode
se base sur deux formules de cubature
c 1+h c8 +h

J ... J
c 1-h c8 -h
g (t) dt ~ h8 !,: = 0:, q= 1, 2.

1 1
Pour trouver
o
J ... J
o
g (t) dt on calcule Qf et Qf correspondant

au cube G et on teste la condition


Psl<fi-~l~e. (4)
Si (4) est verifiee, on prend pour valeur approchee de !'integrale
sur G Ia valeur donnee par la formule Qf, combinaison lineaire de
Qf et Qr. Dans le cas contraire, on partage le cube G en 28 cubes
partiels egaux et on applique l'algorithme a chacun d'eux. Le par-
tionnement se poursuit tant que la condition (4) n'est pas satisfaite.
Si, pour h diminua de moitie, h 8 deviant zero machine, le calcul
.s'arrâte. Les formules de cubature ~: avec S differents ont la forme:
§ 18) PROGRAMMES USUELS D'INT~GRATION NUM~RIQUE 199

1) 8=2:
~i=Ât ~ g(ct+ia.h, c2+iah)+
lil+lil=i ·
+A2 ~ g(ct+i~h, c2+;~h)+A 3 ~ g(ct+iyh, c2+iyh),
Jil+lil=1 Iii, lil=t
~i=Bt ~ g(ct+ia.h, c2+iah)+
lil+lil=t
+B2 ~ g(c 1 +i~h, c2 +j~h)+B3 ~ g(ct+iyh, c2+jyh)+
lil+lil=i Iii, lil=t
+B, ~ g(c 1·+ivh, c2 + jvh),
Iii, lil=i
ou
a= 0,658149897623035910, Aa= 0,173611111111111111,
~= 0,549119831921783496,. Bt = 3,99942795838189963,
y = 0,894427190999915878, B 2 = -6,2980390694930107 4t
v = 0,316227766016837933, Ba= O, 124007936507936507,
A 1 • 1,06136206790541224, B, = 3, 17460317460317 460,
A 2 = -0,234973179016523356,
Q~=Qt
La formule Qi est exacte pour tous Ies polyn6mes de degre ~ 5.
La formule Qf I 'est pour Ies polynomes de degre ~ 7.
2) 8=3:
~3
~
1
= 8 ( 44g (c ,c2, c )
225 1 3 +
+
11
: ~ g ( Ct + i ~ h, C2 + j -,I 151 h, C3 + k-,f 151 h) +
Iii, Iii, 11'1=1 .

+ 10 ~ g{c1 + ih, c2 + jh, ca+ kh)),


lil+lil+lhl=t
~3 =--8 ( ___ 1552 g (Ct, C2, C3 ) +
2 1125 5 ·

+ 1!~3 ~ -,I 1~ h, c2 + ;-,f 1~ h, Ca+ k-,f 1~ h) +


g ( c1+ i
Iii, Iii, lkl=i

+7 :4 ~ g ( + i -,I h; +
lil+lil+lkl=1
C1 1~ Cz

+ j V 1~ h, Ca+ k-,11~ h) + 15Th) ,


200 INT~GRATION NUDRIQUE [CH. III

Th = ~ g (c1 + ih, c + jh, c3) +


2
Iii, li1=1

Les formules Q! et Q: sont precisesJpour n'importe quel polynome


de degre ~ 5. Q! l'esţ pour tous Ies polynomes de degre ~ 7.
BibUograpbie du cbapitre III
I [6], Il [14]; § 2: I [6, 8, 16], II [14, 23]; § 3: l [f6], II [14, 44], III [5];
§ 5: I[f3l, III [27]; § 8: II [23]; §§9, 10: II [1], III [9, H, 49]; § 12: I [1, 8];
§ 14: III [53]; §§ 17, 18: II [1, 24], III [9, H]. . .
CHAPITRE 'IV

APPROXIMATION DES FONCTIONS


ET PROBL1:MES CONNEXES ·

§ 1. Meilleures approximations .
dans un espace vectoriel norme
Considerons le probleme suivant. Soit f un ~ţement de l'espace-
vectoriel norme 1/l. On demande de trouver sa meilleure approxi-
n
mation par la combinaison ·lineaire ~ c1gi des elements lineairement
i=1
independants gi, ... , gn E fjl donnes. Cela equivaut
n
a trouver UD

element ~
i=1
cîgi tel que
n n
llf- i=1
~ cfgdl=A= inf llf- ~ c,gdl-
c1, • • • ,cn i=1

Si un tel element existe, ii s'appelle meilleur approximant (ou


meilleure approximation).
TH~oR:tME 1. Le meilleur approximant existe.
D~MONSTRATION. Vu
n n n n
111 r- i=1
~ cfgdl-11 r- ~ ergii 11-<II ~ <cf-cr> gdl-< ~ Icf-cf I llg lf„
i=1 i=1 · i=1

la fonction
n
Fr{c1, ... , Cn) = li f - ~ cigdl
i=1

est une fonction continue en ses arguments Cj quel que soit f en ..


Soit li e li la norme euclidienne du vecteur c = (c 1, ••• , cn)• La-
fonction
· Fo (c1, ... , Cn) = li c1g1·+ ... + cngn li
est continue sur la sphere unite li e li= 1 et un point (ct, ... , en.)
de celle-cf realise donc sa borne inferieure F sur la sphere. F =t= O
puisque l 'egalite p = li c1g1 + •· . + cngn li= o. contredit l 'jndepen-
danee lineaire des elements g1, ... ' gn. Pour tout C= (c1, ..• ·' Cn) *
202 APPROXIMATION DES FONCTIONS ET PROBL°EMES CONNEXES [CH. IV

=fo (O, ••. , O), on a l 'estimation suivante:


li c1g1 + ... +cngn li =Fo (c1, ... ,. Cn) =
=llcllFo ( ,t!11, ... , 1t:11 )~llcllff.
Soit y > 2 1~ li • La fonction Fr(c17 ••• , cn) est continue dans la
·boule li c li~ y et atteint donc en son point (cî, •.. , c~) sa borne
inferieure F0 sur la boule. On a F0 ~F1 (O, .•. , O)= IJ fli- A l'exte-
.rieur de cette boule
Fr(c1, ... , Cn)~llc1g1+ •· .+cngnll-llfll>
>F 21L111 -llfll=llfll>F0 •
F
Ainsi,
F,(c1, ••• , Cn)>F 0 =F,(cî, ... , c~)
,quels que soient c17 ••• , Cn• C.Q.F.D.
11 existe en general plusieurs meilleurs approximants.
TmioR:ElME 2. Si l'espace '1l est strictement norme, le meilleur
ap proximant est unique.
D:eMoNSTRATION. Raisonnons par I 'absurde et supposons qu 'il
,existe deux elements
n
f 1 =I= Î2, f1= ~ aiigi
i=i
tels que li f - f 1 li = li f - f 2 11 = A.
11 est clair que ~ =I= O, sinon f 1 = f = f 2. De plus

l~f- f1ţf2 ll=II f 2 f1 + f /211~ llf-;fdl + llf-;f2II A.

Puisque Ît ţf 2 est combinaison lineaire des elements gh ... , gn,


li I(
il v-ient f - fi ţ 12 ~A selon la definition de A. Comp te tenu
des relations precedentes cela signifie que
1 1
li ' / li+ li
1
/
2
li= li 1 / 1
+ /
2
li·
Du moment que l 'espace est suppose strictement norme, on
a -f-·f 1 f-1 2 s· 1 I f f1-cd2
i-a , f est l a comb"ma1-

2-=a.-2- . 1 a=fo. , a ors
-son lineaire des g1, .•• , gn et, partan t, A= O. Quand a = 1, on
a .f.1 =12 , ce qui contredit l 'hypothese f 1 =fo. f 2 •
§ 2) MEILLEURE APPROXIMATION DANS UN ESPACE DE HILBERT 203

PROBL:mMES. 1. Demontrer qu'un espace de Hilbert est strictement norme.


2. Demontrer que l'espace Lp (O, 1) avec la norme
.

11 filLp = yI
P J 1

I f(x) IP dx

est strictement norme pour 1 < p < oo.


3. Montrer que l'espace L1 et l'espace C ([O, 11) de fonctions continues
avec pour norme
li I llc= max11I (.x) I
[O, 1)
ne sont pas strictement normes.

§ 2. Meilleure approximation dans un espace


de Hilbert et sa construction
Dans le cas d 'un espace de Hilbert, la recherche du meilleur
approximant se ramene formellement a la resolution d 'un systeme
d'equations lineaires.
Pour obtenir ce systeme on procede de la fa~on suivante. Les
coefficients ai du meilleur approximant rendent minimale l'expres-
sion
n n n
l> 2 =llr- 21 aigill =(r- i=1
i=1
2
21 aigi, r- i=1
~ aigi).
En egalant a zero Ies derivees par rapport a Re ai et Im ai on obtient
le systeme d 'equations permettant de determiner ai. Comme le
meilleur approximant existe, ce systeme admet une solution.
Formons ce systeme et examinons l'unicite de sa solution d'un
autre point de vue.
Soit H un sous-espace vectoriel d 'un espace de Hilbert 9/, f E 9/.
11 s'agit de trouver un element h 0 EH, meilleure approximation
de f, i.e. tel que
li f -h0 fi= inf li f - h li•
hEH
LEMME 1. Si H possede un element h0 , meilleur approximant
de f, alors la difference f - h 0 est orthogonale a tous les elements
du sous-espace H.
D:8MONSTRATION. Supposons qu 'il existe un element h 1 E H pour
lequel (f - h0 , h1) = a =I= O. Puisque l'on peut prendre hi/ li h 1 li
au lieu de h 1 , on admet que li h 1 li = 1. Considerons I' element
h2 = h0 +
ah 1 E H. On a
li f - h 2 11 2 = (f - h 0 - cth1 , f - h 0 - ah1 ) =
= (f - h 0 , f - h 0) - a (h17 f - ho)- a (f- h 0 , h1 ) + a<i (h ,ht)
1 1
204 APPROXIMATION DES FONCTIONS ET PROBL:ElMES CONNEXES [CH, IV

mais (h1 , f - h 0) = (f - h 0 , h1 ) = a.· 11 s'ensuit par consequent


li f - h2 11 2 = li f - h 0 112 - aa - aa + aâ =
f.- h 0 11 2 - < li f - h0 ll 2i
== li aa
ce qui contredit l'hypothese suivani laquelle h 0 est la meilleure
approximation.
LEMME 2. Si (f - h 0 , h) = O pour tout h E H, h 0 est la meilleure
approximation.
On a pour h EH quelconque
D:8MONSTRATION.

llf - h 11 = (f - h 0
2
+
h 0 - h, f - h 0 +ho - h) =
= (f - h0 , f - h0) (h 0 - h, f - h0 ) + +
+
(f_- h 0 , h 0 - h) (ho - h, h 0 - h), +
du moment que h 0 - h E H, le deuxieme et le troisieme terme
s'annulent conformement a l'hypothese. On a en definitive
li f - h 11 2 = li f - ho 11
2
+ li h - ho 11
2
., (1)
donc,. li f - h 11 > li f - h 0 11 pour h =I=- h0 •
2 2

L'espace de Hilbert etant strictement norme, l'unicite de la


meilleure approximation de la forme a 1 g1 angn decoule + ... +
du theoreme 2 du § 1. Une autre demonstration est fournie par
Ies lemmes 1, 2 : si h 0 est la meilleure approximation, alors
{f - h 0 , h) = O pour h E H, et, selon (1), tout element h :::/= h 0 ,;
h EH, n'est pas la meilleure approxiination.
Revenons au probleme de la meilleure approximation de f par Ies
n
combinaisons ~ a,g, des elements g1 , ••• , gn lineairement inde-
i=t
pendants. Ces combinaisons forment un sous-espace vectorial H.
n
Si !'element~ a1gt est le meilleurapproximant, on a, selonle lemme 1.,
i=i
n
{f-~a,ghgJ)=O pour· j=i, ... ,n. (2)
i=i
Puisque la meilleure approximation existe, ii en est de mâme de la
solution du systeme (2). Par ailleurs, si l'on a Ies relations (2)_.
alors

n
quels que soient c1, sinon (f - ~ a,gi, h) = O pour h E H quel-
i=t
n
conque; conformement au lemme 2 cet element~ aigi est le meilleur
· . i=1 .
§ 2) MEILLEURE APPROXIMATION DANS UN ESPACE DE HILBERT 205

approximant. Supposons. que le systeme (2) possede une solution


n
(bi, ... , bn) autre que (Cli,, ••• , an). Dans ce cas g = ~ b,g,
i=1
est lui aussi meilleur approximant et, vu. son unicite,;
n n
. ~ a,gi= ~ btgt;
i=i i=i

l'hypothese que a1 =I= b, pour un certain i est contraire ă. l'indepen-


dance lineaire des g,.
Ainsi, nous avons montre que le systeme (2) admet toujours
une solution et une seule. On met ce systeme sous la forme
n
~ adg1, gJ) = (f, gJ), j = 1, ... , n. (3)
i=i

On trouve donc Ies coefficients associes au meilleur approximant


en resolvant le systeme non degenera (3).
La matrice
G (g1, • • ., gn) = [(gi, g1)l
est dite matrice de Gram de ce systeme.
En etudiant les proprietes de la matrice de Gram on utilisera l'egalite
formelle

PROBL"BME. Demontrer que G (gi, ... , gn) ;;;;:i: O et qu'on a l'egalite si et


seulement si gl, ... , gn sont lineairement dependants. Demontrer l'inegalite
G (g1, • • •, gn+1) ~ G (g1, • • •, gn) (gn+1, gn+1>•
Soit g la meilleure approximation de f. Alors, selon le lemme 1,
on a (f - g, h) = O pour h EH. Portant h0 = g et h = O dans
(1), il vient
+
li f 11 2 = li f - g 11 2 li g 11 2 •
Si Ies elements gi forment un systeme orthonorme (g„ g1) = 6t-Ji
le systeme (3) se reerit
a1 = (f,: g1); (4)
on a le meilleur approximant:
n
g= ~ (f, gi) gh
i=i
206 APPROXIMATION DES FONCTIONS ET PROBLbES CONNEXES [CH. IV

et l' ecri ture comm ode de la quan ti te li f - g 11 2 :


n .,,
li f-g 112= li f 112-II g 112= (f, f)-( ~ aigi, ~ aigi) =
i=1 i=i
n n n
= (f, f)- ~ aillif)i-i = (f, f)- ~ I ai 12= (f, f)- ~ I (f, gi) 12•
i, j=i i=1 i=1
Puisque II f - 2
g IJ >0, l 'egalite
n
llf-glJ2=(f, f)-~ l(f, gi)l2
i=1

implique en particulier l 'inegalite bien connue de Bessel:


n
(f, f) > i=1
~ I (f, gi) 1 2

Si les elements initiaux ne formant pas un systeme orthonorme"


on Ies orthogonalise a l'aide de l'algorithme du chapitre II.
Pour resoudre des problemes assez compliques] on a souvent besoin de
calcul d 'un jeu de coefficients ai = (f, gJ), j = 1, •.. , M (M relativement
grand). .
Etudions Ies procedes de calcul des ai sur !'exemple des integrales
b
ai=(/, Q1)= j f(x) QJ (x) p (x) dx, p{x) > O,
a

ou Q1 (x) reels constituent un systeme orthonorme dans un espace muni du produit


scalaire
b
(/, g} = J/ (x) g (x) p (x) dx.
a

Les integrales a1 se calculent d 'une faţon approchee par la formule de


Gauss (§ 3, eh. II) correspondant a la fonction de poids donnee
b N
a1 = Jf(x) QJ (x) p (x} dx ~ ~ n:1 (x:) Q; (x:). (5)
a q=1

Si f est un polynome de degre l, alors le degre def (x) Q; (x) est l j. Puisque +
la formule de Gauss est exacte pour Ies polynomes de degre 2N - 1, la for-
mule (5) est stricte si f (x) est un polynome de degre 2N - j - 1.
La resolution d 'un probleme exigeait qu 'on calcule plusieurs milliers.
d 'integrales du type
b
a1= J
a
f(x) QJ (.x) p (x) d:c, J=O, •.. , M.
§ 21 MEILLEURE APPROXIMATION DANS UN ESPACE DE HILBERT 207

Aucune tentative d 'utiliser Ies programmes d 'integration avec recherche auto-


matique du pas ou Ies formules (5) n'a abouti. En analysant le probleme on
a constate que sa resolution par calcul successif des a1 exigeait un temps machine-
prohibitif.
Le point le plus delicat etait le calcul tres penible des valeurs de f (x).
On a donc adopte la methode suivante. Les integrales a1 ont ete divisees en
groupes
(ao, ·•.,an), (an +1' •.• , an), , .• , (an +1' ·•.,an), nk=M.
1 1 2 k-1 k

Pour chaque groupe on a determine un nombre Ni suffisant pour que la


formule (5) assure au calcul de chacun de ses elements la precision demandee.
Ensuite, on a calcule des valeurs approchees pour toutes Ies integrales du groupe
a la fois:
N,
~ DNiJ
a3~Ni)= .L:J q ( xqNi) Qi (xqNi) •
q=1

Chaque f (x:i } eţait calculee une seule fois pour le groupe tout entier. On a egale-
ment realise un gain de temps machine supplementaire provenant du calcul
simultane des valeurs de tous Ies polynomes Q1 (x:i) en un seul point par des-
relations de recurrence. En repartissant Ies coefficients a; on a tenu compte-
de la masse d'operations qu'exigeait le calcul des valeurs de la fonction f (x}.
Dans un autre cas semblable il s'est avere plus rationnel, du point de vue•
de l'economie de teml?s machine, de s'abstenir d'une pareille division, de prendre-
un N correspondant a aM et de calculer avec toutes Ies integrales a la fois. Le-
volume de calcul a ete reduit d 'environ 100 fois par rapport au procede initial.
Nous avons deja J>arle de l'habitude des clients d'apprecier l'efficacite
d 'une methode d' apres la part de travail utile. C' est d 'ailleurs la raison pour-
laquelle ils se sont opposes un certain temps a la procedura decrite en alleguant
la « trop grande precision ►> des calculs pour j petits, qui entraînait beaucoup
de travail a vide. Les calculateurs Ies ont convaincus alors de la haute efficacite·
de la methode en arguant du pourcentage de travail utile: le volume de calcul
de toute la serie d'integrales n'est superieur que de 20 % a celui de !'integrale
aM par la formule (5), ce qui fait que la part de travail utile constitue quelque
80 pour cent. L'argument a porte, et Ies clients ont accepte la methode. Si
la fonction f (x) est mal approchee par des polyn6mes, on procede comme suit:
on calcule toutes Ies integrales simuitanement a l'aide de l'aigorithme d'inte-
gration, la recherche du pas etant automatique et Ies points d 'integration
restant identiques pour toutes Ies integrales, Ies memes que pour !'integrale·
aM qui est « la pire » de toutes. Pour realiser cet algorithme la procedura-
standard d'integration avec recherche automatique du pas ne convient plus,
et un nouveau programme s'impose. II existe une autre possibilite, a savoir-
ne pas caicuier directement toutes Ies valeurs def (x), mais determiner certaines
d 'entre elles en interpolant ~ur des valeurs deja caiculees.

Considerons un probleme d 'un type different dont la resolution


recourt dans un certain sens aux constructions de ce paragraphe.
On demande de construire un polynome d 'interpolation de degr&
N - 1 base sur Ies abscisses xf, ... , x~, zeros du polynome
Q N (x) de degre N d 'un systeme orthonorme {Q N (x)} relativement
au poids p (x). (Dans le chapitre II nous avons parle de l'interpola-
tion sur Ies zeros des polynomes de Tchebycheff.) Cherchons ce-
208 APPRQXIMATION DES FONCTIONS ET PROBL9MES CONNEXES [CH. IV

polyn6ine sous forme de combinaison •. lineaire


N-1
PN-1 (x) = ~ aiQJ (x).
;=O
Pour m, n < N, Ie degre du polynome Qm (x) Qn (x) est au plus
. 2N - 2. Aussi la formule de quadrature de Gauss a N points est-
elle exacte pour ce polynome
N b
~ DfQm (xf) Qn (x:) = j Qm (x) On (x) P (x) dx = Bn-m• (6)
q=i a
Les vecteurs
Qm = {Qm (xf), ... , Om (x~)}
formant donc pour m < N un systeme orthonorme rel~ti vement
au produit scalaire
N
(y, z) = ~ D:yqZq; (7)
q=1
et le vecteur f = (/ (xf), ... , /(x~)) se decompose suivant ce systeme
de vecteurs :

avec d1 = (f, Q,).


Le polynome
N-1
PN-I (x) = ~ diQi (x)
1=0
est bien le polynome cherche.
1
Dans les calculs, on se sert surtout des fonctions de poids p (.x) V
1-x3
sur (-1, 1] et p {z) = 1. Pour la premiere on connaît explicitement Ies polyno-
meş orthogonaux et la formule de quadrature de Gauss (ii s'agit des polynomes
de Tchebycheff et de la formule d'Hermite), et pour la seconda on connaît
Ies polynomes et on dispose de tableaux suffisa~ment fournis des points d 'inter-
polation et des poids des formules de quadrature de Gauss.

§ 3. Transformation de Fourier discrete


Supposons que / (x) periodique de periode 1 se developpe en serie
de Fourier
00

f(x) = ~ aq exp (21tiqx)] (1)


q=-oo
avec

(2)
§ 3] TRANSFORMATION DE FOURIER DISCR:t;:TE 209

Prenons Ies valeurs de cette fonction sur un reseau de points x z =


= l/N, oul, N (fixe) so_nt entiers, et notonsj-(xz) =fi.Soit q2 - q1 =
= kN, k entier; alors q2xz - q1xi = kNx, = kl (kl entier). Donc,
exp (2niq1x) = exp (2niq 2x) (3)
aux nceuds du reseau. C'est pourquoi, si f (x) n'est consideree que
sur le reseau de points xz, on peut reduire les termes semblables
dans (1):
N-1
Iz= ~ Aq exp (23'tiqxz), (4)
q=O
ou
00

Âq = ~ llq+sN•
8=-00

Si l' on se donne des le debut mie fonction definie seulement" sur un


reseau, on peut la representer sur ce reseau par (1). En effet, une
telle fonction est prolongeable sur toute la droite si on trouve ses
valeurs entre Ies nceuds par interpolation lineaire. Une fonction
continue derivable par morceaux verifie (2), et apres avoir reduit
Ies termes semhlahles sur le reseau on aboutit a (4). Definissons le
produit scalaire des fonctions discretes:
N-1

(/, g)= ! ~ fzgz.


l=O

Le facteur 1/N a ete introduit pour concorder Ies relations obtenues


avec le cas continu: si / (x) et g (x) sont continues sur [O, 1], alors
1
(I, g)-+ J
o
f(x)g(x)dx

pour N--+- oo.


Les fonctions g q (x 1) = exp (2niqx 1) formant pour O~ q < N un
systeme orthonorme relativement au produit scalaire ainsi defi-
ni. En effet,
N-1
~
1 . q-; )
(gq, gi) = N 2.J exp ( 2m--w- l- •
l=O

Pour q =I= j on obtient en sommant la progression geometrique


t exp(2rci(q-j))-1 O
(gq, gi ) = N ( q-; ) .
exp 2ni--:W-- -1

14-01007
210 APPROXIMATION DES FONCTIONS ET PROBL'EMES CONNEXES [CH. IV

Puisque (g q, g q) = 1, on a finalement
(gq, g1) = f>q-J pour O~ q, j < N. (5)
Multipliant scalairement (4) .par gJ, il vient l 'egalite
N-1
Âi= (f, gJ)=. ! Li
l=O
Iz exp (-2nijxz); (6)

evidemment
1
A,-:r a,= J/(x) exp ( -2nijx) dx
o
pour N ~ oo et j fixe.
Cela ne veut nullement dire que
N-1
f (x) ~ ~ ÂJ exp (211:ijx).
;=o .

Pourquoi? Supposons, pour plus de simplicite, que


h
f (x) = ~ a1 exp (2nijx),
-h

ou 2k < N. L'egalite (4) donne la representation des coefficients 1 :


a1 pour 0-<,_j-<,_k,
A1= O :pour k<i<N-k,
{
ai-N pour N-k<.i<N.
Le seeond membre de cette egalite approcbee inexacte est done
h -1
~ a1 exp (2nijx) +exp (2niNx) 2] a1 exp (211:ijx).
l=O j=-1

II coincide avec f (x) en x z et en est eloigne en dehors de oes


points.
En substituant la variable de sommation s' = s + k dans la
definition de A q__ on se persuade que Aq1 = Âq2 si q1 - q2 = kN
avec k entier. compte tenu de (3) on reerit (4)
f z= ~ Aq exp (2niqxz)• (7)
-N/2<~N/2

Si / (x) est suffisamment reguliere, Ies quantites I a1 I deeroissent


rapidement avec l'augmentation de j, done A q ~ a'l pour q petits
et A q et aq sont faibles des que q sont grands. En resuma on a des
TRANSFORMATION DE FOURIER DISCR~TE 2H

raisons d'esperer que l'egalite approehee


f (x) ~ ~ Aq exp (2niqx) (8)
-N/2<q~N/2
sera valable en tous Ies x.
Rappelons que (8) devient une egalite aux points du reseau.
Le procede d 'approximation d 'une fonction par le second membre
de (8) est l'interpolation trigonometrique. La relation (7) est dite
serie de Fourier /inie ou discrete et A q coefficients de Fourier discret&.
Le fait de negliger l'egalite etablie des fonctions
exp (2niq1x) et exp (2niq 2x)
aux nreuds du reseau pour q1 - q2 = kN est souvent la cause des
relations fausses.
Dans un probleme d'ingenieur, on demandait de calculer la premiere fre-
quence propre de vibrations d'une construction. On a decide d'ecrire une equa-
tion non stationnaire decrivant le processus vibratoire et d'imprimer la courbe
representative dont !'examen devrait foumir la frequence. On a rasolu I'equa-

(J

Fig. 4.3.1

tion correspondante, que nous ecrivons conventionnellement x" = F (z), par


la methode des differences finies. On a teste le resultat en refaisant Ies calcule
avec un pas diminua de moitie. Les courbes ainsi obtenues ont coincide a 10 %
pres. Cependant, on a constate dans l'experience que la frequence calculee
s'ecartait de la frequence vraie de plusieurs dizaines de fois. La cause en etait
le pas 1/N adopte pour construire le graphique de la solution, qui etait sensible-
ment superieur a la periode de vibration. La solution etait voisine de 'la fonction
f4•
212 APPROXIMATION DES FONCTIONS ET PROBL:SMES CONNEXES [OH. IV

const•exp (2niqt) avec q/N proche de 2k pair. Aussi le reseau de pas 1/N tout
comme le reseau deux fois plus fin (avec le pas 1/(2N)) ont-ils donne tous deux
le graphique de la meme fonction const •exp (2nt (q - 2kN) t).
Une autre fois on a obtenu une solution absurde en calculant le diagramme
de directivite d'une antenne. On a essaye en vain de detecter l'erreur dans le
programme, la methode de resolution ou la description physique du probleme.
Or, la cause d'erreur etait la mâme que dans !'exemple precedent: le graphique
d 'une fonction fortement oscillante· etait imprime sur un reseau tres espace.
La fig. 4.3.1. visualise en trait continu le graphique reel de la section du diagram-
me et en pointille celui obtenu par interpolation des z calcules.
11 existe une correspondance entre le probleme d 'approximation
des fonctions par des combinaisons lineaires de polynomes de Tcheby-
eheff et leur approximation par des polynomes trigonometriques. Sup-
posons que la fonction f (x) est approchee sur le segment [-1, 1]
m-1
par Ies combinaisons lineaires ~ a1T 1 (x). Par le changement
. ~o
de variables x = cost Ie probleme se ramene a l'approximation
de la fonction f (cos t) par la combinaison lineaire
wi-1 m-1
~ aJTJ (cost)= ~ a; cos (jt).
;=O i=O
On a l 'egalite
1 - :t·

(f, g) 1 = J ţ~:_<;~ dx = Jf (cos 0) g(cos 0) d0= (f, g)


-1 O
2•

Par consequent, chercher la meilleure approximation de / (x) pour


la- norme associee au produit scalaire (t, g)i revient a chercher
l'approximation de / (cos 8) pour la norme associee au produit
scalaire (t, g) 2 • On note la meme correspondance dans le cas de
l'interpolation et de la meilleure approximation dans une metrique
uniforme. L'interpolation de la fonction par un polynome base sur Ies
2 1
points x 1 = cos ( n ;2m ) , zeros du polynome de Tchebycheff T m (x),
se ramene alors a l'interpolation de / (cos 8) par le polynome tri-
m-1
gonometrique ~~ a1 cos Ut) avec Ies points t 1 = n 2~N 1 formant un
:,=O
reseau regulier.
§ 4. Transformation de Fourier rapide
La transformation de Fourier discrete et son inverse
Uo, • • •i1i fN-1) <=> (Ao,. • • ., AN-1)
figurant dans de nombreux probiemes. En Ies realisant directement
par Ies formules (3.4) et (3.6) on effectue O (N2) operations arithmeti-
ques. Yoyons s'il est possible de reduire ce chiffre et proposons-
nous, pour fixer Ies idees, de calculer Ies coefficients A q pour Ies
TRANSFORM.ATION DE FOURIER RAPIDE 2i8

valeurs donnees de la fonctipn. Pour construire Ies algorithmes de


transjormation de Fourier rapide on part du fait que, pour N com-
pose, on peut isoler dans Ies termes a droite de (3.6) des groupes
figurant dans Ies expressions des divers coefficients A q•
Posons d 'abord N = PtP 2 , p 1 , p 2 =I= 1. Mettons q, j compris dans
Ies limites 0~q, j < N sous la forme q = q1 p 1q2, j = i2 PJu + +
_avec O ~ q1 , j 1 < Pu O ~ q2 , i2 < p 2 • On aboutit a la chaîne de
relations
N-1
Âq= A (qt, q2)= ! ~ fi exp ( -21ti
j=O
~). =
P1-iP2-1
1 "" ~ / ( 2m. (q1+P1q2Hi2+P2it>).
=N LJ LJ i2+P2;1 exp - P1P2
it=O i2=0
Moyennant l 'egalite
(q1+P1q2) (i2+P2i1) qj
2 1
+ q/2 + /1q1
P1P2 N Pt
et la relation precedente, on trouve
P2-1
A (q1, q2)= ; -~ A< 1> (q1, i2) exp ( -21ti ~)
2
.12=0
avec
p 1 -1

AW (q1, i2) = ;1 ~ /;2 +p 2; 1 exp ( --211:i ;~~1 ) •


i1=0
Le calcul direct de tous Ies A <1> (q1 , j 2) exige O (prri 2) operations
arithmetiques, et le calcul suivant de A(q1 , q2) encore O (p 1 p:).
Par consequent, pour pi, p 2 • O (V N), on doit effectuer en tout '
O (N8l 2) operations. On construit de fa~on analogue, avec N =
= p 1 • • • p r, I' algori thme de calcul de I' ensemble des valeurs de A q,
pour lequel Ies operations sont au nombre de CN (p 1 Pr) + ... +
au plus (C une constante absolue). Ecrivons Ies formules de calcul
correspondantes pour le cas le plus courant p 1 = ... = Pr = 2.
Mettons q, J sous la forme
r r
q= 2i q,,,2"-1 ,
k=1
j= ~ ir+1-m2m-1,
m=1
ou q,,,, im= O, 1. La quantite q;2-r s'ecrit
r r r
q]·2-r = .(.J
'1 •
qJr+t-m 2m-1-r
= ~
.(.J
( "1
.(.J q1,. 2k+m-r-2} Jr+1-m
• =
m=t m=i 1l=1
r r-m+t
= ~
m=1
{ 2J
k=i
q,,,2k+m-r-2} Îr+t-m + S
21.4 APPROXJMATION DES PONCTIONS ET PROBL'8MES CONNEXES [CH. IV

avec s entier, somme de tous Ies termes


q,dr+t-m21l+m-l"-2,
pour lesquels k+m-r-2>0. II est clair que
exp { - 2ni t )= exp ( - 2ni ( %- s ) ) •
Done
N-1
A (q1, •.. , qr)=Âq= ! ;:ze~ /iexp ( -2ni ~) =
1 1

= ! ~ .••! ~ f
ir=O it=O
1r+2ir-t+• .. +2r-1;1 X

r r-m+t
X exp ( - 2~i ~ ( ~ qk2k+m-r-2 ) Îr+t-m) .
ffl=1 1'=1

On obtient en regroupant Ies termes:


t r
 (q1, .•• , qr) = ! ~ exp ( -2nijr2-r ~ qk2"-1 } X
ir=O 1t=1
t ~1
X ( ! ~ ·exp ( - 2ni Îr-121-r ~ qk2"-1) X . • •
ir-1=• 1&=1
1-

x( ! ~ exp(-2nij~2- q
i1=•
1
1)f;r+2ir_ + ... +2 r-t;J • • • ).
1

On ecrit cette relation sous forme d 'une suite de relations de


recurrence
A<m> (q1, • • •t qm; im+1, •••.,ir)=
1 m
= !~ exp ( - 2nijm2-m ~ q1i2k-t} X
im=O h=l
X A (tJa-1) (q 1, •.. ,qm-1,. ,·m,•••, ,·r,
) m= 1, ... , r,
ou
A<O) (. .) /
]t, • • •, Jr = ir+i,_12+ • • •+i12r-i,
A<r>(q., ••• ,qr)=A(q1, ... ,q,).
On passe de l'ensemble A cm-1> a l'ensemble A cm, moyennant O (N)
operations mathematiques et logiques ; vu qu 'il y a r pas„ le nombre
§ 5) MEILLEURE APPROXIMATION UNIFORME 215

total d 'operations est


O (Nr) = O (N log2 N).
En se servant de cet ensemble de relations on commet une erreur d'accumu-
lation moindre par comparaison avec les formules (3.6). Ce procede offre egale-
ment un certain avantage quant au calcul des exponentielles faisant partie
des formules. Pour obtenir A <m> on utilise les valeurs exp (-2nt;2-m), ; = O,
1, .•. , 2m - 1; en particulier, ce sont 1 et -1 lorsque m = 1. Pour trouver
A<m+1> on a encore besoin des valeurs exp (-2n:iJ2-m-1) pour ; impairs
verifiant l'inegalite O ~ J< 2m+l ; ces dernieres valeurs se calculent a 1 aide
de quantites connues, notamment par le recours aux relations (m ~ 2):

··2-ml)
exp ( -2nt-1
·+1
2
--2-m)
+exp (-2ni-
1·-1
--2-ffl
2
)
exp ( - 2m1 - = 2 cos (n2-m) 1

ou
cos (st2-m) =
, / 1
y---2--
+ cos (n21-m)
pour m ~ i. .
Dans certains cas on arrive a reduire le nombre d 'operations de plusieurs
fois encore. Nous en avons deja parle: on s'est donne une fonction reelle f (t) =
= g (cos t) connue aux points tz = n <~;
1
> ; on demandait de trouver Ies
coefficients du polynâme d'interpolation
N-1
~O ÂJCOSjt.

Voici un autre cas. Connaissant Ies valeurs de la fonction


N/2-1
~ A1sin2njz
i=1
aux points zz=l/N, 0<l<N/2 (N pair), trouver Ies coefficients A1•
PROBL1l:ME. Trouver Ies coefficients CJ du produit des deux polynomes
N-1 N-1 2N-2
( ~ ap:i) ( ~ b1zJ) = ~ CJZ;.
i=O i=O i=O
Montrer que O (N log2 N) operations suffisent bien.

§ 5. Meilleure approximation uniforme


Si dans un espace vectori el norme la norme n' est pas determinee
a l'aide du produit scalaire, la recherehe du meilleur approximant
se complique sensiblement. Considerons un probleme type qu'on
rencontre, en particulier,, lors de la redaction de programmes stan-
dard de calcul de fonctions.
216 . APPROXIMATION DES FONCTIONS ET PROBL'EMES CONNEXES [CH. IV

Soit fl un espace de fonctions reelles bornees definies sur le


segment [a, b] de l'axe reel avec pour norme
li/ li= [a,
sup I f (x) j.
b]

On cherche la meilleure approximation de la forme


n
Qn (x)= ~ a,x1•
5=0
Conformement au theoreme 1 du § 1 il existe la meilleure approxi-
mation, c'est-a-dire un polynome Q~ (x) tel que
En(J) = llt-Q:11~ 111-Qn li
pour n'importe quel Qn (x) de degre n. Ce polynome QMx) s'appelle
polynâme de meilleure approximation uniforme. Dans la suite on
etablira Ies conditions necessaires et suffisantes pour qu 'un polynome
soit la meilleure approximation pour une fonction continue.
TH:mom:ME (DE VALL'.mE-PoussIN). S'il existe n + 2 points x < ...
0
... < Xn+ 1 du segme_nt [a, b] tels que

sg ((/ (xi) - Qn (xt)) (-1l) ·= const„


i.e. en passant d'un point x, au point suivant Xt+u, la quantite I (x) -
- Qn (x) change de signe, alors
En (/) ~µ= min If (x,)-Qn (xt) I• (1)
i=O, •• • ,n+t

DEM0NSTRATION. La proposition est evidente pour µ = O. Soit


µ > O. Supposons le contraire, c'est-a-dire que pour le polynome
de meilleure. approximation Q~ (x)
li (ln - I li = En (!) < µ.
On a
sg (Qn (x) - Q! (x)) = sg ((Qn (x) - f (x)) - (Q! (x) - f (x))).
Aux points x 1 Ie premier terme est superieur en module au deuxieme,i
aussi sg (Qn (x 1) - Q~ (x,)) = sg (Qn (x,) - f (xt)). Par consequent 11
le polynome Qn (x) - Q! (x) de degre n change de signe n 1 +
fois. Nous avons abouti a une eontradiction.
TH~0RBME D'ALTERNANCE DE TcHEBYCHEFF. Pour qu'un polynâme
Qn (x) soit le polynâme de meilleure approximation de la fonction
continue f (x), il /aut et il su/fit que le segment [a,: b] contienne au
moins m = n + 2 points x 0 < . . . < Xn+ 1 tels que
1
f (xi) - Qn (x,) = a (-1) li f - Qn. lls
I 5] MEILLEURE APPROXIMATION UNIFORME 217

i = o,: ... , n + 1, a = 1 (ou a = -1) simultanement pour tous


les i.
On dit des points x 0 , • • • , Xn+i satisfaisant aux conditions du
t.heoreme qu'ils forment le support de Tchebycheff.
D:8MONSTRATION. SuFFISANCE. Notons L la quantite li/ - Qn li•
En appliquant (1), il vient
L = µ ~ En (f), mais En (f) ~li/ - Qn li= L
selon la definition de En (/). Aussi En (f) = L et le polynome-
donne est bien meilleure approximation uniforme.
N:8cEss1m. Supposons que notre polynome Qn (x) soit meilleure-
approximation uniforme. Designons par y1 la borne inferieure des
points x E [a, b] en lesquels I f (x) - Qn (x) I = L; l'existence de
ce point decoule de la definition de L. Vu la continuite de f (x) --
- Qn (x), on a I I (y1) - Qn (y1) I = L. Pour fixer Ies idees, on se
bornera au cas f (y1) - Qn (y1) = +L. Designons par y2 la borne-
inferieure de tous Ies points x E (yi, b] en lesquels f (x) - Qn (x) =
= -L, par YHi celle des points x E(Y1r., b] en lesqµels f (x)-Qn (x) =
= (-1) L, ... On a pour n'importe quel k, vu la continuite de-
f (x) - Q11 (x) :
f (YH1) - Qn (YH1) = (-1)"L.
Poursuivons tant qu'on a Ym = b ou un Ym tel que I f (x) -
- Qn (x) I < L pour Ym < x ~ b. Si m ~ n +
2_, le theoreme-
a lieu. Supposons le contraire.
Du moment que j (x) - Qn (x) est continu, on peut indiquer,.
quel que soit k (1 < k ~ m), un point z1,._1 tel que I j (x) - Qn (x) I <
< L avec z1,._1 ~ x < Yk ; posons z0 = a, Zm = b. Par construction
Ies segments [zi-i, zi], i = 1, ... , m, p~ssedent des points (tels
que y,) en lesquels j (x) - Qn (x) = (-1)i-1L et ne presentent pas
de points ou j (x) - Qn (x) ~ (-1)iL. Posons

V (x) = rr
m-1

:,=1
(z; -x), ~ (x) = Qn (x) +dv (x), d> o,
et examinons l' allure de la difference

f (x) - Qg (x) = I (x) - Qn (x) - dv (x)


sur Ies segments [z1 _1 , z1]. Choisissons par exemple le segment
[z 0 , z1 ]. Sur [z 0, z1) on a v (x) > O, donc
J (x) - Qg (x) ~ L - dv (x) < L.
218 APPROXIMATION DES FONCTIONS ET PROBI.ilMES CONNEXES [CH. IV

D'autre part,, f (x) - Qn (x) > -L sur [z 0 , z1 ]_, ee qui fait que
pour d suffisamment petits, par exemple
min I f (x)-Qn (z)+L I
d< d1 --~~~ma-x~,-v~(z~)~I--'
[zo, z1J

[zo, z1J
•on a sur [z0, z1) :
f (x)-Q! (x) >-L.
De plus,

Ainsi
II (x)-Q! (x) I< L
-sur ee segment pour un d assez petit. En raisonnant de fa~on analogue
-sur Ies autres segments, nous pouvons indiquer un d0 petit tel que
-sur tous Ies segmenta on ait
I f (x) - Q!0(x) I < L;
v (x) et, partant, Q::O(x) sont des polyn6mes de degre n.
Cela est eontraire a notre hypothese selon laquelle Qn (x) est le
polyn6me de meilleure approximation et m < n +
2. Le theoreme
-est demontre.
Cette demonstration du theoreme de Tchebycheff, ainsi que la methode
lterative du § 7 qui va nous permettre d 'obtenir le polynome de meilleure appro-
ximation uniforme, constitue une sorte d 'impasse dans !'edifice de notre cours.
En effet, ni Ies methodes ni Ies resultats ne trouvent aucune application dans
l'oxvose suivant. N'empâche qu'ils peuvent interesser le lecteur en tant qu'exem-
ple typique d'etude des prohlemes de la programmation mathematique, une
branche recente des mathematiques appliquees qui se developpe a pas de geant.

THEOR~ME n•uN1Cirn. Il existe un seul polynâme, meilleure appro-


.:timation uniforme de la fonction continue.
Di;iMoNSTRATION. Supposons qu'il en existe deux de degre n;
Q!(x) :::fa Q! (x), 11/-Q!ll = li f-Q! li= En (/).
Alors

Le po Iynome
„ Q! (x) +Q; (z)
est done lui aussi la meilleure appro-
2
ximation uniforme. Soient x 0 , ••• , Xn+1 Ies points eorrespondants
§ 6) EXEMPLES DE MEILLEURE APPROXIMATION UNIFORME 21.9

du support de Tchebycheff. Alors


O! (zt) +Q; (zt) I
I 2 f(xi)=En(f), i=0, ... ,n+1,
ou
I (Q! (xi)-! (xi))+ (Q! (xi)-! (xi)) I= 2En (/).
Puisque I Q! (x 1)-f (xi) l~En (/), k = 1, 2, la derniere relation n'a
lieu que si
Q! (xi) - f (xi) = Q; (xi)- I (xi).
Deux polynomes distincts Qi (x) et Q: (x) de degre n coincident
en n + 2 points, ce qui est contraire a l 'hypothese.
PROBL:tME. La fonction / (z) = sin 1.00z est approchee sur [O, n]. Trouver
Oso (z).

§ 6. Exemples de meilleure approximation


uniforme
1. Une fonction f (x) continue sur [a, b] est approchee par un
polynome de degre zero. Soit
sup f (x) = f (x1) = M, inf / (x) = f (x2) = m.
[a, b] [a, b]

Q0 (x) = (M + m)/2 est la meilleure approximation et x1 , x 2 Ies


points du support de Tchebycheff.
PROBL:tMES. a) Demontrer que le polynome de meilleure approximation
de degre zero est de la mâme forme si / (z) n'est pas necessairement continue.
b) Donner un exemple de fonction et de polynome correspondant du premier
degre, meilleure approximation uniforme, de sorte que Ies points a et b ne
verifient pas Ies conditions du theoreme d'alternance de Tchebycheff.
c) Donner un exemple de fonction (non continue bien sur) telle gue son
polynome de meilleure approximation ne satisfasse pas aux conditions du theo-
reme de Tchebycheff.

2. Une fonction / (x) convexe sur [a, b] est approchee par le


polynome du premier degre Q1 (x) = a0 + a1x. Du moment que
f (x) est convexe, la difference f (x) - (a 0 + a1x) n' a qu 'un seul
point d'extremum interieur. Aussi Ies points a et b appartiennent-ils
au support de Tchebycheff. Soit d un troisieme point de ce type.
Selon le theoreme de Tchebycheff, on a
f (a) - (a 0 + a a) = aL
1 1

f (d) - (a 0 + ail) = -aL,


f (b) - (a 0 + a1 b) = aL.
220 APPROXIMATION DES FONCTIONS ET PROBL:tMES CONNEXES [CH. IV

En retranchant la premiere equation de la troisieme 1 il vient


f (b) - f (a) = a1 (b - a). D'ou a 1 /(bi=!(a) .
Pour determiner Ies
inconnues d, L, a 0 , a 1 et a = ±1 on ne dispose que de trois equa-
tions. Rappelons toutefois que d est le point d'extremum de la
difference f (x) - (a 0 + a1x). Trouvons d; si f (x) est derivable,
on le fait a l'·aide de l'equation /' (d) - a 1 = O. Determinons mainte-
nant a0 , par exemple a partir de l'equation qu'on obtient en addi-
tionnant Ies deux premieres. Geometriquement, on procede comme

11 d /)

Fig. 4.6.1

suit (fig. 4.6.1.). Menons une secante par Ies points (a, f (a)), (b, f (b)).
Soit a 1 sa pente. Tra~ons une tangente a la courbe y = f (x) de
pente a 1 et une droite parallele aux deux precedentes et situee a egale
distance d 'elle.c;.
PROBLSME. I (z) =Iz I, [a, b) = (-1, 5). Construire le polynome de meil-
leure approximation uniforme de degre 1.
3. La fonction 't (x) satisfaisant a la condition j<n+u(x) ~ O
est approchee sur [a, b] par un polynome de meilleure approximation
de degre n; on demande d'evaluer En (f). Au § 9 du chapitre II,
nous avons evalua l'erreur dans l'interpolation avee Ies points zeros
du polynome de Tchebycheff
a+b b-a ( (2k-1) )
:rt
Xk.=-2-+-2-cos 2(n+1) '
§ 6] EXEMPLES DE MEILLEURE APPROXIMATION UNIFORME 221

a savoir
If (x)-Pn (x) I~(max I /<n+1>
.
(x) I) ,2
~.~
2!:~::+ 1\,. • (1)
D'ou l'inegalite
_,, ,.
E n (!) ~(max I j<nH> (X ) I) (b-a>7i+i
22n+1 (n-1-.1) l •
[~~; I

Soit Qn(x) le polyn6me de meilleure approximation uniforme.


Selon le theoreme de Tchebycheff la difference / (x) - Qn (x) s'annule
au (n + 1)-ieme point y 1 , • • • , Yn+i· 0n peut donc dire que Qn (x)
est un polynome d'interpolation base sur Ies points Yu ... , Yn+i•
D'apres (2.3.1) on a pour l'erreur d'interpolation
f (x) -Qn (x) = /<n+t> (~) ~;~g~ ,
ou
ffin+i (x) = (x - Y1) • • • (x - Yn+1), ~ E [a, b].
Su pposons que
max I O>n+1 (x) I= I O>n+1 (xo) J.
[a, b] .
On a
En (/) = llf (x)-Qn (x) 11>
>I f (xo)-Qn (xo) I= I/<n+t> (~ (xo)) 11 7;~}; 0
/ I-:;;

>(min I f<n+1, (x) I) (max I ron+t (x~ I } •


[a, b] [a, b] (n+1) •
Conformement a (2.8.6)
(b-a)n+i
max I 00 n+dx) I> 22n+1 ,
[a, b]
d'ou l'estimation
E (/) ~ ( . I /<n+u ( X) I ,1li (b- a)n+i (2)
n -::? ~Ib~ 22n+1 (n+1) I •

Ainsi, si j<n+1>(x) conser\Te le signe et ne varie pas trop, la difference


entre l'erreur sur le polynome de meilleure approximation et celle
sur le polyn6me d'interpolation pour Ies zeros des polynâmes de
Tchebycheff n'est pas essentielle. ·
PRoB~ME. Demontrer que dans le cas examina Ies points a et b satisfont
aux conditions du theoreme de Tchebycheff.
4. Proposoi:ts-nous de trouver le polynome de meilleure appro-
ximation de degre n dans le cas
f (x) = Pn+l (x) = a0 + ... +
lln+i~n+i, an+ 1 =fo O.
222 APPROXIMATION DES FONGTIONS ET PROBLDES CONNEXES [CH. IV

Alors /<n+l> (x) = tin+1 (n +


1)!, et la majoration (1) et la mino-
ration (2) coincident pour En (/):
En (f) = I tin+1 I (b - a)n+12-211-1.
Ainsi, le meilleur approximant est le polynome d'interpolation
Qn (x) base sur Ies abscisses
a+b b-a ( n (2k-1))
X1c=-2-+-2-cos 2(n+1) ' k=1, ... , n+1.
Ce polynome de meilleure approximation uniforme peut etre repre-
sente d 'une fa~on differente :
2x-(a+b) ) (b-a)n+i
Qn (x) = Pn+i (x)-an+tT n+t ( b-a 22n+1 • (3)
En effet, nous avons a droite un polynome de degre n puisque le
coefficient de :if+l est nul; Ies points de maximum xi = aţb +
b-a nt .
+-2 - cos n+i , i =
O, ••. , n, du module de Pn+i - Qn (x)
formant le support de Tchebycheff sur [a, b].
5. Supposons que f (x) est continue et impaire par rapport
au milieu du segment [a, b]. Arretons-nous, pour fixer Ies idees,
sur le segment [-1, 1). La condition d 'imparite signifie que f (x) =
= -! (-x). Montrons que le polynome de meilleure approximation
de degre quelconque est ici impair1 i.e. s'ecrit comme somme de
puissances impaires de x. En effet, soit Qn (x) un polynome de meil-
leure approximation de / (x). On a I f (x) - Qn (x) I ~ En (!). En
rempla~ant x par -x et en multipliant Ie module par -1, il vient
I-/ (-x) - / (-Qn (-x)) I ~ En (f),
ou
If (x) - (-Qn (-x)) I~ En (!).
Par consequent, -Qn (-x) est lui aussi un polynomo de meilleur~
approximation uniforme. Yu le theoreme d'unicite, Qn (x) -=-~
= -·Qn (-x), c.q.f.d.
6. On demande d 'approcher x3 sur [-1,; 1) par le polynome
de meilleure approximation de degre 1. Le resultat precedent admet
deux utilisations. 1) Le polynome cherche etant impair, on le
recherchera parmi Ies polynomes Q1 (x) = a1x. 2) Puisque pour le
probleme propose le polynome de meilleure approximation du
deuxieme degre se trouve âtre du premier degre, le probleme initial
equivaut a construire un meilleur approximant de degre 2. Or, nous
avons deja considere le probleme de meilleure approximation d'un
polynome par un autre polynome de degre inferieur d'une unite.
PROBLgME. f (x) est continue et paire par rapport au milieu du segment
[-1, 1] sur lequel on approche: f (x) = f (-x).
Demontrer que le polynome de meilleure approximation Qn (z) est pair.
§ 61 EXEMPLES DE MEILLEURE APPROXIMATION UNIFORME 223

PnoBL:BME. Approcher f (z) = exp (~) sur (-1, 1] par le polynome de


meilleure approximation du troisieme degre.
Il resuite de ce qui precede que ce demier est de la forme ao +
a 2z~. Le
probleme equivaut donc A approcher au mieux / 1 (y) = exp y sur IO, 1] par
le polynome ao + a2y (voir n° 2).
7. Un cas assez repandu est celui ou l'on se contente d'une bonne
approximation sans chercher la meilleure approximation uniforme
d 'une fonction. Par souci de la simplicite, bornons-nous a une appro-
ximation sur le segment (-1, 1). Developpons la fonction / (x)
en serie suivant un systeme orthogonal de polynomes de Tchebycheff
00

I (x) _, ~ d1T1 (x).


i=O
11 arrive souvent qu'un morceau de cette serie
n
11 d1T; (x)
l=O
de degre peu eleve assure une bonne approximation uniforme.
Les coefficients d1 sont parfois difficiles a obtenir. explicitement.
mais on connaît en revanche le developpement taylorien
00

/ (x) = ~ a1x;,
J=O
qui converge pour Ix I~ 1. Dans ces conditions il serait bon de
recourir a la methode suivante dite methode telescopique. On choisit
un n tel que l'erreur resultant de la formule
n
f (x) ~ Pn (x) = ~o a1x;
est suffisamment petite. On approche ensuite Pn (x) par le polynome
P,.,_1 (x), sa meilleure approximation uniforme. Selon la formule (3)
Pn-1 (x) = Pn (x) - 0-nTn (x) 21 -".
Puisque I Tn (x) I <1 sur [-ff 11,: on a
I Pn-1 (x) - Pn (x) I ~ I~ I 21 -",·
puis on approche P.,,,_1 (x) par Pn-2 (x), sa meilleure approximation
uniforme, et ainsi de suite, tant que l'erreur provenant deces appro--
ximations successives reste faible.
Ce procede admet une description differente. Developpons Pn (x)
suivant Ies polynomes de Tchebycheff
n
Pn (x) = z1 d1T1 (x).
l=O
224 APPROXIMATION DES FONCTIONS ET PROBL:8MES CONNEXES [CH. IV

m
lntroduisons Ies notations Qm (x) = ">'! d1T J (x) pour m ~ n. Tout
M
polynome Qm (x) est un polynome de meilleure approximation uni-
forme de degre m pour Qm+i (x); ceci etant,
Em (Qm+1) = li Qm+l - Qm li = I dm+i I• (4)
·Cela decoule par exemple de la formule (3) ou directement du
theoreme de Tchebycheff. 11 en resuite que Qn-i (x) = P.,,,_1 (x),
·Qn-2 (x) = Pn- 2 (x), etc.
L 'idee de la methode est la suivante. La fonction de depart est
approchee par le terme P.,,, (x) de sa serie de Taylor, puis Pn (x)
,est developpe suivant Ies polynomes de Tchebycheff et on rejette
1plusieurs derniers termes du developpement. Du moment que
71

JPn(x)-Pm(x)I< ~ ld1I,
i=m+t
a'estimation totale de l 'erreur s'ecrit
71

1/(x)-Pm(x)j~maxj/(x)-Pn(x)I+ ~ ld,j.
i=m+t

Soit a. approcher arctg x sur [ - tg: , tg : ] a0,5.10-0 pres. Une telle


precision lors de l'approximation par un morceau de la serie de Taylor implique
:,;3 ,x5 :,;7 z9 xii
arctgx ~ x-3+--g--7+9-u•
En approchant le pol_ynome par le polynome de meilleure approximation uniforme
de degre inferieur d'une unite, on obtient au bout de trois pas:
Ps (.z) = 0,9999374.z - 0,3303433.z-1 0,16328236• +
Ce polynome assure lui aussi la precision demandee. Notons que l'imparite
du polynome initial abaisse a c)laque _pas l'exposant de 2.
8. Pour evaluer En (/) on prefere parfois au theoreme de Vallee-
Poussin le resultat suivant.
THJ!OR:8ME. Si f (x) est approchee sur (-1, 1) par
Qn+i (x) = an+1x'1+1 + .. • ao, +
alors
En (/) ~ I an+1 I 2-n - li/ - Qn+l 11-
D:mMONSTRATION. Si Q~ .est la meilleure approximation de la
fonction / et Qt celle de).la fonction g, alors
l(Qk (x) + Qfn (x)) - (/ (x) + g (x)) I ~
~ I Q!n (x) - I (x) l + I Qfn (x) - g (x) I ~ Em (/) + Em (g).
§ 7] METHODE ITERATIVE 225

11 en decoule
Em (/ +
g) ~Em (/) +Em (g).
Posant m = n, g = Qn+i - I, il vient
En (Qn+1) ~ En U) En (Qn+i - /). +
Compte tenu de (3), on a
En (Qn+1) = I an+l I 2-n.
Donc,
En {/) ~ En (Qn+1) - En (Qn+1 - /) ~
~ I anH I 2-n - li / - Qn+i li• (5)
Le theoreme est demontre.
Voici !'exemple de En (/) encadree. Soit
00

f (x) = ~ d1T1 (x);


j=0
posons
m
Qm (x) = ~ d1T1 (x).
j=O
On a de toute evidence
00

~ ld1I•
llf-Qn+1II~.,=n+2
Conformement a (4), En CQn+1) = I dn+1 I- Avec la premiere inega-
lite (5) on a
00

En ~ I dj I•
(/)>I dn+t I- j=n+2
D'autre part, on ·a evidemment
00 00

En (/)~li f-Qn ~ Id1I·= I dn+1' + l} I di I•


li<j=n+t j=n+2
00

Pour I dn+1 I>. ~ Idi I, la comparaison de ces estimations donne ·


J=n+2
l 'encadrement de En {/).

§ 7. Methode iterative de construction


du polynome de meilleure approximation
uniforme·

On recherche d'ordinaire le polynome de meilleure approxima-·


tion uniforme par une methode iterative quelconque. L'algorithme
decrit ci-dessous consiste a trouver par approximations successives
15-01007
226 APPROXIMATION DES FONCTIONS ET PROBL:BMES CONNEXES [CI-I. IV

Ies points du support de Tchebycheff et Ies polynâmes associes qui


convergent vers le polynome de meilleure approximation uniforme.
On suppose dans l'expose qui suit que la fonction a approcher est continue
et n 'est pas un polynome de degre n, i.e. En (f) =I= O.
Supposons que les points verifiant Ies conditions du theoreme de Tchebycheff
sont representes approximativement par x~ < ... < x!+t. Construisons le
polynome
n
Q! (x)= ~ afx;,
j=O
-qui satisfait en ces points aux relations
f (x~)-Q! (xt)=(-f)i Eh (1)

avec Eh inconnu. On aboutit aux cquations


n
~ aJ (x1)i + (-f)i Eh= f (xt) (2)
i=O
par rapport aux n +
2 inconnues a~, ... , a!, Eh.
Montrons que le determinant de ce systeme est non nul. R aisonnons par
!'absurde; le systeme homogene
n
Q! (xi)+ (-f)i Eh=~ a1 (x~)i+(-f)i Ek =0
j=O
a alors une solution non nulle. Si pour cette solution Ek = O, l'un au moins
des af est diffcrent de zero : le polynome non nul Q! (x) de degre npossede n + 2
zeros, et l'on aboutit ă. unc contradiction. Si Ek =I= O, l 'un au moins des aJ est
egalement non nul et le polynome non nul Q! (x) change de si~ne entre n 'importe
quels deux points xt, x~+t' c'est-a-dire qu'il a au moins n +
1 zeros, ce qui
nous conduit une fois de plus a une contradiction. ·
Notons
x~ 1 =a, x!+ 2 =b, R! (x)=f (x)-Q! (.x).
Au cours des iterations on fixe un certain q0 dans les limites O < q0 < 1.
Si k > O, on identifie aux x1
les points appartenant aux segments
[xtf, +
xt;/J, i = O, .. :• n 1, et verifiant dans l'ensemble Ies conditions
a.) max I R!- 1 (xt) I> I Eh- 1 l+qo ( li R!- 1 (x) 11-1 Ek-t I),
0~i~n+1

~) R:- 1 (x~) R!- 1 (xt+t> ,<O pour i=:=O, ••• , n,


y) I R!-t (xt) I> I Ek-i I pour i=O, •• • , n+i.

L'ensemble de ces points n'est pas vide et peut etre construit comme suit.
Prenons un point xk quelconque tel que
I R!- 1 (x11) I> I E 1H l+qo ( li R!- 1 (x) 11-1 Ek-t I);
METHODE ITERATIVE 227

vu que le second membre de cette expression ne depasse pas J1 R!- 1- (x) li, ce
point existe bien. Si Ek-1 = O, Ies conditions imposees sont verifiees par un
ensemble de xk et de n +
1 points quelconques parmi 1
, ..•, x!- x!+l •
1 1
Pour Eh-1 =I=- O, tous Ies I R~-- (xt- ) I =I=- O; considerons Ies cas suivants:
a) xk E [:c"·-1 :i/'·-1]
-1 ' O '
b) h E[ k-1 k- 1]
x Xn+i' Xn+2 '
c) xkE[""h.-1 xk-11
'"'O ' n+1 ·
Dans a) posons :z:~=xh,

f xt- 1 pour R!- 1 (x~- 1) R!- 1 {~)>O,


i=1, •.. , n+1.
:J.t = l xt" f pour R!- 1 (x~ 71 ) R!- 1 (x~) < O,

Dans b) posons x!+t =xh,

k
k-1
xi pour Rk-1 ( k-1) Rk-1 ( h
n > 0'
Xn+t n xn+1
)

xi= { h-1 k-1 h-1 k-1 k


i=O, •.. , n.
xi+ 1 pour Rn (xn+t> Rn (xn+t> < O,
Plaţons-nous maintenant dans le cas c); soit
kE[ k-1 k-1]
x xio ' xio+1 '
si R!- 1 (xh) R!- 1 (xf0- 1
) > O, posons

z~10 = xk, x"!-l = x'!-l - 1, i =I= io ;

si Rh-i (xk) Rh-t (x1!-- t) > O posons


n n 10+1 '

x~o+1 =xk, :4 =x~-1,


Dans tous Ies cas Ies ensembies de points xf obtenus verifient Ies conditions
a). fţ), ·î'). .
En l'absence de toute information complementaire sur la position des
points. du support de Tchebycheff qu'on cherche, on prend souvent iJ0llr x~
Ies points d' extremum du polynâme de Tchebycheff
o_ a+b
xi - - 2 -
+-2-cos
b-a ( n+1-i}
n.+1 ' ,t i=O, ... , n+i.

PROBL:BME. Soit f (x) un polynome de degre n 1. Montrer que pour de +


pareilles
cherche.
xt •o:
(x) s'avere le polynâme de meilleure approximation uniforme
Si la fonction f (x) est pres d 'etre paire ou impaire par rapport au milieu
du segment, il serait preferahle de prendre pour xî les points d extremum des
polynomes de Tchebycheff de degre correspondant. S'il faut construire les
polynâmes de meilleure .approximation pour une grande serie de fonctions
f (A, x) dependant du parametre A, on recomm.ande parfois le procede suivant
15*
228 APPROXIMATION DES FONCTIONS ET PROBL'SMES _CONNEXES [CH. IV

sous reserve que les points xi verifiantles hypotheses du theoreme de Tchebycheff


soient des fonctions regulieres en A : apres avoir trouve ces points pour certains
Ai, ... , Am, on determine par interpolation les premieres approximations
pour d'autres A.
TH:eOR]]ME. Soit
max I /<l> (.x) l=Mz< oo, l=O, ... , n+2.
[a, b]
Alors pour le processus iteratif decrit, on a

li /-O! li< Enl(f) +const qk


pour q< 1.
Ceci etant, li o!-On 11--.-0, ou On est le polynome de meilleure appro:cimation.
uniforme.
D:eMONSTRATION, La difference f-Q! s'annule en certains points
y:, ... ,Y!+t lpar suite du changement de signe lorsqu'on passe du point
.x~ au point xt+
f. C'est pourquoi O! (x) est un polynome d 'interpolation pour
/(x) et est base sur y~, ••• , Y:+ 1 E [a, b). Selon (2.3.1) et (2.17.5), on a pour
zE [a, b)
R! (x) = f (x)-Q! (x) = /Cn+b (~1) ( ~~j 1 ,
Qk {x) •
(R! (x))' = I' (x)- (Q! (x)}' = fCn+1> (td \~~:~); +JCn+Z> (t2)
(n+2) I '
Qh {z) = (:c-y1) ... (x-y!+ 1), ~1, ~2 E [a, ~]. Puisque I (Qh (:c))'
ici I< (n+i) X
X(b-a)n, on aboutit a
l'estimation
k (b-a)n+i
I Rn (x) I< Mn+t (n+i) I D1,
k (b-a)n (b-a)n+i
l(Rn(x))'l<Mn+t nl +Mn+2 (n+ 2)l D„
quels que soient k.
Mettons le systeme de relations (1) sous la forme
R~ (xt) =E",i,~ (xt),
ou ,i,k (xt) = (-1)i en xi.Formons la difference divisăe basee sur; les absci~
ses xi, ... , x~+ 1 des deux membres :
R"-,,_ (xh.O ·1 • • '
•' Xn+
h. ) - Ek,1,k ( k .
1 - 'I' Xo ' • · · .' Xn+
k )
1 •
Vu que la difference divisee d'un polynome de degre n aux (n+2) abscisses
est nulle, on remplace R!
par R!- 1 ; il vient
R nk-1 ( Xok.' • • ' •' "'n+
.,.k )-Ek,hk (•k. . ,.,.k )
1 - 't' "'O ' • ' ' ' '"'n+ 1 '
ou
R nk-1 ( XO' k. • 1t
' ' ' ' Xn+t
)
Ek=----------- •
..1,k (""Jr,. • k )
'I' · ... 0' •'' ' Zn+i
§ 7] M:8THODE IT~RATIVE 229

En ouvrant Ies parentheses on trouve


n+t d~Rk-1 (~)
Eh=~ i n i (3)
LI n+1
i=O 21 (-1)idt
i=O
avec

Les quantites R!-!(xf), i=O, ..• ,n+1, k fixe, alternent en signe par suite
du choix des points xt;
Ies signes de dt
alternant eux aussi. Et la relation (3)
s'ecrit
n+t
I Ek I= 21 hT IR!- t (xt) I {4)
i=O
avec

n+t
II est evident que 21 ht = L
i=O
Si Ies xt verifient la condition î'), ii vient
IR!- 1 (xT)l>IEh-1j, i=O, ... , n+i.
Donc (4) fournit
n+t
IE" I> 21
i=O
htJE1Hl=IE1HI, (5)

Si o!- 1 n 'est pas la meilleure approximation uniforme cherchee, Ies points

t
x 0 , ••• , xn+
k- ' ·r·1ent pas 1es cond"t'
k- t ne veri
1 1 1ons du t h'eoreme
' de T chebycheff
et l 'on a, conformement a a),
I R!- t (x~) I > I Ek-1 I,
+
pour au moins un i [dans l 'intervalle O,< i < n 1. Alors (5) fait place
ă IE" I> I Eh- 1 1- Il se peut que E 0 =0, mais compte tenu de la derniere
inegalite, on a, pour tout !k> 1, I Eh I> I E 1 I> I E 0 I> O. Aussi, quels que
soient k > 1 et O< i ,< n, on peut acrire la suite de relations
21 E 1 I< 21 Eh I= IR! (x~+ 1)-R! (xT) I <
< [a,
max I {R~ (x))' I (x'+ 1 -
b]
xt) < D2 (x1+ 1 - x~).

Pour k>1, O<i<i<n+1, il s'ensuit


h k
xJ-xi >,xi+ 1 -xi >,e>O,
k IE1 I
8=2--n;:-;

vu que, de plus, I xt-xJ I< b-a, il vient


(b- a)-<n+1> < I dt I < e-<n+i>.
230 APPROXIMATION DES FONCTIONS ET PROBL~MES CONNEXES [CH. IV

11 en rasul te
k (b-a)-<n+h 1 ( 8 ) n+t
(6)
hi> n+t n+2 b-a = d,
~ e-<n+i)
i=O
d ne dependant pas de k et i. Si a) est satisfaite, il existe au moins un p,
< +
O p ,< n 1, tel que
I R!- 1 (x:) I> I Eh-t I +qo ( li R!- 1 11-1 Eh-I I).
La relation (4), compte tenu de (6), donne
IE1'1> ~ h?IEh-1 1+1i;c1Eh-1 1+qo(IIR:- 1 11-IEh-ll));=
i:ţ:p

= I Eh-t I+1i;qo ( li R!- 1 11-1 Eh-t I ) > I Eh-t I + dqo ( li R~- 1 11-1 Eh-i I ). (7)
Puisque En (/)<li R~-t li,
En (/)-1 E 1' I,< (1-dqo) (En (/)-1 EIH I),
et
O,< En (/)-1 Eh I,< (i-dqo)h (En (/)-1 E 0 I), I Eh I =En (/)-\-0 (qk).
(7) entraîne egalement
li R:- 1 n-1 Ek I< (dqo>- 1 ( I Eh,-, E"- 1~1);
d'ou
li R! li= En (/) +0 (qk). (8)
Ce qui demontre la premiere proposition du theoreme.
Lorsqu'on veut, dans la pratique, rechercher le polynomc de mcilleure
approximation, on effectue d'habitude un deplacement complementaire a partir
des points ~ proposes plus haut afin que chacune des quantites I Rk-1 {~) I
soit la plus grande possible et que Ies conditions a), ~), y) soient realisees.
Passons a la deuxieme proposition du theoreme. Notons que la convergence
de Q! (z) vers Qn (x) ne possede en fait aucun interet pratique. En cffet, si r on
construit le polynome de meilleure approximation, c'est pour calculer a son
aide Ies valeurs de la fonction. Si, au lien de ce polynome, l 'on obtient Q! (x)
pour lequel li Q! - fli ~ En (f) = IIQn - fli, le degre de proximite de
Q!Hx) et Qn (z) est sans rapport avec le but a atteindre.
Fixons n +1 points x 0 , • • • , Xn E [a, b] distincts. Soit Sit un point de
coordonnees (Q~ (zo), ... , Q~ (xn»• Montrons que
Sk ~ S = (Qn (xo), ... , Qn (xn)) pour k ~ oo.

Supposons le contraire, i.e. qu 'il existe une suite partielle k (j) - oo pour
laquelle
p (Shd>, S) ~ y >O (9)
quel que soit j. p est la distance euclidienneJ usuelle. Les quantites I Q!(xi)I
sont uniîorm.ement bornees par suite de 1'inegalite
I/ (x) - Q!,(x) I~ D1.
Par consequent, l'ensemble des points Sk<i> est contenu dans une portion finie
de l'espace a (n_+ 1.) dimensions et .est un compact. On peut donc isoler de
§ 7) DTHODE IT:8RATIVE 231

la suite Sk<i> une suite partielle Sk<i<m» convergente vers une limite
S 0 = (b 0 , ••• , bn) lorsque m-+ oo.
Le polynome d'interpolation de degre n pour Q!
(x) et Ies points x 0 , ~ •• , xn
co'incide avec lui-mâme; en recourant a la formule du polynome d'interpolation
de Lagrange, on a
n
Q! (x) = 2} Q! (x1) (J)i (x) (10)
i=O
avec
X-XJ
ffii (x) = II X1,-Xj
N-:i
Puisque Q!(i(m))-+ bt pour m-+ oo, la relation (10} donne
n
Q!(j(m))-+ ~ b i(J)i (x) = Qn (x} (11)
i=O
uniformement sur (a, b] pour m-+ oo. On a

IIOn-/11 < li Qn-Q!<i(m)) 11+11 Q!(i(m))_/ 11·


Lorsque m-+ oo, le premier terme tend vers zero d'apres (11), et le deuxieme
vers En (/), comme le veut (8). Aussi
li On - f li ~ En (/).
Le theoreme d 'unici to du polynome de meilleure approximation uniforme
eutraîne

Par consequent,
Q!(j(m)) (x;)--+ On (xi)= Qn (xi}
quel que soit i. Cela signifie que Sk<i<m» --+ S, ce qui est cootraire a (9). Ainsi,
on vient d'etablir que Sk--+ S pour k--+ oo. (11) entraîne alors que Q! (x)--+
--+ Qn (.x) uniform.ament sur [a, b]. C.Q.F.D. .
Pourquoi prendre q0 < 1? pourra-t-on demunder; Est-ce que q0 = 1 n'est
pas la meilleure valeur? L'estimation (8) serait alors plus precise et, a ce qu'il
paraît, le processus iteratif convergerait plus rapidement. La question du choix
de C/o pour chaque classo concrete doit etre tranchee par des calculs experimen-
taux. Dans cet algorithme le plus gros travail est necessite par la resolution
du systeme (2) et le. choix des points xr
Ce choix depend a son tour de la com-
plexite du calcul des valeurs de / (x). Si ces dernieres se calculeilt sa:ds trop
de difficulte, il est tout indique de prendre le plus grand q0 • 11 ne faut pas non
plus perdre de vue qu'aux premieres etapes de l'approximation nous sommes
loin de la solution cherchee et certaine deterioration de la precision de l'algo-
rithme est donc permise quî allege Ies premieres iterations.
Ainsi, on modifie parfois l'algorithme decrit plus haut. A cette fin on fait
corrcspondre a tout m naturel un Wm: O < Wm < 1, et l' ensemble Mm des
points du segment [a, b]: y1 , ... , YN(mr On exige de plus que pour m--+ oo
le uombre de points y1f tombant dans tout segment [a1 , b1 ] c [a, b] tende _vers
232 APPROXIMATION DES FONCTIONS ET PROB~MES CONNEXES [CH. IV

l'infini et que wm-+ 1. L'algorithme qui permet de trouver d'une fa~on appro-
chee le polynome de meilleure approximation consiste a construire l'un apres
l'autre des polyn6mes P':: (x) verifiant Ies conditions suivantes: on choisit,
parmi Ies points y1_f, n +
2 points yf0 < ... < y1f." tels que Ies signes do
n+i
f (y1f) -
h
P-: (y'{')
h
different aux points suivants et que

min . I / (yfk) -
O~h~n+1
P:' (yf'h) I > Wm 1~ ~aNx(m) I / (yf) -P1: (yi) I•
~t~

Le polynome P1;: (x) est le point de depart des approximations du polynome


p:+ 1 (x). L'algorithme iteratif de recherche de P:i (x) ressemhle exactement
a l'algorithme de calcul du polynome de meilleure approximation uniforme
pour Ies polyn6mes consideres sur tout le segment [a, b]. La seule difference
est quc Ies points xt sont choisis parmi Ies elements de l'ensemble Mm· Un cas
assez repandu est celui ou Mm est l'ensemble des points de maximum des poly-
nomes d e Tce h b ych eff MOm: Yim = -a+b I b-a ( i-1 ) a~ ,
2- . -2- cos n N(m)-t . ~ne-
A

ralement N (m) = spm +


1 (s, p entiers) ; alors M!!i c M!!i+ 1 ; Ies valeurs
utilisees le plus souvent sont s = n +
1 et p = 2.
On remarquera que notre description du programme standard de recherche
du polynome de meilleure approximation uniforme est loin d'etre exhaustive.
En particulier, ii est possible de determiner ~ soit a l'aide du tableau de toutes
Ies valeurs de/ (z) - Q!
(z) aux points de l'ensemble Mm, soit par un procede
plus rapide mais moins sur; nous n' avons pas non plus indique comment choisir
Ies wm.

§ 8. Eeriture du polynome
Citons le cas d'un programme general de meilleure approximation
uniforme qu'on a mis au point pour Ies approximations par des
polynomes de degre peu eleve, puis introduit dans la bibliotheque
de programmes generaux. Lorsqu'on a essaye d'operer avec des
polynomes de degre eleve, le programme s'est parfois arrete sans
donner l'approximation voulue ou bien s'est deroule trop longtemps,
et a entraîne la suspension des calculs.
On a d'abord pense que l'echec etait du a une grande erreur de calcul corn-
mise en resolvant le systeme d'equations (7 .2). On a donc abandonne le calcul
direct et determine Eh a partir de (7 .3). On a obtenu ainsi, compte tenu do (7 .2),
Ies valeurs de Q!
(x~). et les valeurs de O!
(x) necessaires a l'approximation
suivante ont ete calculees d'apres la formule d'interpolation de Lagrange

(1)

Le processus termine, le dernier des polynomes obtenus, a savoir Pn (x) =


= O! (x), a ete ecrit sous' forme habituelle
Pn (.:z:) = a0 + a x + ... +
1 anxn
§ 8] ECRITURE DU POLYNOME 233

puis on a fait imprimer Ies valeurs suivantes:


{aj} et en = li Pn (x) - f (x) li,
Cette solution s'est cependant averee insatisfaisante.
On a constate dans plusieurs cas une divergence sensible entre
Ies valeurs de / (x) et Ies P n (x) calcules par le schema ele Horner:
Pn (x) = a 0 x (a1 + X (a 2 + + ... +
X (an-l xan) . .. )). +
Cela tenait a ce que Ies I ai I etaient tres grands et affectes donc d 'une
erreur absolue importante.
n
Le fait est que pour nombre de fonctions la somme An = 2J I ai I
· J=O
croit inevitablement si I' approximation de la fonction par des poly-
nomes devient plus precise. On montrera plus bas que la vitesse
de cette croissance est fonction des proprietes analytiques de la
fonction a a pproximer.
Supposons qu'il y a une suite de polynomes
n(m)
pm (x) = ~ a"!'x1,
j=O 1

tels que
I/ (x) - pm (x) I~ 2-m sur [-1, 11, (2)
pm (x) n 'etant pas necessairement Ies polynomes de meilleure appro-
ximation uniforme. Supposons encore que Ies coefficients de ces
polynomes n 'augmentent pas tres vite: ·

(3)

THgoR~ME. Si une suite de polyn6mes pm (x) veri/ie les relations


(2), (3), alors la fonction f (x) est prolongeable analytiquement dans
le domaine ouvert de la variable complexeGcp0 , q, 0 = n (ce domaine ~:t!
est defini plus bas).
DEMONSTRATION, Consideram, Ies polynomes
Qm (z) = pm (z) _pm-1 (z) ;
par suite de (2) on a
I Qm (x) I-< I f (x}-Pm (.r.) I +I/ (.x}-Pm-t (x) I-< 3.2-m,
n(m)
I pm (z) I < ~ I a'J1 I= lm pour Iz I< L
i=O
Donc
I Qm (z) I < I pm (z) I+ I pm-t (z) I < lm-1 + lm < 2M2qm, I z I < 1.
LEMME.S i g (z) est analytique dans le cercle I z I <: 1 avec I g (z) I < M 2 sur
le contour du cercle el I g (z) I ,< M 1 sur le segment [ - ·1, 1], alors dans ce cercle
I g (z) I< M~2/n)cp(z)- t 111~-(2/n)qi(z), (4 )
\
234 APPROXlllATION DES FONCTIONS ET PROBL'tMES CONNEXES (CH. IV

q> (z) etant l'angle (non ortente) sous lequel on voit le segment [-1, 1] du point
z = z :t- iy.
Demontrons le lemme pour Ies points du dcmi-cercle K1 : Im z ~ O. Con-
siderons la fonction
w (z) ~( ! <p (z)-1} ln M1+ { 2- ! <p (z)) ln M2-ln I g (z).1.

q> (z) = :rt sur le segment [-1. 1], donc


w = ln M 1 - ln I g (z) I > O; (5)
l't
<p (z) =2 sur l'arc de carele, donc
w = ln M 2 - ln I g (z) I ~ O. (6)

Vu Ies egalites ln I g (z} I = Re ln g {z), on a

<p (z) =arg { :+! } =Im ln C~! ),


· les fonctions 1n I g {z) I et <p (z) etant harmoniques par rapport aux variables
z, y; par consequent, w (z, y) est harmonique elle aussi, et sa borne inferieure

Fig. 4.8.1

dans K 1 est atteinte sur le contour. Compte tenu de (5) et (6), cela equivaut
a. w (x, y) ~ O dans K 1 • D'ou
ln I g (z) I < ( ! cp (z) -1) ln M + (2- ! q, (z)) ln M
1 2•

En se debarrassant des logarithmes, on retrouve (4).


Applique a l'estimation I Qm (z) I le lemme donne
(2q+0-(2q+2> .!.) m
I Qm (z) I< (3-2-m)« 2ln)cp- i) (2M •2qm) 2 -( 2/n)rp < 3M2 ( n • (7)

Designons par Gfi' un domaine ouvert limite par des arcs de ecrele d 'ou l'on voit
le segment [-1, 1] sous l'angle <p (voir fig. 4.8.1). Puisque la fonction 2q 1- +
- (2q 2) + !
decroît avec[la croissance de cp et qucde tous Ies points du domaine
§ 8) tCRITURE DU POLYNOME 235

Gq, le segment [-1, 1) est vu sous un angle egal au moins a q>, l'inegalite (7)
est verifiee en tous Ies points do Gq,. Soit <p 0 une solution de l'equation

(2q +1) _· (2q + 2) .!!


n
= o, (8)

c.-a-d. que <ro=n ~:!!. Prenons un q,1 ><po arhitraire. On a immediatement


m m
IPm(z)l<IPO(z)I+ 2] IPk(z)-Ph-i(z)l=IPO(z)I+ 2] IQ"(~)j.
h=t k=1

Conformement a (7), on a pour tous Ies points du domaine <I;.p


1
:

00
{2q+1-(2q+2) ..!L) m
IPm(z)l<~axjPO(z)I+ ~ 3M·2 n =M(<p1).
Gq:, k=i
1

M (<p1 ) est fini, car pour <p1 < <p 0 le coefficient de m de l'cxposant est negatîf.
Ainsi, pour z EGcp 1 l'estimation I pm (z) I ~ I M (<p1) I est uniforme en m.
Rappelons une assertion hien connue. Soient Im (.z) des fonctions analytiques
dans le domaine ouvert G simplement connexe et uniformement bornees en
module: I Im (z) I ~ C. Supposons que la suite de valeurs de Im (z) converge
sur un ensemble de valeurs de z E G possedant un point d'accumulation z0 E G.
La suite Im (z) converge alors vers une.fonction / (z) analytique dans G, I f (z) I ~
:s;;; C. Cela signifie, dans natre cas, que la suite de polynomos pm (z) converge
uniformement vers uno certaine fonction h (z) analytique dans Gcp,• 11 en resuite
que la fonction f (x) definie sur [-1, 1] est prolongeahle en tant que fonction
analytique a tous Ies points du domaine ouvert Gq, 1 • Etant donne que <p1 > q> 0
est quelconque, elle est egalement prolongeable a tous Ies points du domaine
ouvert Gq:,0 • Le theoreme est demontre.
Quels sont Ies resultats pratiques de ce theoreme? Si le nombre
a est ecrit en virgule flottante avec t chiffres binaires, son erreur
peut depasser I a I 2-'- 1 ; au pis aller, si les coefficients a1f donnent
lieu a des erreurs de mâme signe, l'erreur sur la valeur
n(m)
pm (1) = ~ a'!'
i=O J

qui resuite des precedentes, peut etre superieure ă.


n(m)
( ~ Iai I) 2+ 1 = lm2-t-t.
i=O
Pour se faire une idee de l'influence qualitative de cette erreur,
supposons que le nombre m figurant dans (2), (3) et t sont grands.
Soit / (x) une fonction analytique dans un domaine Gq, et qui ne
l'est dans aucun Gcp pour cp < cp 0 • Admettons que q 0 corr;spond a ce
<p 0 se1on
(S) , 1.e.
. q0 = 22q>o-n
(n-q>o) •
p renons un q < q qu.elconque.
0

En supposant l 'inegalite lm ~ zqm verifiee pour tout m, en vertu


I

236 APPROXIMATION DES FONCTIONS ET PROBL°BMES CONNEXES [cH;, IV

du theoreme, / (z) est analytique dans un Gcp correspondant ~pur


cp < q, 0 , ce qui constitue une contradiction avec l'hypothese !!sur
Ies proprietes de f (z). Ainsi, ii existe des m aussi grands que fon
veut et tels que lm ~ 2qm; par consequent, pour un concoursi de
circonstances defavorable, l'erreur commise en arrondissant a'f ~;eut
depasser 2qm2-L 1 • D'autre part, on ne saurait esperer une estima~ion
de l 'erreur meilleure que (2). En ce qui concerne l 'erreur to~lale
resultant de la substitution de pm (x) a / (x) et des erreurs sur Ies
coefficients du polynome, la meilleure estimation est bien e (m) =
= 2qm2-L 1 + 2-111 • L'equation du point d'extremum de la foncţîon
e (m) s'ecrit:
e~ (m)= q ln 2·2qni2-t- 1 -ln 2.rm= O.
t t
2
D 'ou' 2m -- ( q )q+t 2q+t ·, portant cette va leur d ans l' express10n
· dc
e (m), il vient

! + ( !)-q+i 2-q+i :::: q-ţt (!t+1 2-q+t.


q t t t q '
e (m)= ( r+12-q+J2-1

Donc, en travaillant avec des nombres de longueur t, la fonct;ion


ne sera approchee qu'a ~ 1 chiffres pres au plus. Par exemple, P,our
q.....-

+!
la fonction / (x) =, 1 5 xz , la borne inferieuro do cp tels quo f (z)
soit analytique dans le domaine Ger, est q,0 = 2 arctg 0,2; donc q 1 ~ +
~ 3,2. Une machine d'une capacite de 60 chiffres binaires ne 1.;ous
permet donc dans le meilleur des cas d'approcher la fonction qu'a
20 chiffres exacts pres.
Ces considerations nous incitent a rechercher, pour les polynon;ies,
des formes d 'ecri ture et de calcul plus simples.
Voici un argument en faveur du caractere exceptionnel de cet etat de choses.
On approche d'ordinaire des fonctions entieres ou celles presentant des singu-
larites a une grande distance du cercle unite; Ies raisonnements ci-dessus ne
donnent pas alors Jieu a des conclusions tellemcnt pessimistes. Formcllement
cela est vrai. Cependant, tout en etant entieres analytiques, ces fonctions c1rois-
sent souvent de fa«;on tres rapide avec la partie imaginaire de !'argument. l~ien
que Ies quantites ln I'estent uniformement hornees en n, elles peuvent atteindre
des valeurs si grandes que I ln I 2-1-1 est sensiblement superieur ă la precision
I
voulue. Citons ă titre d 'exemple la fonction <p (x) = ) exp (i xt2 ) dt pour
o
 grands.
Considerons Ies polynomes de meilleure approximation edrits
sous forme de somme de valeurs des polynomes de Tchebycheff
n
Pn (x) = ~ d1T1 (x) ; ' (9)
j=O
§ 8] ECRITURE DU POLYNOME 237

on a
1
~ \ Tn(x)Tm(x)_dx={ 2 pour n=m=O,
n } 1 V1-z2 cSn-m pour n2 +m2 >0.
Aussi
1 p2 ( ) n 1 2 ( n n
2 )
n
n x
Vt-z!
dx-- ~ ~ I d1 12
n
j T; x) d X= 2d2O+ ~ d2j.~
-.r--
v 1-x!
. . . _ ~ d2j•
-1 i=O -1 i=1 j=O

Utilisons l 'inegalite de Cauchy-Bouniakovski

~ld1i=~i-ld1l~v (~1)-(~dn=V'(n+t)~dr-
;=o j=O i=O j=O i=O
11 en resulte
n
" ' J d1 ,~
.:..J
V 2
-(n+
n r
1) J
1
-v- dx.
P;(x)
1-xi
j=O -1

On a pour la suite de polynomes realisant l 'approximation :


1 1
~ J-.r-- dx-+ ~ j -.r--
P!(x) f" d
x.
(x)
n V 1-xz n V 1-x!
-1 -1
n
On voit donc que 2j ld1 I ne croît pas plus vite que Vn. Puisque
;=o
I Tn (x) I~ 1, l'erreur sur le polynome, resultat des erreurs sur a1.,,
n
ne depasse pas une quantite de l'ordre de (~ I d1 I) 2-t = O (V"n2-t).
;=o
En pratique, on ne se sert generalement pas, pour approcher une
fonction, des polynomes de degres tres eleves, et cette estimation de
l'erreur fait bien l'affaire. 11 n'est certes pas obligatoire de repre-
senter les polynomes approximant la fonction par la combinaison
lineaire (9) de polynomes de Tchebycheff. Suivant le contexte, on
se decidera pour la combinaison lineaire de polynomes d 'un autre
systeme orthogonal, par exemple de polynomes de Legendre. Si nous
avons prefere Ies polynomes de Tchebycheff, c'est qu'ils se calculent
a l'aide des relations de recurrence particulierement simples.
Comment obtenir en pratique le polynome d 'approximation sous forme (9)?
On peut commencer A rechercher une approximation du polynome meilleur
approximant sous la forme
n
Q! (z) = ~ dfTJ (z)
i=O
238 APPROX.IMATION DES FONCTIONS ET PROBL'BMES CONNEXES [CH. IV

et a determiner les coefficients dJ a pariir du systeme lineaire d 'equations


correspondant a (7 .2) :

(on fait appel a cet effet a Ull algorithme stable de resolution des systemes alge-
briques lineaires).
Nous avons deja decrit un deuxieme procede qui aboutit a la forme (1).
Ne pensez cependant pas qu'unc fois (1) obtenue, on peut ecrire le polynome
sous la forme usuelle, puis passer a la representation (9). Si An est grand, le
polynome Pn (x) ecrit comme a0 + ... +
"nxn presente une grande erreur.
Celle-ci est hors calculs par rapport aux transformations ulterieures, si bien
que (9) la contiendra egalement. On pusse directement de (1) a (9) en sautant
l'ecriture usuelle: le systeme de fonctions Tn (x) de poids 2/(nVi - :.i:2) etant
orthogonal. on a
l l
ao= _!_ f Qn (x) dx, a1=.! r Qn(x)Tj(X) dx.
n: J 1/
-1
1-x2 n J V t-x2
-1

Dans le cas considere, le degre des polynomes Qn T i (x) est au plus 2n. Aussi
la formule de Gauss-Hermite a (n +
1) points est-elle exacte pour ces integrales:

n+t
1
ao = n+t- ~ Qn (Y!+1), (10)
g=1
pour j > O; ici

q 2q-1 )
Yn+1 = cos ( jt 2 (n+1) ,

Ies valeurs neceşsaires de Qn (Y!+t> etant trouvees par la formule (1).


Remarquons que le processus iteratif permet le procede combine suivant:
Ies points x~ • .•• , x!+t etant donnes, Ies polynomes O!
(x) sont recherches
par la methode decrite sous la forme (1). Puis, a l'aide des relations (10), on Ies
met sous la forme (9), en vue d 'une recherche plus econome des points x~+ 1 •

Resumons la marche a suivre pour calculer Ies valeurs du poly-


nome Pn (x) sur [-1, 11 en negligeant le probleme de meilleure.
approximation des fonctions.
n
Soit ~ a1x; Ia forme habituelle de ce polynome et supposons
j=O
n
qu'une erreur de l'ordre de(~ la1 I) 2-t soit admissible. On utilisera
i=O
alors le schema· de Horner

Pn (x) = a0 + x (a + x (... + x (an-i + xan)


1 ... )).
§ 9) PROCtD~S DE CALCUL DES FONCTIONS ~L°8MENTAIRES 239

Sinon on obtiendra la representation


n
Pn (x) = ~ d;Ti(x).
;=O
Pour diminuer le nombre d'operations effectuees pour trouver
Pn (x), on procedera de la fa~on suivante. Posons
-d. ~
D o- D - d1-d1+2
o-Ţ,. J- 2

pour J. = 1, ... , n - 2 , Dn-1 = --dn-t


2
- , Vn = 2dn •
En calculant Pn (x), on trouve y = 2x, Vn-l = YVn Dn-i, puis +
successivement Vn_ 2 , ••• , v0 = Pn (x) selon la formule de recur-
rence vk = yvk+ 1 - vh+2 +
Dk. L'erreur de calcul de cet algorithme
est, on le sait,
O .(n (min (n, V _1 _ ) ) ( max (Pn (x))) 2-t).
1-zi (-1. 1]
PROBLBME. Verifier que vo=Pn (z).

§ 9. Procedes de calcul des fonctions elementaires


On recourt souvent aux polynomes de meilleure approximation pour appro-
cher .des fonctions issues de l'experience ou de calculs compliques si toute infor-
mation complementaire sur Ies proprietes deces fonctions fait defaut. En presence
d'une telle information, la fonction d'approximation la plus rationnelle peut
bien etre d'un type different.
Ainsi, s'agissant des fonctions elementaires, l'on possede une information
abondante sur leurs proprietes analytiques, ce qui permet de reduire considera-
blement la masse de calcul.
Considerons un programme standard de calcul de ln z. z s'ecrit: z = 2PX,
!
ou ~ X ~ 1, i.e. on travaille en binaire; par ailleurs ln z = p ln 2 + ln X.
On calcule ln X a l 'aide de la serie
co
1 ( X-1 )2k+1
lnX= 2 ~ 2k+1 X+1 •
h=O
Si ! ~ X ~ 1, ses termes decroissent plus vite que 3-k, tandis que la decrois-
sance de la serie elementaire

ln X=~
co

(-t-i (X-f)h
h=O
est de l'ordre de 2-hJk. Pour accelerer la convergence on pose X = y/'J.. et
on calcule 1n y en recourant a la serie
co
"'1 1 ( y-1 )2k+1
lny= 2 LI 2k+1 y+i ;
k=O
240 APPROXIMATION DES FONCTIONS E'l' PROBL:EMES CONNEXES [CH. IV

 est tel que la quantite u = max


1
I!+! I soit minimale. Ceia donne Â. =
2!::X~t
= -V2 et u < 0,172; la formule de calcul se recrit
00

ln x = ( p- ; ) ln 2 + 2v ~ 2k ~ 1 v k,
2

k=O

V
V2X-1
y2x+1 ·
Afin de reduire le nombre de termes pris en consideration dans l' expression
00

~ 2
k~ v28 , cette [derniere expression fait place au polynome de meilleure
1
k=O
approximation ouia un polynome prochesurla partiecorrespondantede l'inter-
valle de variation de v. Dans notre cas la formule
ln z ~ (p - 0,5) ln 2 + v (2,000000815 + 0,666445069v2 + 0,415054254v4)
est en erreur de 3 .10-s au plus.
Certains constructeurs basent Ies programmes usuels de calcul des fonctions
elementaires sur la representation de celles-ci par des fractions continues ou sur
leur approximation par des fonctions rationnelles. La fonction tg x peut donc
âtre calculee sous la forme de la fraction continue

tgx= :z:
,x2
1---
3-x2
-5---.-
..-
Un autre procede repandu est l'approximation rationnelle de la forme
Pn (x)+Qm (x)
Pn (x)-Qm (.x) •
Par exemple, l 'approximation
12 (x2 +10) +x {x2 +60)
exp x ~ 12 (x2 + 10)-x (x2 + 60)

garantit une precision de 9-10-9 pour I x I ~ ~ .


1 2

On aurait de la peine a imaginar toute la diversite des methodes employees


lors de la redaction des programmes usuels de calcul des fonctions elementaires.
Les methodes sont largement tribitaires de la capacite de la machine, du degre
de precisţo~ impose, du ,te!Ilps des operatio_ns arithmetiques elementaire~, etc.
· Cons1derons un procede de ce genre, qu1 va nous permettre (c'est d'a1lleurs
la raison pour laquelle nous l 'avons prefere aux autres) de discuter une fois
de plus le probleme de l' erreur de calcul.
Les fonctions elementaires les plus simples verifient les relations de recur-
rence de la forme
I (x) = F (f (G (x))) (1)
avec F et G qui se calculent aisement, O~ G' (z), O~ G (z) ~ qx pour O~
§ 9] PROC~DES DE CALCUL DES FONCTIONS :8L:8MENTAIRES 241

~ :c ~ :c 0 , q < 1. En repetant l'operation n fois, on a


f(:c}=F(F( ..• (F(f(G(G( .•• {G(x)} ..• ). (2)
'--v--' '--v--'
n fois n fois
Posons
Gn (x}=G(G( .•• (G(x)) ... ),
'--v--'
n fois
F n (x) = F (F ( ••• (F (x)} ••. ) •
'--v--'
n fois
Grâce ă.
l'ecriture (2), l'approximation def (.x) sur le segment [O, .x0] se ramene
a son approximation sur le segment partiel [O, Gn (.x9)] avec Gn {.x0) ~ qnx0 •
Le segment considere etant petit, on aura une bonne precision pour un approxi-
mant de degre sensiblement moindre.
Citons plusieurs relations de la forme (1):
exp x= ( exp
2
z )2 , cosx=2 cos ( 2
z )2 -1, ·
X
2tg2

r,
2
. x= 2 ( sm
sm . .x ) 1/ 1 ( . z ) , tg x
2 Y - sm 2 1-( tg;
cotgz= ! (cotg ; - cotg2
1
z ) , arctgx=2arctg
.
;
1+ 1+z2
,

• x = 2 arcsm
arcsm • ,
X

1
y 2 (1+-Vt z2)
Celle de cotg x paraît la plus seduisante vu sa simplicite. Une fois trouve
X
u = cotg , on calcule
2
1
. 2 u--; 2
Slll :.r:=--- , COS:.r:=--- , tgz=---.
1 1 1
u+- u u+-u u--u
Certaines deces formules sont assez compliquees, et on ne Ies utilisera qu'avec
circonspection. Les constructions citees determinant le schema de calcul sui-
vant. Cherchons une certaine approximation de / (x) sur [O, Gn (z0)], disons
par un polynome ou un rapport de deux polynomes. Calculons successivement
G1 (z) = G (x), G2 = G (G1 (z)), ••• , Gn (x) = G (Gn-1 (x)),
la valeur approchee /* ~ / (Gn (z)),
F 1 (/*) = F (/*), .•• , F n (/*) = F (Fn-1 (I*))
et posons f (:c) ~ Fn (f*).
PROBL1l}ME. Supposons qu'on n'arrondit pas et que sur le segment [O, Gn (z0)]
la fonction / (z) est approchee par une serie partielle de Taylor de q termes.
Demontrer queJpour e petits on peut choisir net q lies de l'ordre de O (Vln (1/e))
et tels que l'erreur sur·les valeurs approchees de / (.x) sur [O, z 0] ne soit pas
superieure a e.
16-01007
242 APPROXIMATION DES FONCTIONS ET PROBLfil!ES CONNEXES [CH. IV

Sur !'exemple de la fonction exp x attirons l'attention sur l'eventualite


d'une croissance indesirable de l'erreur de calcul lorsqu'on cherche Fn (!*).
Moyennant l'egalite exp x = 2P exp X avec

P = [ 1:2 ] ' X= { 1:
2 } ln 2,
le probleme se reduit a rechercher Ies valeurs de exp x sur le segment [O. ln 2);
{} designe la partie fractionnaire. On a ·
X 2n X z
= ( ... ( exp { Ţn) ) ... } .
2
exp X= ( exp Ţn )

Quelle que soit la fa~on dont on calcule exp ; , on les arrondit toujours, ct leur
erreur peut depasser 2-t-1 (t ctnnt la longueur des nombres manipules). Au lieu
de la valeur exacte ( exp FX }2n, on arrive acelle approchee ( ( exp ]n)
X
+ e )2n.
Conformement a la formule de Lagrange yf - yf = NyN-i (y1 - y 2), avec y
compris entre y 1 et y 2 • Aussi. dans le cas considere. on commet une erreur
X ) _) 2n_ 1 _
2"e ( ( exp n
2
e +
avec I e I ,< e.

Le dernier facteur est au moins 1, et l'erreur peut donc depasser 2n-t-1 . En


general, les programmes usuels doivent garantir une precision des valeurs de la
fonction de l'ordre de 2-t. Pour n grands, l'erreur est par consequent inadmis-
sible.
Dans notre exemple Ies possibilites d'ameliorer la precision sautent aux yeux.
k.
Le nombre uk = ( exp ; }2 s'ecrit en binaire: 1, ~ ...
n-k rois
Ainsi, n - k +
1 chiffres sur t servent a memoriser l'information qu'on con-
naît deja. C'est pourquoi, il est peut-etre possible d'ameliorer la precision
des calculs en rempla(}ant cette information par une information essentielle.
Pour ne pas avoir a garder ces caracteres binaires connus, introduisons la fonc-
tion v (X)= exp X - 1. La relation (1) s'ecrit alors v (X)= v ( ; ) ( 2+v X

X { ; ) ) • Les valeurs v ( ; sont au plus 21 -n. Si elles comportent une


)
erreur de l'ordre de O (2-n-t). l'erreur sur v (X), donc sur exp X = 1 v (X), +
sera de l'ordre de O (n 2-t). Nous laissons au lecteur le soin de verifier ce resultat.
2
Pour cette mâme raison la formule de recurrence cos x = 2 ( cos ; ) - 1
n'est pas valable. Au lieu d'utiliser directement cette formule. on posera u (x) =
= 1 - cos x et on calculera Ies valeurs de u (x) par la formule de recurrence
u (x) = 2u ( ; ) ( 2 - u ( ; ) ) • S'il s'agit de la fonction ln x, on prendra

ln(1+x)=2 ln
·
(1+ 1+V1+x )
au lieu de la relation simple 1n x = 2 ln -Vx.
On constate la meme perte de precision si l'un des nombres f (O) (comme
dans le cas de exp x) ou lim Gn (x) (comme dans le cas de ln x) est fini et non
n➔ oo

nul.
§ 10) VITESSE D'APPROXIMATION DES FONCTIONS 243

PROBL:8:MES. 1. Effectuer des constructions analogues pour f (x) = arc cos x.


2. Verifier que Ies relations de recurrence destinees au calcul de
sin x, tg x, cotg x, arcsin x
ne necessitent pas de telles transformations.
3. Supposons que Ies valeurs des fonctions elementaires sont calculees
sur une machine utilisant la representation binaire en virgule flottante avec
t chiffres, t grand. Supposons encore que Ies exposants des nombres sur lesquels
on travaille sont illimites (de pareilles machines n'existent pas, mais Ies con-
traintes sur l'exposant des nombres dans Ies calculateurs modernes sont telles
qu'on neglige souvent la finitude de l'exposant maximal). Demontrer qu'en
approchant- / (x) sur le segment [O, Gn (x 0)] par une serie partielle taylorienne de
longueur q pour un choix convenable de n et q (de l 'ordre de "Vi) et une ecriture
adequate des relations (1), on peut indi<Juer Ies algorithmes de calcul des
fonctions elementaires susmentionnees dotes de caracteristiques suivantes:
un volume de calculs de l'ordre de O (Vt), une erreur sur Ies valeurs approchees
de l'ordre de O (l/tf2t) *).

§ 10. Vitesse d'approximation des fonctions


de differentes cl'asses
On seproposemaintenant d'etudierla vitesse d'approximation par despoly-
nomes et des fonctions rntionnelles
ao+- .. +anxn
Rn (x)
bo+- .. +bnxn
selon Ies proprietes d'analyticite et de derivabilite des fonctions A apyrocher.
II s'agira en l'occurrence d'approcher des fonctions donnees sur -1, 11
par des polynomes et des fractions rationnelles et des fonctions periodiques de
periode 2n par des polynomes et fractions trigonometriques. Soient
li! ll1 = sup lf (x) I,
[-1, 1]
li f ll2 = sup I f (x) I
[O, 2:t]
Ies normes respectives.
Les theoriciens ont generalement affaire aux classes types de fonctions
suivantes: Cr (M, [-1, 11) (rentier), la classe des fonctions possedant sur [-1, 1]
des derivees /<l>, l=O, ... , r-1, continues, Ia derivee J<r> continue par
morceaux et telles que I f<l> I ~ M pour l = O, ••• , r; H,. (M, 2n),
la classe des fonctions de periode 2n dont Ies derivees verifient
Ies mâmes conditions; A (M, G), la classe des fonctions prolongeables analyti-
quement du segment [-1, 11 dans le domaine ouvert G simplement connexe
de la variable complexe et y satisfaisant a la condition I / (z) I M;<
A (M, k, 2n), la classe des fonctions periodiques de periode 2n qui peuvent
âtre prolongees analytiguement dans le domaine I Im z I < k et verifiant
dans ce domaine la condition I / (z) I ~ M.
Designons par EH Ies ellipses de foyers points de l'axe reel [-1, 11 et
dont Ies demi-axes forment la somme H > 1. Posons a (G) = sup H, ce qui
EHEG
veut dire que a (G) est la somme des demi-axes de la plus grande des ellipses
EH appartenant au domaine ferme G (fig. 4.10.1).

*) Une partie des raisonnements de ce paragraphe sont dus ă. S. Oussov.


16*
244 APPROXIM.ATION DES FONCTIONS ET PROBLSMES CONNEXES [CH. IV

11 n'existe qu'une transformation conforme et une seule de points fixes


- i et i qui represente G sur l'interieur d'une ellipse de la familie EH- Notons
p (G) la valeur de H correspondant a cette ellipse.
Introduisons Ies notations suivantes:
tn (/) : erreur dans la meilleure approximation uniforme par Ies polynomes
trigonometriques
n
T n (z)=ao+ ~ (a; cos iz+b1 sin jz),
;=1
tn = inf li f-T n ll2 ;
a;, bJ
rn (f) : erreur dans la meilleure approximation uniforme par Ies fonctions
rationnelles Rn(z) 1
+'1++•+~:n n., rn,(/)= inf li /-Rn.ll1;
1z . . . nZ a , bi
1

Fig. 4.10.i

en (/)=li f-L, ll1, ou L~ (z) est un polynâme d'interpolation de ~egre n


base sur les points de Tchebycheff
cos ( n 2m+1)
2
n+ 2 , _m=O, .•• , n;
't'n (/)=li f-T, 11 2, ou T' est un polynâme d'interpoiation trigonometrique
de degre n base sur
2nj • O 2
z1=2n+1' 1= ' ... , n;

Pn (/): erreur dans la meilleure approximation uniforme par Ies fractions


trigonometriques
n
ao + ~ (a1 cos iz+ b1 sin /z)
J=i
+l1 (cj cos;z+b1 sin jz)
n
1
§ 10] VITESSE D'APPROXIMATION DES FONCTIONS 245

On a Ies estimations suivantes: pour la classe Cr (M, [-1, 1]):

n
E (/)=O ( :r ), 8n (/)=O (1:: ), Tn (/)=O ( !r );
pour la classe H r (M, 2n) :
tn (/) = O ( :r ), 'tn (/) =O ( 1 !rn ), Pn (J) = O ( :r· ) ;
pour la classe A (M, G) :
En (/)=0 (M (a (G))-n), (1)
8n·(/)=0 (M (a (G))-n),
Tn (/}=O (M (~ (G))-n) ;

pour la classe A (M, h, 2n) :


. tn (/)=0 (Me- 2 hn),
'tn (/) =0 (Me-2hn),

Pn (f) "=::= O (Me-2hn).


L'approximation par Ies fonctions ratfonnelles trigonometriques
n
ao+ ~ (a,cosjx+bisinjx)
r-1
n
1+ ~ (c1cosjx+djsinjx)
j=1 .

est interessante lorsque la fonction periodique est prolongeable analytiquement


dans un domaine de la variable complexe autre que la bande I Im z I ::::;;; h.
La majorite des fonctions qu'on approche sont analytiques; les estimations
ci-dessus attestent que pour de telles fonctions la meilleure approximation
uniforme ne donne aucungain sur l'ordre de l'erreur par rapport a l'interpola-
tion utilisant les points de Tchebycheff.
Si le domaine d'analyticite est l'une des ellipses En ou, dans le cas perio-
dique, la bande I Im z I ::::;;; k, le cout de la meilleure approximation rationnelle
est envjron deux fois plus ,eleve tandis que le gain sur l'ordre de ,l'estimation
est nul. Si le domaine d'analyticite est essentiellement autre, l'approxim.ation
a l'aide des fractions rationnelles ou des fonctions rationnelles trigonometriques
peut donner lieu a un gain.
Le gain est particulierement important si a (G) = 1. Soit en effet / (x)
une fonction analytique en tous Ies points du segment [-1, 1], sauf en un nombre
fini de points, et satisfaisant a la condition de Holder. avec un  > O:
I f (x1) -. I (x2) I ~ C I X1 - x2 IA.
La fig. 4. 10.2 represente un domaine d 'analytici te correspondant A ce cas.
On dit alors de En {/) que
En (/)=O (n- 0 ), a= a (Â) > O.
Par ailleurs,
c>O.
La meilleure approximation pour des fonctions rationnelles Rn (x) est
pratiquement difficile a obtenir, car Rn (x) depend de fa~on non lineaire d'un
grand nombre de parametres. On appliquera donc dans certains cas des procedes
mixtes tels que ce nombre soit essentiellement moindre. On utilisera parfois
246 APPROXIMATION DES FONCTIONS ET PROBL'EMES CONNEXES [CH. IV

des approximations de la forme


Pn (Pm (x)), Pn, Pm polynomes,
Pn (x)
---'--.....;..-, p net Qm po l ynomes,

11-=ml,
(Qm (x))l
Pn. (Rm (x)), Pn polynome et Rm fraction rationnelle.
L'erreur sur la meilleure appro:x:imation par de telles fonctions se note
respectivement
Enm (f), Tnm (f), enm (f).
Prenons le cas d 'un domaine G de frontiere courbe analytique. Si a (G) > 1,

Fig. 4.10.2 Fig. 4.10.3

on evalue alors de la fa~on suivante l 'erreur pour Ies fonctions de la classe


A (M, G):
enm (f) ~ Enm (/) = O (M~ (G)-n) pour m ~ y (G) ln n;
et
pour m ~ 1J (G) ln n.
Si a (G) = 1 mais tout point de Pintervalle (-1, 1) est un point d'analy-
ti~ite (fig. 4.10.3), on a pour m ~ x (G) ln n l'estimation
r nm. (/) = O (MfJ (G)- Vn), fJ (G) > 1.
§ 11. Interpolation et approximation par
des f onctions-spline
L' approximation par des fonctions-spline est interessante en premier lieu
par l'appreciation qu'on en donne. Pour Ies uns, il s'agit d'une methode uni-
verselle de resolution des problemes de l'anaiyse numerique qu'on essaye donc
dans Ies domaines Ies plus divers. Pour d'autres, c'est une mode mathematique
passagere. La verite tient probablement le milieu; en tout cas le champ des
applications de cette methode ne cesse de s'elargir.
Nous parlerons, pour fixer Ies idees, de l'approximation d'une
fonction f (x) sur le segment [O, 1]. Partageons ce dernier en parties
[xo, X11, . . . , [XN-1, xN], Xo = o, XN = 1
§ Ul INTERPOLATION ET APPROXIMATION PAR DES FONCTIONS-SPLINE 247

et designons cette partition par 6.. On appelle fonction-spline


d'ordre m, et on la note Sf (J, x), une fonction formee de polynomes
successifs de degre m
sr (!, x) = Pnm (x) = ano + ... +
anmXm
pour Xn-l ~ x ~ Xn (1)
se raccordant jusqu'a la derivee (m- 1)-ieme comprise aux abscis-

(2)
pour k = O, . • . , m - 1, n = 1, . . . , N - 1.
On dispose en tout de Q = N (m +
1) inconnues anm, et Ies
relations (2) forment un systeme de (N - 1) m equations. Les autres
equations des coefficients s'etablissent a partir de la condition de
proximite de la fonction a approcher et de certaines autres conditions
complem~ntaires.
Considerons le probleme elementaire d 'approximation par des
fonctions-spline lineaires (m = 1). Alors le nombre total Q de
parametres libres est 2N. Proposons-nous de construire la f onction-
s pline Sl (/, x) coincidant avec f (x) aux abscisses x 0 , • • • , xN;
il vient le systeme d'equatio_ns
Pn1 (xn-1) = f (Xn-1), n = 1, ... , N,
Pn1 (xn) = f (xn), n = 1, ... , N.
11 se decompose en systemes d'equations relativement aux coeffi-
cients des polynomes
Pn1 (xn-1) = lino + an1Xn-1 = f (Xn-1),
P n1 (xn) = ano + lin1Xn = f (xn) •
D'ou
an1 = (J(xn)- f
(Xn-1))/(xn - Xn-1),:
ano = f (Xn-1) -
lin1Xn-1;
Pn1 (x), que nous avons rencontre plus d'une fois, est le polynome
d 'interpolation du premier degre base sur Ies points Xn-1, Xn•
S! (j, x) apparaît egalement dans le probleme suivant. Soit
S1 un ensemble des fonctions continues s (x) satisfaisant aux con-
ditions
1
s (xn) = / (xn), n ·~ O, ... , N, 1 1 (s) = ) (s' (x)) 2 dx < oo.
o
On demande de trouver une fonction s 1 (x) E S 1 realisant
inf / 1 (s).
sesi
248 APPROXIMATION DES FONCTIONS ET PROBLBMES CONNEXES [CH. IV

On recherche une fonction de norme minimale II s'. 11!.i!, i.e., dans


un certain sens, la fonction la plus reguliere de la famille 8 1 se
confondant avec f (x) en Xn• Pour cette fonctionnelle l'equation
d'Euler s'ecrit s" (x) = O. Donc, s1 (x) est lineaire sur chacun des
segments [xn-1, Xnl, et, par consequent, .
s1 (x) = Si U, x).
Cette approche de l'approximation d'une fonction, qui engendre
tout naturellement la fonction-spline Si (!, x}, peut âtre devoloppee
comme suit. · · ·
On recherche la fonction d 'approximation dans l'espace des
fonctions plus regulieres. Soit, par exemple, l'ensemhle S 2 des
fonctions s (x) a la derivee premiere continue, qui satisfont aux
conditions
1
s(x11 )=f (x11 ), n=O, ·.. •: N, 1 2 (s)=) (s"(~)} 2 dx~oo.
o

On _demande de trouver une fonction s2 (x) E S 2 realisant inf 1 2 (s).


ses2
L'equation d 'Euler de cette fonctionnelle est s<4>(x) = O, i.e. s2 (x) =
= P 118 (x) = a110 + an1x+a112x 2 + a11 sX8 sur Ies segments [x11 _ 1 , x 11 ].
Le nomhre de parametres ank a determiner vaut 4N, le nombre de
conditions 3N - 1, dont 2N conditions
Pna (xn) = Pn+t,3 (xn) = f (xn) (3)
et N - 1 conditions de continuite de la deriv:ee premiere
(4)
aux points xu •.. , xN-i• Les conditions qui manquent s'obtiennent
comme des conditions aux limites naturelles en x 11 •
Afin de vous eviter la peine de consulter le chapitre correspon-
dant du calcul variationnel, deduisons ces conditions de fa~on inde-
pendante. Supposons que la fonction de minimisation s2 (x) existe .
et· est un polyn6me du troisieme degre sur Ies segments [x11 _ 1 , x11 ].
Soit· 11 (x) une f?nction indefiniment derivable:
(5)
Posons
1
F (t) = J(s; (x) + tr}" (x)) dx =
o
2

1 1 1

= J(s; (x))2 dx + 2t Js; (x) rt" (x) dx + t j (11" (x))2 dx.


2

o o o
§ ii] INTERPOLATION ET APPROXIMATION PAR DES FONCTIONS-SPLINE 249

1
Puisque, par hypothese, F (t) >F (O), alors F' (O)= 2 Js;(x) r( (x)
o
X

xdx=O.
Mettons la quantite B = F' (0)/2 sous la forme B = b1 + ... + bN,
xn xn
bn = j s; (x) rl" (x) dx = j P; 3 (x) T]n (x) dx,
Xn-t Xn-1
et integrons deux fois par parties l 'expression de bn. 11 vient
Xn

bn = JP~~ (x) T] (x) dx+ (P; 3 (x) T]' (x)-P;3 (x) T] (x)) 1::_1

Vu (5) et l 'egalite P~~ (x) = O, on a


bn = P; 3 (x) T]' (x) 1:n .
n-t
En sommant en n, on trouve
N~1
B = P'iva (1) Tl' (1) + ~ (P;3 (xn)-P;+1, 3 (xn)) r((xn)-P'ia (O) Tl' (O).
n=1
A vrai dire, nous n'avions pas le droit d'integrer par parties !'integrale
de depart B, le probleme de derivabilite de S2 (x) aux points Zi, • • • • ZN-1
n' ayant pas ete tr41nche.
Puisque B = O pour Tl (x) quelconque verifiant (5), ii en decoule
Ies N + 1 equations manquantes
P'~a (0)= PNa (1)= O, P';.3 (xn)-P;+1, 3 (xn) = O, (6)
n= 1, .•• , N-1.
Arretons-nous sur la resolubilite et la resolution pratique du
systeme d'equations (3), (4), (6). Pour plus de commodite, fai~mns
intervenir Ies quantites Mn = (xn)- Puisque s;
(x) est lineaire s;
sur lxn-i, Xn], on a
Xn -x + M
,, ( )- M n-1--;;;;- x-Xn-1
S _x - 2 n. hn Sur [ Xn-h Xn.,
] .

ici hn = Xn - Xn-i• Ces relations et les conditions


S2 (Xn-1) = f (Xn-1)., S2 (xn) = f (xn)
nous fournissent
-
s2 (x)-Pns (x)- Mn-1
- (Zn -z)3
ahn
I
-, Mn
(X-Zn-1)3
6hn +
+ (f (Xn-1} - n6th~ ) x\n x !
.li,[

+ (I ( )- Mnh~
Xn 6
} x-xn-t
hn sur (7)
250 APPROXIMATION DES FONCTIONS ET PROBL~MES CONNEXES [CH. IV

Les conditions
P~3 (xn) = P~+ 1 , 3 (xn), n = 1, ... , N -1,
constituent Ies equations
~M
6 n-l
+ hn+hn+t
3
M n + hn+t
6
M n+t _-
_ f (xn+1)- / (.xn)
- hn+t
(8)
On a de plus
PNa (xN) = O,
Pia (xo) = O,
i.e. M 0 = O, M N = O. Par la substitution de M 0 = O et M N = O
respectivement dans la premiere et la derniere equation (7) on
arri ve au systeme
CM =d (9)
de N - 1 equations a N - 1 inconnues :
M = (M1, ... , Af N-1)T, d = (di, • • ., dN-1)T.
Conformement a (8), les elements ci,;, i, j = 1, ... , N - 1, de la
matrice C sont donnes par

h,Jh,+1 pour j = i-1,

co= lr
3
hi+t
-6-
pour

pour
j=i,

j= i+ 1,
l pour li-il>1,
O
et Ies elements di de la colonne d par les relations
d· _ I (xi+1)- f (xi) /(x1)- f (xH)
' - ht+t ht
On montrera au eh. IX que ce systeme se resout par la methode du
balayage au bout de O (N) operations arithmetiques. Apres avoir
trouve M 1, determinons Ies polynomes Pn 3 (x) par la formule (7).
PROBL:BMEs. 1. Demontrer que la solution du systeme (9) vcrifie l 'inegalite

max
t~n<N-1
I M n I -< .3
mm h,n t<n~N-1
max I dn I ;
...._ t~n:s;N -.
ceci etant, montrer que le systeme d 'equations (3), (4), (6) possede une
solution unique.
2. Soit SX (J, x) une fonction-spline associee a la solution du systeme (9).
Demontrer que
/ 2 (J) = I,_ (S!) +
1 2 ( / - S!)-
§ 11] INTERPOLATION ET APPROXIMATION PAR DES .FONCTIONS-SPLINE 251

Cette proposition implique l 'unicite de la fonction s2 (.x) realisant le mini-


mum.
Ici la fonction-spline obtenue coincide avec / (x) en tous Ies
points, ce qui incite a donner a de telles fonctions le nom de fonc-
ti ons-spline d' interpolation.
On dispose souvent d 'une information supplementaire sur le
comportement de / (x) aux points x = O, x = 1. 11 se peut que
l'on ait a resoudre par exemple une equation differentielle avec Ies
conditions aux limites
/' (O) +a/ (O) = ~' /' (1) + y/ (1) = 6.
Celles-ci remplacent alors Ies conditions aux limites naturelles
donnant lieu aux equations. M 0 = M N = O.
Soit le cas ou Ies valeurs de/ (xn) sont donnees avec une certaine
erreur. II existe toute une serie de procedes naturels permettant
d 'approcher de telles fonctions generatrices de fonctions-spline.
a) Supposons quc ies valeurs donnecs f n et Ies valeurs exactes / (xn) vcrifient
1 /n - / (.xn} I ~ 6.

Le probleme peut s'enoncer comme suit: trouver une fonction s (.x) continument

Fig. 4.11.1

dOrivable avec J (s")• dx < oo qui tealise_ inl /, (s) sur la classe de fonctions
o
satisfaisant a I s (.xn} - f n I ~ 6. Le cofi.t de ce probleme est assez eleve. Aussi
prefere-t-on parfois rechercher -inf / 2 (s) parmi des fonctions telles que
N
~ (s {xn)-/n) 2 < C (N + 1) c52_ (10)
n=O

b) Les differences fn - f (xn) sont-, on le sait, des quantites aleatoires de


variance 6. Dans ce cas, on minimise egalement J 2 (s) dans la condition (tO) ;
le choix de c = O (1) se fait a partir du niveau de confiance donne.
II arrive souvent que les deux membres de (10) coincident au point de
minimum. de / 2 (s}. C'est pourquoi, au lieu du probleme de depart, on realise
252 APPROXIMATION DES FONCTIONS ET PROBL°BMES CONNEXES [CH. IV

le minimum libre en  et s de la fonctionnelle


N
J2{Â, s)=/2 (s)+Â( ~ {s(xn)-/n)2-c(N+1)62}.
n=0
La fig. 4.11.1 correspond â un cas concret d'approximation pour N = 100
et c = 0,9. Pour tout  fixe, la quantite
J {Â) =inf J 2 (Â, s)
4

est determinee en resolvant un systeme d'equations lineaires. On trouve inf J (A)


)..
par une methode de minimisation des fonctions d'une variable (cf. eh. VII).
L'experience accumulee (ou tout simplement le bon sens) peut nous suggerer
une valeur approchee de  correspondant au point d'extremum libre,  ~ Â0 ;
on se borne alors â minimiser la fonctionnelle J 2 (Â0 , s).
c) Un dernier procede d'approximation par des fonctions-spline. Soient fJ
Ies valeurs approchees de / (z1), j = 1, ... , M. Une 'information a priori
sur la fonction a approcher nous autorise a diviser le segment [O, 1] en [x0 , x1 J, •••
• . . , [xN-l• xN] avec N ~ M. L'approximation s'obtient sous forme de la
fonction-spline S'g (/, x) minimisant la fonctionnelle
M
~ Pi (s (x1)- /(xJ)) 2 •
i=1

§ 12. Entropie et e-entropie


On dira de fa~on conventionnelle que tout etre est donne par
deux sortes d 'information :
1) l'information sur un certaiJt ensemble auq'-el cet etre appar-
tient et · · ,
2) l'information qui repere l'~re en question parmi Ies elements
de l' ensemble. : . .
Ainsi, tel polynome de degr~ m est donne par 1) l'information
qui dit que c'est bien un polynoJl'.le de degre m, 2) le tableau de ses
coefficients.
Notre but est de discuter la quantite d 'information minimale
permettant de se donner Ies elements d 'un ensemble. Dans le cas
d 'approximation de fonctions, la tradition et la con;imodite des
calculs font en general opter pour la donnee d 'une fonction a I' aide
du tableau de ses valeurs. Cependant la quantite d 'information
minimale est un probleme qui doit etre aborda sous une optique
plus generale.
Supposons que l'ensemble G dont on veut se donner Ies elements
comprend · N elements g1 , • . • , gN distincts et que ceux-ci sont
donnes par un jeu de n caracteres binaires y1 , • . . , Yn = O, 1.
Pour pouvoir se clonner de fa~on univoque gk E G, il faut que N
ne soit pas· superieur au nombre de ces jeux. lls sont 2n e11: tout_,;
et la condition necessaire d'univocite est donc N ~ 2n. D'autre
part, pour N ~ 2n on peut faire correspondre a tout jeu y1 , • • • ,. Yn
§ 12] ENTROPIE ET. a-ENTROPIE 253

un nombra natural
n
j = 1+ ~ 2n-iYi• (1)
i=1
Si y1 , . • • , Yn variant, le nombre j parcourt toutes Ies valeurs de
1 a 2n; donnons-nous !'element g 1 par le jeu y1 , • • . , Yn definissant
j salon (1). log 2 N est appelee entropie H (G) de G. Designons par
J (G) le nombre minimal de caracteres binaires necessaires pour
determiner univoquement Ies elements de Get par y l'entier· le plus
petit non inferieur a y. Nous avons vu que ce nombre minimal de
caracteres binaires doit âtre egal a l'entier le plus petit n tel que
N ~ 2n, par consequent
J (G)= log2 N =H(G). (2)
PROBLtMES. 1. Demontrer les inegalites
q --
J <_U
1=1
G1) < log2q+ ~x J (G1),
1~,~q
(3)

q
J (G1 X ••• X Gq) <~ J (GJ), (4)
i=i
?< est te signe du produţt direct, i.e. les elements G1 X ••• X Gq sont les
Jeux (g , ••• , g'l) pour g' E Gi.
2. Donner des exemples concrets d'egalites ou d'inegalites strictes dans
(3), (4). .
3. On propose de choisir mentalement un entier compris entre O et 1000.
Pour le deviner, on pose des questions auxquelles on ne repond que par oui
ou non. Demontrer qu'au bout de dix questions on devine ce nombre, et au
bout de neuf non.
4. On a N boîtes semblables dont N - 1 sont de meme poids et une est
plus lourde. On autorise n pesees sur une balance sans poid~. Demontrer qu'avec
N ~ 3n il y a garantie de reperer la boîte la plus lourde et qu'avec N > 3n
on n 'y arrive pas.
5. II y a toujours N boîtes semblables mais toutes de poids different.
Evaluer l'ordre de grandeur du nombre minimal n de pesees sur une balance
sans poids tel qu'il soit possible d'ordonner les boîtes suivant leur poids.
R:8PONSB. n - log9 NI pour N -+ oo.
Soit maintenant G un ensemble compose d 'une infinite d 'elements.
En particulier, conformement a (2), tout nombre fini fixe de carac-
teres binaires est insuffisant pour donner de fa~on univoque Ies ele-
ments de G.
On pourrait cependant parler de la quantite d 'information mini-
male dont il faut disposer pour donner a e pres Ies elements de G
dans la metrique d 'un espace metrique F-, G E F. Voici le procede
pour se donner Ies elements g E G. g est determine par un certain
jeu de caracteres binaires y1 , • • • , Yn ; on fait eorrespondre au jeu
Y1, ... , Yn un element fu,, .... Un E F tel que p (fy,, .. .. fin g) ~ 8.
Notons J,, (G; F) le nombre minimal de earacteres binaires qui
254 APPROXIMATION DES FONCTIONS ET PROBL:EH\fES CONNEXES (CH. IV

determine, dans cette methode, Ies elements de G. Soit <I> une exten-
sion metrique de F, i.e. un espace metrique contenant F, telle que
pour toui couple d'elements / 1 , / 2 E F on ait
pF (j1, / 2) = P<t> {f1, f 2) ;
!'indice inferieur designe l'espace muni de la metrique en question.
Du moment que tout procede d'approximation de g par Ies elements
de F peut jouer pour approcher g par Ies elements de (J), on a
Je (G; <I>) ~ Je (G; F). (5)
Dans la suite l'espace F sera suppose fixe et !'indice correspon-
dant des notations sera pariois omis.
LEMME 1. Supposons que les elements / 1 , ••• , IN E F fonnent
un 8-reseau pour l' ensemble G. A lors
Je (G; F)~log2 N.
D~MONSTRATION. Selon le lemme, on peut faire correspondre
a tout g E G un certain fi E F pour lequel p (g, /J) ~ 8. Soit y 1 , • • •
. . . , Yn un jeu de symboles binaires correspondant a j d 'apres (1).
En se donnant le jeu y1 , • • • , Yn on determine par la meme !'element
fJ tel que p (g, IJ) ~ 8.
LEMME 2. Soit G' c G.J Alors Je (G'; <I>) ~ Je (G; <I>) quel que
soit <I>.
La demonstration est immediate.
G' est dit t1-discernable si la distance de deux quelconques de ses
elements est superieure a îl·
LEMME 3. Soit. G' c G avec G' 2e-discernable et compose de N
elements. Alors
log2 N <Je (G; <D),
ou <I> est une extension arbitraire de F.
D~MONSTRATION. II suffit de montrer que
log2 N ·<Je (G'; Cl>). (6)
Utilisant le schema du lemme 2 on obtient l 'inegalite cherchee.
Selon la definition du procede de determination des fonctions g
l'inegalite Je (G'; <I>) ~ n s'interprete comme suit. 11 existe M ~ 2n
elements <p1 , • • • , cpM E <I> verifiant la condition: il correspond a tout
g E G' un certain cp; tel que P<t> (g, <pi) ~ e. Un meme cp1 ne peut
correspondre a des g 1, gk EG' distincts. Un raisonnement par !'absurde
nous conduit a une contradiction vu Ies inegalites
28 < PF (gi, CA)= P<t> (gh gA)-<P<t> (gil cpi) +P<t> (gk, <pJ)~2e.
§ 12) ENTROPIE ET e-ENTROPIE 255

Ainsi, le nombre N d'elements de G' est au plus M, i.e.


N-<M-<2n=2Js(G'; <I>).

Nous avons obtenu (6) et demontre donc le lemme 3.


Faisons intervenir la quantite
Je (G) = inf Je (G; cD);
el>

la borne inferieure est prise sur l'ensemble de toutes Ies extensions


<I> de l'espace metrique F.
En bornant inferieurement sur cD, compte tenu des lemmes 1-3,
on obtient respeetivement
1) Je (G)-<Iog 2 N,
2) Je (G'}-<Je (G),
3) log 2 N <J s (G).

Les lemmes et leurs consequences donnent la possibilite de majorer


et minorer Je (G; F).
On appelle e-entropie He (G) de l 'ensenihle G Ia quantite log 2Ne(G),
ou Ne (G) est le nombre minimal d'ensembles de diametre e reeou-
vrant G. Si G est compact, on sait que
He (G) ~Je (G) ~ [He (G}] 1, +
la borne inferieure etant prise sur tous Ies <I> possihles.
Examinons. Ies exemples.
1. F est l' axe reel et G I' ensemhle de points
X E [O, 11, p (Xt, X2) = I X1 - X2 I-

Posons Ne= (~). Les points Bi 3e, ... , (2Ne - 1)e formant un
e-reseau. Aussi
Je(G; F)-<Iog2 Ne.
Selon la definition de Ne, on a (Ne - 1) 2e < 1, donc e' = !
(Ne -
- 1)-1 > e. Ne points O, 2e', ... , 1 forment un ensemhle 2e-discer-
nable et, eonformement au lemme 3,
Je(G; <l>)>log2 Ne.
On a en definitive

Je(G)=Je(G; F):-=log2( 28 ).
2. PRoBL:BME. Soit F un espace euclidien s-dimensionnel de_
points P (x1 , • • • , x 8 ), p (Pu P 2 } egal ~ une norme du vecteur
256 APPROXIMATION DES FONCTIONS ET PROBU~MES CONNEXES [CH. IV

P1P2 et G un ensemble de points appartenant a la boule p (P, O) ~


~ A 2 < oo et contenant la boule p (P, O)~ A 1 =:/= O. Demontrer
l 'egalite asymptotique .
Je (G) =s log2 ..!.+
8
O (1).
3. Soit G un ensemble de fonctions g (x) continues, definies sur [O, 1]
et telles que g (O) = O et I g (:z: 2) - g (z1) I ~ I x 2 - x1 I• On pose
P (/1, /2) = sup lft(t)-/2 (t) 1-
(0, 1]
L'espace le plus large pouvant contenir Ies approximations des fonctions de la
classe consideree est l'espace de toutes Ies fonctions definies sur [O, 1]. Desi-
gnons-le par F. Posons n = ( !}-
1, ce qui signifie ns< 1 ~ (n 1) e. +
Demontrons que J 8 (G; F) = n. D'abord nous obtenons l 'estimation
1 8 (G; F) ~ n. 11 est immediat que s' = _!_ >
s; faisons corespondre a tout
n
jeu de caracteres binaires y1 , ••• , Yn une fonction continue g 1/i. ..• , "n {x)
definie par les relations
1) g"t• ••• • 11n (O)= O,
2) sur le segment [(j-1) s', js'], la fonction g 11 ., (x) est lineaire et
1' • · ·• "n
, { isiu1=1,
(g 11 1' • • ·• 11n (x)) = -1 si YJ=O.
(7)
Puisque la derivee (g111 , ••• , "n (x))' est contin4e par morceaux on a
:.:2

Cyt, •• • , Yn (x2)-gY1, •. ·• 11n (x1)= J


:ici
(gl/1, ..• , Yn (x))' dx;

compte tenu de (7), il vient


I C111 , ••• , Yn (z2)-Cu1, .•• , 11 (x1) I< I X2-Xt I•
11

Ainsi, la fonction g11


1• • • ·• n
u (x) appartient a la classe consideree. Prenons
deux jeux distincts
(y{, ••• , Y!) et (Yi, • · ·, Y;).
11 existe evide:oiment un J < n tel que yf = yf
si t < J tandis que y) ;:/=- yJ.
Les fonctions g 1 l (x), l=i, 2, s'annulent des que x=O; si O<x<
111, •••,lln
~ (j -1) s', leurs derivees coincident en vertu de (7). Elles coincident donc
partout avec cette condition, en particulier, au point (j-1) s'. Sur le segment
. [(J -1) s', je'J, salon (7), la derivee de la difference de ces fonctions est
constante et egale a 2 en valeur absolue. Aussi ..,
;s'
g 1 1 (je')-g 2
ll1, •·•• lin
2 (js')=
111, .. ·• lin (i-1)s•
J (± 2) da:=± 2e'.
Ce qui veut dire
§ 12) ENTROPIE ET e-ENTROPIE 257

Nous lţvons donc 2" fonctions 2s-discernables. Par consequent


n < J e. (G ; F). (8)

Passons a la majoration. Posons e"= n!1. et considerons toutes Ies


fonctions continues / 11 u (z) (y1, ••• , Yn = O, 1), definies par
t• • • ·• n
fu t• • • •• 11n
(x)=O, O<z<s";
sur Ies segments [(j-1) s", fs"l, la fonction est lineaire et]
(/ (x))' = { 1 si YJ-t = 1,
11
Ut, ···• n -1 si YJ-t=O.
Puisque s" +ne"= 1, ces relations determinant cette fonction sur tout le seg-
ment [O, 1]. Montrons que l'ensemble de ces fonctions forme un s"-reseau.
A cette fin, fixons pour tout g (x) EG une certaine fonction f111 , ••• , Yn (x)
satisfaisant a p (g, / 11 ) <e". Determinons de proche en proche Ies
t• • • ·• 11n
valeurs Yh ••• , Yn correspondantes : notons que sur [O, /e"] Ies valeurs de
f11 (x) ne sont definies que par Yh ••• , YJ-t• Supposons connues
t• • • ·• 11 n
Yh ••• , y J-t telles que
(9)

pour O< x < js. 11 est inutile d'indiquer de telles valeurs pour ; = 1 car
pour toutes Ies fonctions de la. classe consideree sur [O, s"] on a
I g (x)- f 111 , ••• , Un (x) I= I g (x) I = I g (x)-g (O) I < x ,< s".
Ainsi, l 'hypothese de depart pour la demonstration par recurrence se trouve
verifiee.
Demontrons que pour le choix
1 si g ((i +1) s") > /Yt• ••• , 11J-t• •• •• 11n (je"),
YJ= {
O si g ((j +1)") < I Y1• ••• , 111-1• ••• '11n (fs"),
la relation (9) est egalement valable sur le segment [/s", (j +1) s"].
Considerons le cas YJ = 1_ et ecrivons
I g (x)-g(U+1)s I <lz-U+1) s" I•11
)

D'ou
g (x) > g ((j +1) s")+(z-(J+ 1) s") >{/111 , ••• ,
111_1, ••• , "n (/s')+(z-js")}-s"
pour /s" < z < (j +1) s". Par definition l'expression entre accolades est bien
ly1,••• ,y , ···,Yn (z); on trouve donc. .
1
g(z)>f111, ••• ,u,. ··••'Yn (z)-s" pour /s"<z<(l+t)s".
D'autre part,
g (z) < g Us") + (z- /s"),
et en substituant x = /s" dans (9), ii vient
l/111, ···•11J-t• ··••lin (/s")-g(js")l<s",
17-01007
258 APPROXIMATION DES PONCTIONS ET PROBLllKES CONNEXES CH. IV

donc

et
t(z)<f111 • ···•"i' ···•Yn (z)+s" pour ts•<z<(f+i)s",
ce qui donne enfin
I g (z)-1111 , ••••
111
, ••• , Yn (z) I <s" sur [js", (1+1) s"].
Le cas YJ = O se traite de faţon analogue. Nous avons ainsi fait un pas de plus
dans notre construction de la fonction_ /11" ••• , 11 n (:z:). En procedant de cette
maniere on peut arriver jusqu'a l'extremite du segment.
Vu que s" = n-~i ~ s, l'ensemble de 2n fonctions que nous venons de
construire constitue un s-reseau. Ces fonctions appartiennentle a G, ensemb
de depart. Le lemme 1 foumit donc
J 8 (G; F) ~ n. (10)
En reunissant cette estimation avec (8) on trouve

J 8 (G; F)=n=--1.
î
8
N'oublions pas que Ies elements du s-reseau obtenu ci-dessus sont ceux de G.
PROBL:SME.S. 1. Demontrer, en se rappelant cette remarque, que dans le
cas considere
J e (G) = n.
2. Soit G un espace de fonctions a la derivee (r - 1)-ieme. continue, deter•
minees sur [O, a] et verifiant
f (O) = ... = /<r-1) (O) = O, I /<r-1) (:z: 2) _ /<r-1) (z1) I ~
~ A I :z:2 - z1 I pour zi, :z:2 E [O, a];
supposons que F et la metrique sont ceux de !'exemple precedent. J 8 (G; F)
·est fonction des parametres s, A, a. Demontrer qu 'elle est egalement fonction
de la combinaison sans dimension a VAle, i.e.
J 8 (G; F)=tl> (aVAJs).
3. Demontrer
pour y ~ oo.
ln ,J> (y) = ln y O (1) +
4. Soit G un espace de fonctions analytiques A (M, Q),
p (/, g) = sup I I - g I,
(-1, i]
~ (Q) >1 (voir § 10 pour la definition de A (M, Q)). Demontrer
log2 H s (G) ~ 2 log2 log2 _!_.
8

Bibliographie du chapitre IV
§§ 3, 4: II [38], §§ 5-7: U (26), § 10: II (7, 45), III [22); § U: II (30],
III [63]; § 12: II (3, 33], III [31].
CHAPITRE V

PROB~MES A. PLUSIEURS DIMENSIONS

Comme nous l'avons vu, Ies problemes d'approximation~ d,inter-


polation d'integration et de derivation numeriques des fonctions
d'une variable sont etudies en detail, si bien qu'on dispose a l'heure
actuelle de systemes assez developpes de programmes standard de
resolution des problemes a une variable. La plupart des resultats de
recherches portant sur une variable s'etendent sans difficulte au c~s
de deux ou plusieurs variables, mais certaines methodes qui apparais-
sent en l'occurrence sont souvent peu constructives.
Au cours des constructions theoriques on divise Ies problemes en
classes„ par exemple, la classe des problemes de calcul d'integrales
des fonctions aux derivees bornees, puis on procede a des etudes
relatives a ces classes. La description adoptee ne caracterise certes
pas toujours (loin de la!) de facon satisfaisante telle classe de proble-
mes reels, mais la vitesse des calculateurs electroniques modernes est
telle qu'en depit de la description tres sommaire des problemes un'i-
dimensionnels on reussit a resoudre la plupart d 'entre eux en utilisant
des methodes standard issues des etudes theoriques.
Dans le cas de deux ou plusieurs variables la description adoptee
n'est pas non plus toujours reussie. Le coiit des problemes s'accroît
brusquement avec leur dimension, c'est pourquoi on n'arrive gene-
ralement pas a mettre au point des methodes standard de resolution
de vastes classes de problemes a plusieurs dimensions qui soient aussi
precises que dans le cas unidimensionnel.
D'autre part, Ies problemes mathematiques a plusieurs dimensions
sont generalement issus de Ia description de processus compliques.
Ces descriptions etant habituellement grossieres, la precision exig~e
est plus faible que dans Ie cas unidimensionnel. Par exemple, la
precision demandee des solutions des equations de Ia dynamique des
gaz est sensiblement plus basse qu'en balistique ou en mecanique
celeste.
Ceci ne doit pas inciter a penser que la resolution des problemes
a plusieurs dimensions est une tâche quasi impossible. La difference
fondamentale d 'avec Ie cas unidimensionnel est probablement Ieur
caractere tres diversifie, ce qui exige la cooperation de specialistes
plus qualifies. L'etude de classes restreintes de problemes multidi-
mensionnels et une plus grande rapidite des ordinateurs entraîneront
17*
260 PROBL8MES .A,• .PLUSIBURS DIMENSIONS ICH. V

la creation ..des methodes standard de resolution des problemes de


eertaines clâsses et le ·co:ilcours d 'operateurs de qualification plus
modeste.

§ 1. Methode des coefficients indetermines


La resolution de nombreux problemes a plusieurs dimensions se
reduit souvent a celle des problemes elementaires suivants.
Soient donnes, dans un domaine d 'un espace G de dimension s,,
Ies points P 1 , • • • , PN et Ies valeurs d'une fonction f en ces points.
On desire . ·
1) ·obtenir une valeur approchee de la fonction /(P);
2) obtenir une valeur approchee d 'une derivee $/ au point P;
3) calculer !'integrale ·
/(/)= 1f (P)
G
p(P) dP,

p (P) et~nt la fonction de poids. ·


·: · Le procede le plus simple est en l' occurrenee la methode des coef-
Jicients indetermines. Admettons qu' on eonnaît, par des considera-
tions queleonques, que la fonction j (P) est bien approchee par Ies
eombinaisoils · lineaires
N
~ B1001(P).
î=i
·Exigeons qu '~ne · telle combinaison lineaire se eonfonde avec /(P)
aux points donnes z
'N
~ B;o>1(P9 )=f(P9 ), q=f, ••• ,N. (1)
i=1
. Supposons que det li 00 1 (P 9 ) li =I= O; alors la matrice li 00 1 (P 9 ) li
admet pour inverse A = li a19 li et la solution (1) est de la forme
suivante:
N
B1= ~ a19f(P 9 ). (2)
q=:1
La fonetion
N
g(P)= ~ B1001 (P)
i=i
se confond avec / (P) aux points P q• La substitution de B I de (2)
donne une autre representation de g (P) :
N N
· g (P) = ~ Zq (P) f (Pq), oii Zq (P)= ~ a;qro; (P). (3)
. . . q=f i=i
§ 21 · .: M:8THODB DES MOINDRES CARR:8S · 261

Cette ecriture de la fonction d'interpolation est l'analogue· de celle


du polynome d 'interpolation sous forme de Lagrange. Comme dans
le cas unidimensionnel on pe~t esperer qu 'un choţx .heureux des
points d 'interpolation P q et des fonctions ID 1 (P) determine une
petite erreur dans Ies egalites approchees
N
f (P) ~ g (P)= ~ ~q (P) f (Pq), (4)
q=1

N
!lJf (P) ~ !lJg(P) = ~ !lJzq (P) f(Pq), (5)
11=1

N
I(/)~/ (g)= ~ Cqf(Pq), (6)
q=1
ou ,1

Cq=l(zq),

!A etant un operateur de derivation.


Comme nous l'avons observe (eh. II) pour le cas unidimensio~el,
avec un mauvais choix de nombreux points d 'interpolation l 'erreui
dans l'egalite approchee (4) peut s'averer catastrophique. Les egalites
(5), (6) decoulant de l'egalite approchee (4), elles peuventegalement
âtre entachees d'erreurs importantes. C'est pourquoi l'applieation
des relations (4), (5), (6) doit âtre justifiee et il faut eclaircir Ies
conditions sous lesquelles leur emploi est licite. ·

§ 2. Methode des moindres carres

En construisant g (P) on a essaye de la faire coincider en N


-points avec la fonction f (P). La fonction g (P) contenant un grand ·
nombre de param.etres, elle peut differer notablement de / (P) en
dehors de ces points.
Nous pouvons obtenir une meilleure approximation par des
procedes differents. Considerons l'un d'eux, dit methode des moindres
carres. On cherche l'approximation sous la forme
n
g(P) = ~ Bp1(P)
i=l

avec n ~ N; on definit Ies parametres B 1 par la eondition


min <I>(g)
Bt, ... ,Bn
262 PROBL°8MES A., PLUSIEURS· DDtENSIONS [CH. Y

avec, par exempl~


N
<l>(g)=<I>(B., ••• ,Bn)= ~ pq(g(Pq)-f(Pq)) 2 =
q=i
N n
= ~ pq ( ~ B1001(Pq)-f(Pq))2. (1)
q=1 i=1

La methode des moindres carres est basee sur la consideration


ei-dessous. La proximite de g (P) et f (P) aux points P q est assuree
par la petitesse de <I> (g) ; si n ~ N,, la fonction g (P) contient un
nombre relativement faible de parametres, donc en dehors des
points d'interpolation elle s'ecarte moins de f (P) que dans le cas
n =N.
Le choix des nombres Pq > O, qu'on appelle poids., depend de la
densite de repartition des points P q ; si Ies valeurs / (P q) sont affectees
d 'une erreur aleatoire, îl depend egalement de la variance des erreurs
sur Ies valeurs mesurees. La ou la densite de repartition des P q est
plus grande, on prend p q plus petits; aux valeurs / (P ) avec une
erreur de variance plus importante on fait correspon~re des Pq
plus faibles. Nos conseils paraissent assez vagues puisqu'on ne peut
pas proposer une regie generale valable dans tous Ies cas. Pour des
classes concretes de problemes on etablit Ies principes regissant le
choix de p q et de n com pte tenu des proprietes specifiques des proble-
mes en partant des criteres statistiques et de I' experience numerique.
En egalant a zero Ies derivees :: on obtient un systeme d'equa-
tions lineaires pour determiner B 1':
n
21 (DB·
o<l> = LJ
" d,1B1-di = O,
l J=i
N
dii= ~ pqoot{Pq)ro1 (Pq), (2)
q=1
N
dt = ~ pqoot(Pq) I (Pq).
1=1
On trouve Ies nombres B 1 en resolvant directement ce systeme ou en mini-
misant d'une. fac;on quelconque la fonction <I>. On transforme (1) en
n n
CD (Bt, ••• , Bn) = ~ duB1B1-2 ~ d1B1+do
i, i=1 1=1
avec
N
do= ~ Pq (I (P q)) 2 •
q=i
§ 3) MiTHODE DE R:mGULARISATION 263
n
Puisque ct> (B1 , ••• , Bn) ~ O, la forme quadratique ~ di;BiBJ est non
i, j=1
negative; on utilise cette propriete dans plusieurs programmes standard de la
methode des moindres carres.
Exprimant B 1 de (2) par l 'intermediaire de di, puis de f (P q) 1
il vient
N
B;= ~ a1q/(Pq)•
q=i
Donc
N
g(P)= ~ Zq(P)f (Pq) (3)
q=1
avec
n
Zq (P) = ~ aiqrot (P).
i=1

En utilisant (3) on peut egalement obtenir la formule de derivation


numerique $/ ~ $g et la formule de quadrature
I (f) ~ I (g).

§ 3. Methode de regularisation
La methode de regularisation repose sur I 'idee de lissage de la
fonction approchante. Voiei sa variante la plus repandue. L'approxi-
mation est cherchee sous la forme
n
g(P)= ~ B1ro1(P),
J=i
oii choisit Ies coefficients B 1 tels que l'expression
<I> (Â., g) = <I> (g) + Â'l' (g), Â, > o., (1)
soit minimale.
La fonctionnelle 'l' (g) doit satisfaire a la condition suivante: si
elle est petite., la fonction gest suffisamment reguliere.~Par exemple.2
'l' (g) peut etre une approximation de Î
I grad g (P) 12 dP. Nous nous
Q
bornons au cas n = N dont Ies applications sont frequentes. Sup-
posons que le minimum de CI> (Â, g) est atteint pour certains B}, ...
• • • 1 BRr et
N
g'>- (P) = ~ Bţro1 (P).
j=i
264 PROBLEMES .A PLUSIEURS DIMENSIONS [CH. V

Considerons Ies cas extremes:  = Oet  tres grand. On a l'egalite


N N . - .
(J) (O, g) = ~ pq ( ~ BJOOJ (Pq)- j (Pq)) 2 •
J=1 J=1
Si det li 00 1 (P ) li =I= O, le systeme (1.1) admet une solution qui
annule le second membre de cette egalite. D'autre part, l'expression
de cJ> (O, g) est toujours non negative; la borne inferieure est donc
realisee par des valeurs B J qui sont solutions de {1.1). Alors g0 (P)
coincide avec un polynome d 'interpolation base sur Ies points P 1•
Pour des  grands dans <I> (Â, g) c' est le deuxieme terme de la somme
qui est preponderant {sa home inferieure est atteinte sur une fonction
reguliere). Nous pouvons donc esperer que pour Ies valeurs interme-
diaires de  Ies fonctions g'- (P) seront regulieres tout en ne differant
pas sensiblement de la fonction a approcher en des points donnes.
Nos raisonnements semblent manquer de rigueur, mais tel que
le probleme d 'approximation est pose, sans que soient precises
le systeme de fonctions co1, la repartition des points P 1 et la classe
des fonctions considerees, on ne peut en escompter plus. De telles
considerations « physiques >> grossieres sont souvent utiles lors de
la construction de nouvelles methodes de resolution d 'un probleme
quand l'information sur celui-ci est insuffisante.
Un exemple concret du paragraphe suivant mettra en evidence
l 'effet de la regularisation.
§ 4. Exemple de regularis~tion
Soit f (x) une fonction reelle periodique de periode 1 ; on connaît
des valeurs approchees f q des f (xq) pour Xq = qk, q = O,.•••
. • . , N - 1 ; Nk = 1. Les erreurs sur Ies valeurs approchees f q -
- f (xq) = dq sont des variables aleatoires d'esperance nulle et de
variance tlJ. On demande de dresser un tableau des valeurs approchees
des derivees f' (xq)• On evalua l'erreur par une norme associee au
produit scalaire
N-1 ·
(/' g) = ( ~ /qgq} h.
q=O
f q est consideree ensuite comme periodiquement prolongee.
On trouve la derivee en utilisant la formule simple de derivation
numerique
, ( ) - ti7if _ 'lq+t-lq-t (1)
/ Xq -,..., .u q - 2h .

Supposons que la fonction f (x) soit suffisamment reguliere et


le pas k si petit que, en l'absence d 'erreurs sur Ies valeurs de la
fonction, l'erreur dans la formule de derivation numerique
1 ( ) _,, / (Xq+t)- / (Xq_t)
I Xq,..,,, 2h (2)
§ 4) EXEMPLE DE R~GULARISATION 265

est negligeable. L'erreur sur la valeur: de la derivee se met sous la


forme suivante:
/q+t-fq-1
2h f' (xq) =
_ ( / (Zq+1)- f (:tq_t)
f
, (xq) ) + dq+1-dq-1
2h ~
dq+1-dq-t
2h = rq.
- 2h
Ici et plus loin le signe d'egalite approchee signifie l'egalite a l'ordre
de grandeur de l'erreur sur la formule (2) pres. On a
N-1
Eli R 112 ~ Eli r 112= E ( ~ dg+t ;dq-1 ) 2 h) =
q=O
N-1
= f~ q=O
(Ed:+t - 2E (dq- 1dq+t} + Ed:_ 1 ).
Conformement aux proprietes indiquees des variables aleatoires dq,
Edqdp = d26p-q• (3)
On obtient alors E li R 11 2 = N 2<P/2, autrement dit, la moyenne 1

quadratique de la norme de l' erreur est egale a N d/V2. On voit que


l'erreur dans la formule approchee (1) s'accroît avec la diminution
de h = 1/N; d'autre part, la petitesse de l'erreur sous l'hypothese
de l'absence d 'erreU:rs sur (2) exige un h suffisamment petit.
Voyons comment reduire l'erreur. Soient Aj Ies coeffieients de Fourier
diserets (c.F.d.) de la fonction f (zq) :
f (zq) = ~ AJ exp (2ni/zq),
-N/2<;~N/2
Ai etant un c.F.d. de ffl..• Les quantites a1 = A 1 - Aj seront)es c.F.d. de la
fonetion dq = fq - f (zqJ• On a
dq= ~
-N/2<1~N/2
a, exp (2nijzg), (4)
N-1
a1=h ~ dqexp (-2nt/zg)•
q=O

Pour calculer Ies c.F.d. derq, on{applique l'operateur !iJ ala fonction:exp (2ntjz9):
exp (2nt/zq+d- exp (2nt/zq-d t sin 2n/h
!/J exp (2ni/zq)
2h h, exp (2nt#q)•
En appliquant l'operateur !iJ aux deux membres de (4), il vient
"'1 isin 2nJh ( .. )
Tq= LJ h a1exp 2m1:rq.
-NJ2<i~N/2
266 PROBIBMES A. PLUSIEURS DIMENSIONS [CH. V

Recourons a l 'egalite de Parseval :


llrlla= ~ ( sin;njh }2!a1!2.
-N12<f:t;.N/2 .
On en deduit :
Ellrlll= ~ (sin;njh}2Ela1l2•
-N/2<i!!::.N/2
On a
N-1
I ai 12 =aja'.,=h2 ~ dqdp exp (2nif(xp-Xq));
q,p=O

nous avons remplace dp par dp ayant utilise le fait que Ies erreurs sur dp
sont reelles. Alors,
N-1 N-1
EI ai l2 =h2 ~ exp (2nii(xp-xq)) E (dqdp)=h2 ~ d2flp-qr=zkd2.
q,p=O q, p=O
Donc,
sin 2n;k)2
( h hd2. (5)
-N/2<i!!::.N/2
Prenons une fonction µ U) et posons
I"' {z) = ~ Ajµ (j) exp (2nijx),
-N/2<i!!::.N/2
1:= -N/2<i~N/2
~ ÂJµ (j) exp (2:rtijxq)o

Pour des valeurs /q donnees on peut calculer Ies coefficients AJ, donc 1:.
Soit r: un terme de l 'erreur dans la formule de derivation numerique qui est
le risultat des erreurs sur dq :
r:=!!Jf:-:fJf"' (zq)•
D'une fa9on analogue a (5) on obtient
E li rf.L 112 = ~ ( sin ;:rtjh} 2 µ2 (j) hd2 ;
-N/2<i~N/2
si
(6)
il est raisonnable de poser f' (xq) ~ .25f:. La validite de la premiere relation (6)
depend essentiellement de la proximite des coefficients de Fourier de f (x)
et de f 11 (x), celle de la deuxieme de la petitesse de µ U) pour Ies ; grands.
Tâchons de lisser la f onction f q par la methode de regularisation.
Considerons la fonctionnelle
N-1 N-1
2
<I>t (i-., g) = h ~ (gq-f q) 2 + i-. h2 ~ ( gq+t;gq)
q=O q=O
§ 4] EXEMPLE DE RtGULARISATION 267

avec KN = Ko• Pour gq = g (xq), g (xq). reguliere, la quantite


N-1
h= ~ (gq+1;gq)2
q=O
1
tend vers !'integrale ) (g' (x· )2 dx; si eette integrale n'est pas
o
grande, la fonetion g (x) est suffisamment reguliere. 11 y a donc des
raisons de croire que la fonctionnelle CI>~ (Â, g) satisfait aux condi-
tions imposees aux fonctionnelles de la methode de regularisation.
Determinons une fonction discrete g!
a partir de la condition de
minimum de la fonctionnelle <I>~ (Â, g) et posons
).. )..
i ( ) "" gq+i-gq-1
f Xq _,, 2h
Voyons quel est l'analogue de cette regularisation dans le cas de
fonctions d 'une variable continue. Soit
00

f (x) = ~ Af exp (2nijx)


i=-oo
et g! (x) une fonction realisant le minimum de la fonctionnelle
1 1
<Dt{Â, g) = J (g (x)- f (x))2 dx+ Â. 2
J (g' (x)) 2
dx.
o o
L'equation d'Euler pour cette fonctionnelle est
'A2g,, - (g - f) = o.
Un calcul direct montre que la fonction
00
AQ '
1 + ().~ni) 2 exp (2nijx)
i=-00
est solution de cette equation. Comparons Kt (x) et f (x) pour Ies
'A petits. Si 'A2:rr.J<ţ. 1, Ies coeffici~nts de Fourier 1 + (fţnj) 2 et A1 de
ces fonctions sont proches. Si 'A2nj ~ 1, Ies coefficients de Fourier
de la fonction · g} (x) sont sensiblement inferieurs a ceux de f (x).
Donc la regularisation equivaudrait en termes de technique a une
<< filtration >>: en deformant legerement Ies harmoniques d'oscillation
a basse frequence, elle attenue considerablement ceux a haute
frequence. S'il faut deformer encore moins Ies amplitudes Aj des
harmoniques a basse frequence et << filtrer >> plus fortement Ies oscil-
268 PROB~ES A PLUSIEURS· DI~NSIONS [CH .. '?

lations a haute freqµence., on consiµer~ra la fonctionnelle


t 1
<I>n (Â~ g) = j (g (x)- f(x)) 2 dx + Â211 j (g<n> ·(x)) dx.:
2

o o
L'equation d'Euler pour cette fonctionnelle est
Â2ng(2n>+(-1t{g-/)= O„
d'ou
00
AO
K! (x) = ~ i+ (A~n/)tn exp (2:n:ijx).
i=-00
l{
Considerons Ies eourbes des facteurs 1 + 2n ;) 2n ; pour I f I < 2~,._ e~
n -+ oo ces derniers tendent vers 1, et, donc_, pour Ies grands n
19"-~~~-----,
I
I
I
I
I
I
I

U:,tjaf
Fig. 5.4.1.

Ies amplitudes des harmoniques correspondants sont deformees de


moina en moins. D 'autre part, pour I j I > 2;).. , ees facteurs tendent
vers O, et Ies harmoniques correspondants sont multiplies par des
quantites toujours · plus petites (fig. 5.4.1). On a done pour n -+ oo
1
et 2nA non entier
g! (x) -+ g'- (x) = 21 Aj exp (2nijx).
lil<1/C2ii1)
Reprenons le cas discret. Dans l'expression de <I>~ ("-,: g) la
quantite g q ne figura que dans Ies termes
h (gq-fq)z+ 1',2h ( ( gq+1;:-tq )2 + ( gq~gq-t )2) .
fi f.) EXEMPLE DE RiGULARISATION 269

On a le systeme d'equations par rapport aux valeurs g 9 au point


d'extremum
1 âcI>~ 12
2h 8gq =(gq-fq)-h2(gq+1-2gq+Kq-1)=0. (7)

La matrice du systeme (7) relativement aux inconnues g q coincide


avec celle de la forme quadratique definie positive
N-1 N-1
~ 2 ).2 ~
LJ gq_+,ii" LI (Kq+1-Kq)2 ;
q=O iii,.!~ q=O

donc, son determinant est non nul et le systeme (7) a une solution
et une seule.
Soit
~ A,exp (2nijxq);
-N/2<;~N/2

cherchons la fonction periodique gq sous la forme


g~ = ~ A} exp (2nijxq)•
-N/2<;~N/2
Calculons d 'abord l 'operateur difference deuxieme de la fonction
exp (2nijx9 ):
62 exp (2nijxq} = exp (2,djx9 + 1) - ~ exp (2nijxq) + exp (2nijXq-t) =
=(exp (2nijh)-2+exp (-2nijh)) exp (2nijxq) =
= (2 cos (2njh)-2) exp (2nijxq),
d'oii
62 exp (2nijxq) = -4 sin2 (njh) exp (2nijxq)• (8)
Substituons dans (7) la representation de / 9 et g q sous la forme
de somme de Fourier, transformons la difterence deuxieme 62g"
compte tenu de (8) et reduisons Ies termes semblables:
~
2
( A}-A1 + 412 ( sinlth ) A}) exp (2nijx9 ) = O.
-N/2<i~N/2
Cette egalite est satisfaite pour
A}= A1
1+412 ( sin:1h )2 .
;Donc,
~ (2 .. )
,.
gq = .LJ
-N/2<;~N/2 1+412
( si
ÂJ

\
n'h
J
)2 exp mJXq •
270 PROB~MES Â PLUSIEURS DIMENSIONS [CH. V

Le facteur
1
1 + 4~V { sin,,,njh ) 2

decroît lorsque j croit. On voit que la regularisation au moyen


de la fonctionnelle CI>~ (Â, g) conduit egalement a l'attenuation des
harmoniques superieurs de la fonction. Par analogie avec Ies
fonctionnelles <I>n (Â, g) on peut effectuer une regularisation A l'aide
des fonctionnelles
N-1 N-1
<I>! (Â, g) =: h ~ (gq- f q)2
q=O
+ Â2nh ~ (
q=O
~::q )2.
On resout le systeme (7) et Ies systemes d 'equations lineaires qui
apparaissent en minimisant Ies fonctionnelles <1>: (Â, g) au bout
de O (n2N) operations arithmetiques en appliquant la methode du
balayage au probleme aux limites periodique discretise (voir § 3
eh. IX). Pour n > 1 on preferera une regularisation au moyen
des fonctionnelles CI>~ (Â, g) a une regularisation n-uple par la
fonctionnelle <I>~ (Â, g) : dans ce cas Ies harmoniques exp (2nijx)
sont multiplies par
1
{ t.+ 412 ( sintjh ) 2) n •

L'avantage d'une telle regularisation successive est la simplicite


de l'algorithme, un volume de calculs moindre (de l'ordre de O (nN))
et une influence moins importante de l'erreur de calcul. ,
Dans le cas considere, on peut proceder autrement: on effectue
une transformation de Fourier discrete (rapide si possible), on trouve
Ies coeffieients de Fourier Ai, on substitue O aux A 1 correspondant
aux harmoniques haute frequence, puis on effectue une transfor-
mation de Fourier inverse.

§ 5. Reduction des problemes multidimensionnels


aux problemes unidimensionnels
Les procedes de resolution des problemes multidimensionnels
etudies jusqu 'ici n 'utilisaient pas l'information supplementaire
sur la repartition des points ou Ies valeurs de la fonction sont connues.
Dans de nombreux cas la disposition de ces points est reguliere;
si la fonction en question est donnee analytiquement, on Ies choisit
de faQon arbitraire. En cas d 'une disposition heureuse on ramene
Ies operations d 'approximation, d 'interpolation, de derivation et
d 'integration numeriques des fonctions de plusieurs variables a celles
effectuees successivement sur des fonctions d 'une variable.
§ 5) R:SDUC'l'ION DES PROBL~MES MULTIDIMENSIONNELS 271

La plupart de ces cas obeissent au schema suivant. Supposons


connues Ies valeurs d 'une fonction sur un ensemble de points. On
peut faire un changement de variables par lequel Ies valeurs de la
fonction / (y1 , ••• , Ys) seront donnees sur l'ensemble Q des points
ayant Ies proprietes suivantes: l'ensemble Q se decompose en n1
ensembles Q 1 , • • • , Qn 1 de faQon que la plupart des ens~mbles
Qm contiennent des points en nombre suffisamment grand ; Qm
1 1
se trouve dans l'hyperplan y1 = y'!f.11 , m1 = 1, ... , n1 ; a son tour,i
l'ensemble Qm 1 se decompose en ensembles Qm 1m2 ; m 2 = 1, ...
• • . , n 2 (m1), tels que la plupart d'entre eux contiennent un nomhre

• .
.
. .
. ..
.
. .. . . . .


..
... .. .•

• •



Fig. 5.5.1 Fig. 5.5.2

suffisamment grand de points,, l'ensemhle Qm 1m2 se trouve dans


le plan y1 = y'ţ 1 , y2 = y-r1m2,; Qm1m2 se decompose a son tour en
ensembles Qm 1 m2m3 , et ainsi de suite. Autrement dit, tous Ies
points peuvent s'ecrire sous la forme
m1 m1m:z m1... ma (t)
( Yt ., Y2 , • • ., Y• ),
ou
1 ~ mi ~ nu 1 ~ m 1 ~ n1i (mu; •• •:,; m1i-1) pour k > 1.
II est elair que tout ensemble de points peut etre mis sous la forme (1);
cependant nous exigeons de plus que Ies ensembles Qm~••·mi com~
prennent des points en nombre suffisamment grand. Des exemples
de tels ensembles sont representes fig. 5.5.1, 5.5.2. Le cas correspou-
dant a la fig. 5.5.2. satisfait aux conditions ci-dessus relatives au
systeme de coordonnees polaires. Soit a ealculer la valeur d 'un
operateur
!llf (P0) = f <rt, .... ,.•~ (Y1s • • • , Y~) ;
272 PROBL'll:MES A. PLUSIEURS DIMENSIONS [CH. V

le eas particulier r1 = . . . = r 8 = Ocorrespond au probleme d 'inter-


polation. Prenons une formule quelconque de calcul de la derivee
g<rt> (y~ d 'apres Ies valeurs de la fonetion aux points yff:
n1
c<rd (YÎ) ~ ~ J)mig (yf•) ·
m1=i
Substi tuant
g (Y1) = t<O, "2t•••rs> (Yt, yg, ... y~)
on en tire

La derivation de la fonetion / (y1 , • • • , Ys) des variaples au moyen


de eette egalite se ramene a deriver Ies fonetions / (yf1, y2 , •••
• . . , y 8 ) de s-1 variables. On eonnaît Ies valeurs de ees fonetions
-sur Ies reseaux Qm1 satisfaisant aux memes conditions que le reseau
initial.
Pour ehaque mi ehoisissons une formule de calcul de la derivee
g<r2> (yg) a partir des valeurs de la ţonetion ,aux points y;i1ms :
112(mt)
g<1"2> (yg) ~ ~ Dfflfffltg (yr1ms).
~ 1112=1 . ·
En y substituant ~-
g -- t<O, o, rs, •••• TB) (yffll y yo yo)
1 , 2, a, • • •, a ,

·-on obtient, d 'une facon analogue a (2), o

j <O. 71, ... , r 8 ) (ym1


1 '
yo2., ••• , yo),.,.,,.
8 ,...,

11-2(ml)
_
._
"1
~
vm1fflt /(O, o. ra, ..• ,r8) (ym1 ymfffltI yo3J. • • • t yo)
1 ~ 2 8 •
ffl2=1
En utilisant eette relation il vient de (2)
j cr1, •••• r8 ) (yo1, •• • ., yo)
8
_,
.....,

ns 712(ms)
~ ~ vm1 ( ~ vm1mtt<O· o. rs••••• r,) (yf1, yr•fflt, YÎ, • • ., y~)),
m1=1 mt=1

etc. En poursuivant cette procedura, on obtient definitivement la


formule de derivation numerique
n1 flll(mt)

l (ra, ••• , r s> (yo1, ••• ,


yo)
8 -
,. ._,_ "'1
~
vm1 °'1
-'J
vm11n2 •••
m1=1 n12=1
n 8 (m1, ••• , m8 _ 1)
"'1 D(m1, ••• , m 8) j<O ••• • O) (ym1 ym1 1 ••• , m8) (3)
-'J ' 1 ' ••• , s ,
m 8 =1
§ 5] RtDUCTION DES PROBL'8MES MULTIDIMENSIONNELS 273

ou j< 0 0
> ==/.Le fait que le deuxieme membre comprenne la somme
, ···•
des termes en tous Ies points ne doit pas inquieter : en realite, Ies
Iormules unidimensionnelles de derivation numerique et d 'interpo-
lation qui nous ont permis d 'obtenir (3) contiennent relativement
peu de points.
De la meme fac;on on construit Ies formules d 'integration nume-
rique.
Soit a calculer I 'integrale

Io=) /{y1, ··•,Ys)dy,, ..• ,dys.


G

On peut la mettre sous la forme

Io= f ldY1) dy„ ldY1) = ) 12 (Y1, Y2) dy2,


dr0 G1(Y1)

I 2 (Y1t Y2) = j la (y1, Y2, Ya) dya, •.. Js-1 (y., • · ·, Ys-1) =
G2(Y1, Y2)

ou
ls (Y1, · • ., Ys) = f (Y1, • · ., Ys),

G0 est la projection du domaine G sur l'axe y1 , Gh (yi, ... , Yh) la


section de l'ensemble G par le plan y1 = y1 , • • • , Yh = Yh• Nous
utilisons une formule de quadrature quelconque pour calculer la
premiere de ces integrales, a savoir
n1
Io~ ~ vm 1 I (y";1
1 1
).
m1=1

Le calcul de !'Integrale initiale s'est reduit au calcul d'iritegrales


de dimension moins 1. Posons maintenant
n2(m1)
Ji (y7/_'l) ~ ~ vm1m2J2 (yfl' yr1m2),
m2=1

ls-1 (y"f', • • •, y':.!•1 ···•ms-!)~


ns(mt, ... ,ms-1> (4)
~ ~ vm1, ... ,ms f (YT1' ... 'y1;i1: .. :,ms).
ms=i
18-01007
274 PROBU:MES A PLUSIEUJ{S DIMENSIONS [CH. V

On a definitivement
, n1 nz<md
Io ~ l1 nm1 l1 Dmtffi2 •••
m1=1 7712=1

Dans le cas unidimensionnel, pour toutes Ies operations de l' ana-


lyse numerique on a evalua l'erreur au moyen des derivees de la
fonction consideree. Voyons Ies estimations qui en decoulent pour
Ies problemes multidimensionnels. La valeur d 'un operateur de la
fonction est approchee par des valeurs d 'autres operateurs, l'erreur ·
sur un tel changement pouvant et;re evaluee selon Ies relations appre-
ciant l'erreur dans Ies formules unidimensionnelles. Or, ces nouvelles
valeurs contiennent elles-memes des erreurs ; c 'est pourquoi celles-ci
figureront dans l'erreur totale multipliees par certains facteurs.
Reprenons notre probleme d 'integration ; ·soit

En substituant successivement Ies expressions de 11, / 2 , dans.


l'egalite
n1
10 = ~ Dm1Ii(yf'1)+Eo
m1=1

on obtient la chaîne de relations

f&t
°Io= EO + ~ Dffl1I1 (yT1) =
m1=1
nt n2(mt)
= EO + ~ vms (E!i1 + 7712=1
~ nmtffi2I 2(y'f1, yT•ffl2>) =
m1=1
.nt nz(mt)
... = R + ~ nms ( ~ nm1m2 X
· mt=1 7712=1
n 8 (m1, •.• , m 8 _ )
1
X (••• ( "1
·~
nms, ... ,!m. I (ym1
1 , • • •,
ym1,
a
.... m8 ) } • • • } )

m8 =1
§ 5) R~DUCTION DES · PROBL~MES- MULTIDIMENSIONNELS 275

avee
nt nt n2(mt)
R ..:... EO + ~ nm1 E!.1 + ~ nm1 ~ nm11112E~,1112 + ...
m1=1 mt=1 m2=1
nt n2(m1)
•.. + ~ vm1 ~ nm11112 • • •
m1=1 1112=1
"a-1 (ms, •• ·• ms-2>
... "'
."-I
ms-1=1
nm1, ... , m8_ 1Ea-1
m1, ... , ms-1 • (6)

La dernjere egalite montre que s1 Ies coefficients Dmi, ···• m" sont
grands, l'erreur d'approximation peut devenir considerablement
plus importante que dans le cas unidimensionnel.
· Formellement, la reduction d 'un probleme multidimensionnel a un autre
de dimension t est identique qu'il s'agisse de· la derivation numerigue (interpo-
lation) ou de l 'integration numerique. On note cependant une difference essen-
tielle: la derivation numerique (int~olation) consiste le plus souvent a chercher
l'operateur d'une· fonction a partir des valeurs prises sur un ensemble de points
g donne. Tandis que le probleme d 'integration se caracterise par la possîbilite
de choisir. a loisir Ies points. ·

Considerons un exemple de constructions pareilles. Nous vou-


drions ,attirer l'attention du leeteur sur la necessite d 'âtre prudent
en choisissant Ies formules. unidimensionnelles auxiliaires d 'inte-
gration numerique et souligner l'importance pratique de l'evaluation·
du reste. Supposons que Ies valeurs d 'une fonction / (xi, x2) sont con-
nues aux points (mi.h, m2h) du reseau. Soit a calculer la valeur
f x 1x 2 (O, O). Ecrivons une formule simple de derivation numerique
de la fonction d 'une variable :
j' (x) ,_ f (x+~-f (.z)

Vu la formule de Taylor
ht
f (x+h)=f (x)+f' (x)h+r (x+8h) 2 , 0<8<1,
on a
I , (x)-- f (z+hi.-f (x) /" (
X
+Sh) 2h •

Donc, nous pouvons ecrire


. OO f xa (h, O)- Ixa (O, O) (8h O h ..
Ix1x2 ( ' ) = h - (,cfxa ' ) 2 · .(7~
ta-
276 PROBL~MES Ă PLUSIEURS DIMENSIONS [CH. V

Prenons, d'autre part, des approximations des derivees / x 2 (h, O),


Ix 2 (O,
O); on a Ies egalites
...2 (h, 0) = / (k, h) ~ I (h, O) / (h , 01h) 2'
h
/ ... x2x2

f x2 (o, O)= j(O, 0)-/ (O, -h) +!


h x2x2
(O , eh)!!:.
2 2 •

Apres substitution dans (7), on obtient


0 0) = / (h, h)-f (h, 0)-/ (O, O)+/ (O, -h) _
I x1x2 ( , lh2
ik i
-fxfx2 (0h, O) 2-2 fx2X2 (O, 81h)-2 fx2X2 (h, 82h). (8)
En construisant l 'approxi~ation sans tenir compte du reste on
aurait ete amene a la conelusion fausse que l 'expression
/(h, h)-f(k, 0)-/(0, O)+/ (O, -h)
h,2

cest une bonne approximation de la valeur / x1x2 (O, O). On peut recrire
.la relation (8) comme suit:
·/
. x1x2
(O ,
0)-f(h,
-
h)-/(h, 0)-/(0, O)+f(O, -h)_.f
h,2 x2x2
(O , 0)+O(h) •

.Ainsi, si on neglige la eroissanee eventuelle de l'erreur due a la


multiplieation par les nm1 ··· mk grands, on peut obtenir une approxi-
mation affectee d 'une erreur finie, qui approche dans notre cas non

...
.
o



• .• .• .,

• .• •
.• ..
Fig. 5.5.3

pas la derivee ,
cherchee

mais l'expression f x 1x 2 (O, O) + /x 2 x 2 (O, .O).
Le eas ou Ies pomts forment un reseau proprement dit, en d 'autres
termes, l'ensemble des points de la forme
(yft.,· ••• , Y:'s) pour m1 = 1, ... , N 1 ; • • • ; m 8 = 1, ... , N 8
est important .dans Ies applications. La figure 5.5.3 represente une
telle disposition des points pour s = 2. Dans ce cas, · potir realiser
§ 6] R~DUCTION DES PROBL:BMES MULTIDIMENSIONNELS 277

Ies operations multidimensionnelles de derivation numerique (d 'in-


terpolation et d 'integration numerique), il est raisonnable d 'utiliser
Ies memes formules pour a pproximer Ies valeurs intermediaires.
Cela signifie que Ies formules (4) par exemple doivent s'ecrire:
Nk
mk 1 ,__ "1
/ k-1 ( Ytmt '···,Y1i-1)-- ~
Dmk/ ( mt mk}
k Yt ,..•• ,yk ' (9)
(mh.=1 .

e'est-a-dire que nm1 ··· mk ne dependent que de mk. Le second membre


de (5) se met alors sous la forme

En construisant une telle formule de quadrature nous supposons im-


plicitement que le domaine d 'integration est un parallelepipede
rectangle d' arâtes paralleles aux axes de coordonnees.
Ces formules d 'integration nuinerique (d 'interpolation, de deri-
vation numerique) sont dites produit direct des formules unidimen-
sionnelles correspondantes d 'integration numerique (d 'interpolation,
de derivation numerique).
Un exemple plus complique du produit direct de la formule de
quadrature sur un segment par la formule sur une sphere sera donne
au § 13. En utilisant ces approximations on constate que Ies restes
dans le second membre de (6) sont largement compenses. Dans le
meme exemple, en utilisant Ies formules du type (9) on obtient
l'approximation ,
O),__ / (h, h)- I (O, h)- I (h, O)+ /(0, O)
I~~ (o ' _, ~

avec une erreur de I' ordre de O (h).


II peut arriver dans l 'integration que pour une fonction reguliere sous le
signe somme Ies integrales intermediaires lk (y1 , ••• , Yk) ne le soient pas
suffisam.ment.
Soit a calculer !'integrale sur le cercle unite

1 f 1-Yf

I= J( J /(Yh Y2) dy2 ) dy1.


- 1 -Vi-Yf
pour f (y1, u2) reguliere; si / (± 1, O);:/= O, la fonction

Vt-yll

/t(y1)= J• /(y1, Y2) du2


-Vi-Yf
278 PROBL:illMES .A PLUSIEURS DIMENSIONS (CH. V

a ses derivees non bornees aux points ± 1 ; donc, en integrant num.eriquement


en 111 il faut utiliser des methodes speciales pour calculer Ies integrales de telles
fonctions: un pas variable, l 'isolement des singularites, etc. ; il vaut mieux
acrire cette integrale sous la forme
1 2n
I= J r/t(r) dr, /t.(r) = J/(r cos q>, r sin q>) dq>.
o o
Comme la fonction sous le signe somme interieur est periodique, on, a interet
l.;.utiliser la formule de quadrature (3.3.16) ·
2n n-1
n 2mn)
J
O
g (q>) dq> ~ 2n "'1 (
LJ g -n- "
m=O

Pour r faible, Ies derivees de / par rapport a q> contiennent un petit facteur r;
aussi pour q> peu eleves ii faut parfois prendre n plus petit. Pour calculer !'inte-
grale en r on utilise n'importe quelles formules de quadrature examinees plus
haut et notamment celles de Gauss correspondant a la fonction de poids r.

§ 6. Evaluation de I'erreur dans l'integration


numerique sur un reseau regulier
A titre d 'exemple de procedes concrets d 'evaluation des erreurs
resultant des methodes decrites ci-dessus, considerons le calcul de
I 'integrale sur le cube unite :
1 1
I= J•.. J/(x1, ..• , x,) dx1 •.. dxs•
O 0\

Supposons que la fonction sous le signe somme appartienne A la classe


Cr {A)= Crt ... r8 (At, ••• 'As)
des fonctions / (x1 , • • • , x,) dont Ies derivees fxrr1 (x1 , • • . , x,)
sont continues et lesi derivees fx,/i (x1, ... , x,) continues par :ţnor­
ceaux ·et satisfont aux conditions I / xfii (.ţ1 , ••• , Xs) I ~ A k• On con-
siderera des formules de quadratqre produit direct des formules unidi-
mensionnelles. Posons · · ·
I, (x1 , •.. , x,) =f (x1 , ••• , x,)
et
1 1
I 11. (x1, ••• , x1i) = J J/(xh ..• , Xs) dx1i♦t • •.· dx,
o o
pom· k = O, ..• , s- 1.
f 6) SVALUATION DE L'ERREUR DANS L'INT:8GRATION NUDRIQUE · 279

On a Ies inegalites
1 1
I (lk) "k ,~
%k
r ... ~r I f%hrk (x., •.. , Xs) I dxk.+t ••• dxs~Ak.
~
Pour ealculer Ies integrales
1
lk-t (x1, ••• , xk-s) = Jl1t (x 1 , ••• , x1,.) dx1,.
o
on utilisera une formule eomposite (3.6.4) avec n= r1,. :et un pas
constant aq - aq-t == H k = N,l :
1
JI" (x 1 , ••• , x1,.) dxk ~
o
Nk tnk

~ ~ ~k ~ D1Ik( x., ... 'Xk-h ( q1,.- ! )Hk +d1 ~k). (1)


Îk=i i=1
D'apres (3.6.6) l'erreur dans cette formule est au plus

et ne depasse done pas D (r1t) AkNt". Pour une telle formule la


somme des modules des coefficients .des poids s'evalue par
Nk mk !!!k

~
q1,.=1
.~k ~ ID}I=
i=1
! (~ IDtl)=B\
i=1

quantite qui ne depend pas de N1,,. Reprenant (5.6) il vient l'esti-


mation du reste
N1 Nt N2
R = Eo + 2j lJ1 1E~, + ~ Dq'. ~ Dq•E;,q. + ...
q,=1 q,=1 q2=1
D'ou
IR J-<IE0 l+B1 max IEl,I +B1B2 maxJEtq I+... 1 (2)
Dans le eas considere E:;_~. qk-t est l'erreur dans (1) po~r certains
xi, • • • , xk-i evalues au moyen de D (rk) Ak~rk. En substituant
cette estţmation dans le deuxieme membre de (2), il vient
a
IR I~Do (r) 2j AkN;"\
k=1
280 PROBL:8:M:ES Â PLUSIEURS DIMENSIONS [CH. V

ou D 0 (r) est defini par B,,. et D (r,,.). L'estimation obtenue depend


du choix de formules de quadrature concretes et du nombre de seg-
ments de division suivant Ies differents axes. Minimisons le facteur
8

z1A hN°;rk en choisissant Ies valeurs de N k pour un nombre fixe de


h=1
points proportionnel a N1 ••• N8 = Q. Formons la fonction de
Lagrange
ş

""1 -rk ,
<l>=-".! A,,.Nh +Â(N1 .. •_Ns-Q).
h=1

En egalant a zero Ies derivees <l>Nk' on obtient le systeme d'equations

-AkrkNk
-rh-1
+ ÂN1 ..• NsNk-1 = Q,
d'ou
N h_- ( Âkrk
'J..Q
.) t/rk

L'equation N 1 ••• N 8 = Q se met sous la forme

n (A:;h )
8 1/7
k= Q
k=1
ou
A
(ÂQ)ilr=Q
avec

il en decoule ÂQ= ( ~ ( Substituant sa valeur ÂQ dans l'expres-


sion pour N 11, il vien t
N == ( AkrkQr) 1/rk
k Ar •
On a alors
AkN;rk = r~. ( ; r,
et, par suite, la quantite k~(11iN; k est
Considerons un cas particulier: r1 =
7
o ( r)-c~
... = rs = r 0 , A 1 =
= Â 8 = A 0 • Alors .!. = .!.
r r1
+ + r.!. = ..!.ro et Ar= A 0r0 •
8
§ 7) MINORATION DE L'ERREUR D'INTEGRATION NUMERIQUE 281

Les formules considerees garantissent donc l'estimation d'er-


reur O (A 0N-rots). En reali te, Ies derivees bornees des fonctions
sous le signe somme sont souvent d 'ordre r 0 pas tres grand; c'est
pourquoi pour des s grands, une telle evaluation de la vitesse de
convergence se trouve mauvaise. On arrive parfois a ameliorer l'ordre
de l'estimation si, comme dans le cas unidimensionnel, on apprecie
l'erreur au moyen des derivees integrables et non a l'aide des derivees
bornees. Cependant d 'une fa~on generale, meme des estimations.
pareilles ont la vitesse de convergence assez petite.
On voit se poser la question de formules de quadrature optimales
sur Ies classes de fonctions a plusieurs variables. Comme ces formules
ne· sont connues pour aucune classe reelle de fonctions, nous nous
bornerons a en minorer I' erreur.

§ 7. Minoration de l'erreur d'integration


numerique
Rappelons la position du probleme d 'optimisation des formules
de quadrature sur une classe de fonctions. Supposons que la valeur
approchee de l'integrale se calcule au moyen de la formule
N
/(/)= j / (P)p(P)dP~SN(f)= ~ Dif(P;),
G i=i
La quantite
RN(J)=l(J)-SN(j)
est appelee erreur dans la formule de quadrature, la quantite
R N (F) = sup I R N (I) I
IEF
erreur dans la formule de quadrature sur la classe F de f onctions et
WN(F)= inf RN(F)
Di, pi

l'estimation optimale de l'erreur dans les formules de quadrature sur la.


classe F; la formule (si elle existe) qui realise cette borne inferieure
est dite optimale. Nous supposerons accomplie la condition suivante:
ii existe un cube Ac G dans lequel p (P) ~ y > O.
THEORtME.
W N (Cr (A)) ~ d (A, r, A) yN-r,
avec d (A, r, A)> O.
On peut demontrer ce theoreme de la facon suivante: pour tout
ensemble de points P 1 , • • • , PN on peut construire une fonction
282 PROBl.m[ES A. PLUSIEURS DIMENSIONS [CH. V

f P 1, ... , PN (P) de la classe Cr (A) consideree qui s'annule en tous


ees points et telle que / (J) ~ d (A, r, A) yN-r, la constante
d > O ne dependant pas des points Pi, ... , PN• Alors, pour toute
formule de quadrature avec ces points on a
N
RN (Cr (A)) ~II(/ Pt, ... ,PN)--~ D1fP1, ••• , PN (Pi) I=
1=1

= l / (/P1,1...• PN) l~d (A, r, A) yN-'.


Comme la quantite RN (Cr (A)) est minoree par une constante ne
dependant pas des points P 1 et des poids D 1, sa borne inferieure
W N (Cr (A)) sur l'ensemble de toutes Ies formules possibles est mino-
ree par la mâme constante d (A, r, A) yN-'. Donc, la demonstration
du theoreme se ramene a la construction de la fonction fp 1, .•. , PN (P)
correspondante pour chaque ensemble de points Pi, ... , PN•
Pour simplifier le calcul nous entreprendrons la construction
pour le cas ou A est le cube unite O ~ x1 , . • • , x 8 ~ 1, A 1 = ...
. . . = A 8 = A 0 • Posons nk = [(2N)rfr,i] + 1 et partageons le cube A
en n1 . • • n 8 parallelepipedes rectangles Ilm = Ilm 1 •.. m8 :

Soit cp (x) une fonction indefiniment derivable sur la droite (-oo, oo)
telle que
cp (x) = O pour x ~ O et x ~ 1
O < cp (x) ~ 1 pour O < x < 1.
Soit
r= max rk,
i~k!S.a

g = max (2z max I rpm (x) I).


O~l~r [O, 1]

La definition des nombres nk entraîne


(2N)"r1i~nk ~ 2 • (2N)rf!h ;

en multipliant ces inegalites et recourant a l'egalite .!....


r1
+ ... + ~r =
8
= 1, on obtient
2N ~ n 1 ••• n8 ~ 2'+1N. (1)
Formons la fonction
f p" ••• , PN (P) ==-fu (P)
I 7) MINORATION -DE!,L'ERREUR D'INTlî:GRATION NU~RIQUE 283

de la fa~on suivante. Posons


,
/o(P)= g~:t)'" IT h=f
<p (n1ixk-(mk-f)) (2)

dans Ies parallelepipedes IIm ne contenant a leur interieur aucun


des points P 1 , • • • , P 8 • En tous Ies autres points posons f O (P) = O.
La fonction / 0 est indefiniment derivable a l 'interieur de ehaque paral-
lelepipede IIm et s'annule avee toutes ses derivees sur sa frontiere.
Donc, elle est indefininient derivable dans tout l'espace -oo <
< x1 , • • • , x 8 < oo. Par construction, elle s'annule avee toutes
ses derivees en tous Ies points P 1 , • • • , PN• Minorons I (/0 ). Utili-
sant l 'inegalite p (P) ~ '\', apres le changement de variables xk =
= mk - 1 + Yk , on obtient la chaîne de relations
nk

Jp(x1, ... ,x,)A (g(2Ntt• IT q>(nkxk-(mk-1))dx


0 1 ••• dxs?J;,
Ilm k=1
1 1 a

J•••JJI <p(Yk) dyi • • • dys= d1 (r) Aoi' • •


Nrn1 ... ns ,
(3)
O O k=1
ici
1
di(r) = / 2r { j cp (y) dy )'.
o

. Chaque p"mt P 1 peut se trouver a l'interieur d 'un seul des paral-


lelepipedes IIm. Donc, la fonction f O n'est pas identiquement nulle
et est definie par l'egalite (2) dans n1 • . • n 8 - N parallelepipedes
IIm au moins. Puisque, en :vertu de (1), on a N ~ (ni ... n 8 )!2, le
nombre de ces parallelepipedes est au moins egal A (n1 • • • n 8 )/2.
Compte tenu de (3), on·obtient-l'estimation

(4)
oii

Puisque la fonetion / 0 est indefiniment derivable, pour demontrer


qu 'elle appartient a la classe consideree il suffit d 'evaluer ses deri-
vees en des points des parallelepipedes en lesquels· elle est differente
284 PROBL~MES A. PLUSIEURS DIMENSIONS [CH. V

de zero. En ces points on a

fx:i= g~)r qPi(n;x1-(m1-1))nJi II cp(nhx1i-(m1i-1)).


11,,f;

Comme

îl en decoule l' estimation

I
z.
fx/
Ao (ni)
1,<(2N)r2
i•
1
(5)

D'apres la definition de nit on a


2,<n, < 2 (2Nf1ri.
Ainsi,
1 1
( ; )' ,<(2Nt/rJ,<(2Nt

pour O ~ l1 ~ r1. Utilisant (5) on obtient l 'estimation I fx~i I ~


~ A 0 pour O~ l 1 ~ r1• Donc, la fonction construite appartient a
la classe consideree, verifie l 'inegalite (4) ou la constante d (.&, r, A)
ne depend pas des points d 'integration et s 'annule en tous Ies points
P 1 ; ainsi nous avons defini un procede de construction de la fonction
cherchee pour tout ensemble de points P 1 , • • • , PN•
REMARQUE. La fonction construite s'annule aux points P 1 , •••
. . . , PN avec toutes ses derivees. C'est pourquoi nous aurions obtenu
la meme minoration pour la classe de toutes Ies formules de quadrature
possibles a partir des valeurs do la fonction et de ses derivees en N
points.
§ 8. Optimisation de l'estimation de l'erreur
sur des classes plus vastes
de procedes d'integration
Au § 7 nous a vons minore I' erreur dans Ies formules de quadrature,
c'est-a-dire Ies formules d 'integration
N
I (f) ~ ~ DJI (P1),
i=f
Ies points P 1 et Ies poids D 1 ne dependant pas de la fonction a inte-
grer. Pour nombre de problemes, on prefere, en raison de leur plus
grande effieacite, Ies procedes d 'integration ou le choix des points
suivants depend de l 'information sur Ies valeurs deja calculees de
§ 8] OPTIMISATION DE L1 ESTIMATION DE L'ERREUR 285

la fonction, par exemple, Ies procedes avec une recherche automa-


tique du pas (§§ 17, 18, eh. III).
Soit un procede d'integration tel qu'on ne retienne de .l'infor-
mation sur la fonction sous le signe somme que celle sur ses valeurs
en des points isoles. Ce procede est defini en se donnant le premier
point d 'integration, la regle utilisee pour trouver Ies points suivants
et la technique de calcul de la valeur approchee de I 'integrale. Ainsi,
chacun deces procedes se ramene au schema suivant: on se donne un
point Pi et Ies fonctions
Qq = <Dq (Qi, • • .,. Qq-1; Yi, ~ · ., Yq-i), q = 2, ... , N,
SN(Q1, •.. , QN; Y1, • • ., YN),
Q1 etant des points du domaine G, y 1, S N des nombres. Dans le calcul
approche d 'une integrale concrete on trouve successivement Ies
valeurs
I (Pi), P2 = <I>2 (Pi; I (P1)), I (P2),
Ps = <Da (Pi, P2; I <Pi), I cP2)),
/(Pa), • • ., f(PN)
et on pose ensuite
I (f) ~ s N (Pi, ••. , p N; I (Pi), ... , I (PN)).
Le point Pi etant donne en meme temps que Ies fonctions <D; et S N,
la dependance de celles-ci par rapport a P 1 pourrait âtre omise.
Comme dans le cas des formules de quadrature, on peut deter-
miner l'erreur de methode dans le calcul de !'integrale donnee:
RN (/) = / (/) - SN (P1, • • ., PN; f <Pi), • • ., f (PN)),
l'erreur de methode sur la classe des fonctions sous le signe_ somme
RN (F) =SUp IRN (I) I
fEF
et l'estimation optimale de l'erreur sur l'ensemble de tous Ies pro-
cedes d 'integration possibles
ZN (F) = inf RN (F).
Pt, <l>:a, •··• (J)N• SN

TH~OR:8ME. Supposons que la classe F de fonctions est un compact


convexe a symetrie centrale de centre f == O et que toutes les f onctions de
cette classe sont uniformement bornees. Alors les estimations optimales
de l' erreur sur les ensembles de toutes les f ormules de quadrature et de
tous les procedes d'integration possibles coincident:
wN (F) = zN (F).
La condition de convexite de ia classe F signifie que toutes Ies
fois qu'elle contient / 1 , / 2 quelconques, elle contient egalement toutes
286 PROBL1™ES Â PLUSIEURS DIMENSIONS [CH. V

Ies fonctions f 1 0 +/ 2 ·(1 - 0), oii O< 0 < 1. La condition que la


classe jouit de la symetrie centrale de centre / == O veut dire que
toutes Ies fois qu'elle contient toute fonction /, elle contient egale-
ment la fonction -f. En particulier, toutes Ies classes Cr (A) satis-
font aux conditions du theoreme.
Demontrons en bref ce theoreme. Prenons 11 > o· arbitraire. Conformement
a ladefinition de ZN {F), on peut indiquer un procede d'integration tel que
î(N (F) :s;;; ZN (F) +
11•
Pour P 1 , <1>2 , ••• , ,z,N correspondant a ce procede posons
1-P o -P .pO_,T\ (Po. O) ..
h 2 - -v2 1' ' • • •'
P_Rr=<I>N (PÎ, ••• , P_Rr_ 1 ; O,· ••• , O).
Designons p~r Y l'ensemble des points d'un espace A (N +
1) dimensions
(Yo, Y1, • • ., YN) = (l (J), / (Pi), • •. , / (P~)) .
pour / E F. D'apres Ies proprietes de la classe F, l'ensemble Y est symetrique,
!Jo

li,

!fo=-IJo+J),y,
Fig. 5.8.1
de centre de symetrie a l'origine des coordonnees, ferme et contenu dans
une partie finie de l'espace (fig. 5.8.1). Soit
Do= sup Yo•
Olo, • • •, IIN)EY
§ 8) OPTIMISATION DE L'ESTIMATION DE L'ERREUR 287

Puisque Y est ferme, le point (Do, O, ••• , O) appartient A Y et il existe une


fonctio3:1 _IO E F qu~ lui correspond et telle" que
I Uo) = Do, Io (PÎ) = ... = Io (P:) = O.
La theorie des ensembles convexes nous apprend que par tout point de la fron-
tiere d'un ensemble on peut mener un plan d'appui; rappelons qu'un plan
d'apfui ·est un plan passant par un point de la frontiere et tel que tous lespoints
de I ensemble soient d'un seul cote de ce plan. Soit
N
ao(Yo-Do)+ ~ CZJYJ=O
i=1
l'equation de ce plan d'appui. Nous proposons au lecteur de s'assurer que parmi
tous Ies plans d'appui passant par le point (D 0, O, ••• , O) il en existe un qui
verifie a 0 -:/= O. Son equation se met sous la forme
N
a.·1
Yo =Do+ ~ DiYJ, D1= - a.o -•
i=t
Le plan qui lui est symetrique par rapport a !'origine (O, ••• , O) est
N
Yo= -Do+ ~ DiYJ.
i=t
Par suite de la symetrie du corps Y par rapport a !'origine, ce plan sera egale-
ment un plan d 'appui pour Y. Le corps Y se trouve entre ces plans; donc, pour
tous ses points
N
IYo- i=t
~ DJYJ l<Do;

se rappelant la signification des coordonnees y 1, ecriv~ns cette relation sous la


forme .
N
jl(f)- ~D1/(Pj)J<:Do
i=t
pour tont IE F.
Nous avons obtenu une formule de quadrature avec estimation du reste
RN (F) ~ D 0 • Donc, l'inegalite
WN (F) =
inf RN (F) ~ D 0
est satisfaite. Appliquons l'algorithme initial au calcul des integrales / (±/0).
Vu la condition Io (Pj) = O, j quelconque, nous obtiendrons successivement
Ies valeurs des points et celles des fonctions en ces points: ,
:f: Io {PÎ)=O, P2=fl>2 (PÎ; ± I (PÎ))=
=tI>1dPÎ; O)=Pi ± / 0 (Pg)=0, ••• , ± /0 (P~_ 1) =0,
PN=Cl>N(PÎ, •.. ,P~-1; ±/o(PÎ), •• :, ±fo(P~-1>>=
=Cl>N(PÎ, ••• , p_g,_f; O, ••• , O)=P~, ±/o(P~)=O.
288 PROB~MES Ă PLUSIEURS DIMENSIONS [OH. V

Dans Ies deux cas, la valeur approchee de !'integrale sera posee egale ă

SO=S (PÎ, ... , PRr; ± Io (P~), •.• , ± fo (PRr))=S (P~, ... , P~; O; ••• , O).
D'autre part,
I (±/0) = ±D 0 ,
aussi
I / (/o) - S 0 I + I S 0 - I (-Io) I ;;;.i: I(/ Uo) - SO)+ (S 0 - I (-/o)) I= 2Do.
Ainsi, pour l'une des fonctions ±/0 l'erreur sur la valeur approchee est au moins
egale a D 0 • En d'autres termes, D 0 ~ RN (F). On a la chaîne des relations
WN (F) ~ RN (F) ~ D 0 ~ RN (F) ~ ZN (F) + 1),
d 'ou, 1J etant arbitraire,
WN (F) ~ ZN (F).
L'ensemble de tous.les procedes d'integration possibles contient l'ensemble des
formules de quadrature. C'est pourquoi la borne inferieure de l'erreur sur le
premier ensemble est au plus egale a la borne inferieure de l' erreur sur le second
Zn {F) ~ WN (F).
Donc,
WN (F) = ZN (F).

Les classes de fonctions qui interviennent dans Ies divers cha-


pitres de la theorie de l 'integration numerique satisfont toujours
aux conditions du theoreme demontre; on pourrait en deduire que
l 'etude des procedes d 'integration plus generaux n 'est pas plus avan-
tageuse que celle des formules de quadrature et n'est donc pas ration-
nelle. Du point de vue d 'une science appliquee cette conclusion est
fausse. Citons Ies arguments a l'appui.
t. En pratique Ies classes de fonctions peuvent tout simplement
ne pas âtre convexes. Une classe typique que l'on rencontre dans Ies
applications est visţblement celle des fonctions analytiques par
morceaux. Reprenons le cas unidimensionnel. Sila classe est convexe,
la demi-somme de deux fonctions de la classe appartient toujours a
eette classe. La demi-somme des fonctions presentant l points ou
l'analyticite n'a plus lieu peut avoir 2l points jouissant de cette
propriete. Donc, la classe des fonctions analytiques telles qu 'elles
ne le sont plus en l points donnes n'est pas convexe. Si le nombre de
tels points n'est pas majore, la classe n'est pas fermee: la limite
d 'une suite de fonctions analytiques par morceaux telles que le
nombre de points ou elles ne sont pas analytiques croît indefiriiment
peut etre une fonction qui n' est pas analytique par morceaux.
2. Plus haut on a compare Ies methodes d'integration d'apres la
borne superieure de l'erreur sur_ une classe. 11 se peut cependant que
les deux methodes presentent une meme erreur sur la classe, tandis
,que pour la plupart des fonctions de celle-ci l'une d 'elles a une erreur
plus petite. 11 est clair que cette _derniere methode est ă. preferer, et
la comparaison des methodes selon la borne superieure de l'erreur
..sur une classe ne donne pas dans ce cas un tableau d 'ensemble.
§ 9) METHODE DE MONTE-CARLO 289

§ 9. Methode de Monte-Carlo
En construisant des formules de quadrature on a toujours eva-
lua leur erreur sur une certaine· classe de fonctions. Pour la formule
des trapezes par exemple c'etait une estimation de la forme
const• A 2N-2 sur la classe des fonctions ayant leurs derivees secondes
hornees par A 2 constant (N est le nomhre de points d'integration).
11 s'agit en l'occurrence d'estimations garanties de l'erreur sur une
classe de jonctions, i.e. elles garantissent que l'erreur sur la valeur
approchee de !'integrale ne depasse pas une certaine valeur pour
toutes Ies fonctions sous le signe somme appartenant a la classe con-
sideree. Dans cette approche, en evaluant l'erreur commise sur une
integrale concrete, on se guide sur l 'erreur d 'integration de la << pire >>
fonction de la classe en question. Pour certaines classes cette eva-
luation est si mauvaise qu' elle âte tout espoir d 'obtenir une valeur
approchee de I 'integrale avec la precision demandee. Par exemple,
d'apres Ies theoremes des §§· 7, 8, il n'existe pas de methodes dans
lesquelles l' estimation de I' erreur sur la classe des fonctions
C1, ..• , 1 (A, ... , A) soit meilleure que dAN-11, (s etant la mul-
tiplicite de I 'integrale calculee).
Supposons qu'on a a garantir une estimation inferieure a0,01 dA.
Alors le nombre de points doit verifier l'inegalite dAN-11, ~ 0,01 dA,
autrement dit, N ~ 100 8 • Puisque le calcul de chaque valeUŢ de la
fonction sous le signe somme exige en general un grand nombre d 'ope-
rations arithmetiques, mâme pour s = 6 une telle condition imposee
au nombre de points s~ trouve pratiquement impossible a realiser.
Ainsi, îl nous est impossihle de calculer la valeur de !'integrale
avec une ·estimation garantie d 'erreur egale a 0,01 dA. On leve
cette contradiction en decrivant de facon plus detaillee Ies classes
de f onctions sous le signe somme. En particulier, nous laissons de
câte Ies classes de fonctions et Ies methodes d 'integration numexique
correspondantes qui sont apparues lors du calcul d 'integrales resul-
tant de la resolution d 'equations par developpement en serie de
Neumann. On peut aussi refuser une estimation stricte, garantie de
l'erreur au profit d'une autre qui n'a qu'un certain degre de certi-
tude. En particulier, en confectionnant Ies programmes standard
d'integration (§ 17, eh. III) nous avons renonce a evaluer l'erreur
de fa~on stricte ; celle-ci a ete evaluee au moyen de la difference des
resultats du calcul de la valeur approchee de !'integrale pour diverses
valeurs des parametres.
Une des methodes de calcul approche des valeurs d 'integrales
telle que l'erreur est evaluee de facon _non garantie mais avec un
certain degre de certitude est la methode de Monte-Carlo.
Soit a calculer la valeur approchee de I 'integrale
J(/)= J/(P) d!!.
G
19-0100 7
290 PROB~MES A PLUSIEURS DIMENSIONS [CH. V

Supposons qu'on a. reussi par un procede quelconque a obtenir N


points aleatoires P 1 , •••.,· PN deux a deux independants, equire-
partis dans G avec la densite p (P), ~ p (P) dP = 1. Posons
G

f(PJ)
Sf(/)= p (Pj) •

Les variables aleatoires s1 (J) sont deux a deux independantes et


possedent une mâme loi:

Es1 (f) = J!~;~


G
p (P) dP= I(!)

et
Var (s1 (/)) = Esj (/) -(Es1 (/)) 2 =
= J( ~ \~)) ) p (P) dP -(Es1 (/)) =D (/).
2
2

G
ou
D (I)= I ( i; )- (I (/))2.
Posons
N
SN(f)= !~ i=f
Sj (/).

D'apres Ies proprietes indiquees des variables SJ (/) on a


N
ESN (/)= ~~ Es, (/)=I(/),
i=1
N
Var (S N (I))= i 2 ~ Var (s1 (f}) = ~ D (/).
i=1
L' inegalite

ISN(f)-1(1)1<~ (1)

(dite inegalite de Tchebycheff) est satisfaite avec la probabili te


1-11. En faisant 11= 0,01, il vient

ISN(l)-l(f)l<10vEJII
avee la probabili te 99 %•
§ 9) l'rmTHODE DE MONTE-CARLO 291

On obtiendrait une meilleure estimation en supposant que Ies


points P 1 sont non seulement deux a deux independants mais inde-
pendants dans leur ensemble. Alors., d 'apres le theoreme limite
central la variable aleatoire
SN (/)-/ (/)
1/D(f)/N
a une repartition asymptotiquement normale et la fonction de repar-
tition

_© (y) = V~.. 1 exp ( _:_


1
; ) dt.

La probabilite pour que la variable aleatoire ayant une telle fonc-


tion de repartition ne depasse pas en module la valeur y > O est
asymptotiquement egale a

Po (y)= 1 la. I 00

exp ( - ~ ) dt.

Ainsi, pour N grands on a, avec une probabilite voisine de p0 (y),


l 'inegalite

En posant .Y= 3 et y= 5, on· obtient que Ies inegalites

I S N (I)- I(/) I<: 3 J/ D )/> et IS N (!)- I (f) I ~ 5 J/ D J.J>

sont saţisfaites avec Ies probabilites respectives 0,997 et 0,99999.


Les assertions enoncees ci-dessus sont parfois appelees Ies regles
<< des trois sigma>> et << des cinq sigma>> respectivement.
La quantite inconnue
D (f) = I ( ~ )-(I (/))2
intervient dans le deuxieme membre de ces estimations. Tâchons
de l'evaluer a partir de l'information sur Ies valeurs calculees de
f (P 1). D'apres la definition de D (f), on a
. D (/) == E (s1 (/) - J (/))2.
Puisque S N (f) ~ I (t), on a D (t) ~ l (f)_, ou
l (t) = E (s 1 (/) - S N (/))2.
Recourons a des raisonnements plus rigoureux.
f9*
'292 PROBl.BMES A PLUSIBURS DIMENSIONS [OH. V

La- relation
E (s1 (/) - S N (f)) = Es1 (f) - ES N (f) = I (j) - I (f) =O
entraîne l (j) = Var (s1 (I) - S N (/)). 0n a
N
Sj ( / ) - 8 N (/) !~ =
= SJ ( / ) -
i=1
St (/)

=s,(f) ( 1 - ! )- ! ~ si(f);
i-:;p;
ii en resul te
•,Var (s1 (f)-S N (/}) 1)2 Var (s1 (/)) +
= {1 -
+ ~ Var (st(/})/N = ( ( 1 - 1) + ~N/ ) D (f) = (1 - 1)D (f).
2 2

i=l=i . .

On a definitivement l (!) = ( 1 - ! )D (I) et, doncs


N
D (!) = N -1 E (SJ (/) -SN (I) )2.

Selon la loi des grands nombres on peut demontrer que l'ega-


lite approchee
N
E (s1 (f)-SN (/))
2
~ ! ~ (s1 (f)-S
;=1
N (/))
2

est satisfaite avec une grande probabilite. La derniere relation


~entraîne avec une grande probabilite l'egalite approchee
D (/) ~ n<N> U),

N
n<N> (/) = N1 1 ~ (s1 (f)-SN (!))2.
i=1
Citons a titre d'exemple un schema d'application de la methode
de Monte-Carlo. Considerons le cas µ (G) = 1. Soient 1 - 11 leniveau
de securite avec lequel on veut obtenir la valeur approchee de !'inte-
grale, E la precision donnee. 0n determine y par l'egalite
. .
00

~r ~xp ( - 2t ··) dt.·


2
1
. · 11= Vn
§ 10) L::eGITIMIT::e DES DTBODES IND::eTERMINISTES 293

Pour n = 1, ... on obtient SU;ccessivement Ies points aleatoires Pn.


independants, uniformement repartis dans G et on calcule tn (fh
Sn (f),; dn (j), Dn (f) en utilisant Ies relations de recurrence
tn (/) = tn-1 (/) + f (P n),
Sn (/) ~ tn (f) ,
n
dn (f) = dn-df)+ n n 1 (/ cPn)-Sn (/)) 2
,

Dn (I}= :n (/1 ,
et la quantite
Ân =Y J/DnJi) .
Les conditions initiales de la reeursion sont
t1 (f) = 81 (f) = I (P1), di (f) = D1 (f) = O.
PROBLEME, Verifier que Dn (f} = n<n> (j).
Si Ân ~ E, Ies calculs s' arretent ; on pose I (f) ~ S N (/) et on
considere que ·1'inegalite I J (/) - S N(/) I ~ E est satisfaite avee-
la probabilite 1-T). .
Remarquons qu'en realite cette inegalite est satisfaite avec une probabilite-
un peu moindre, mais tres proche de 1 -. 11· ·
On lit souvent dans Ies manuels de calcul numerique que la metho-
de de Monte-Carlo est une technique universelle pour calculer Ies·
integrales de multiplicite elevee. L'ordre de grandeur de l'estima-
tion de la vitesse de convergence de la methode de Monte-Carlo„
O (1lV N), ne depend pas de la dimension de !'integrale, alors que
celui des estimations garanties augmente sensiblement avec la di-
mension. Dans la inethode de Monte-Carlo, pour tout n, on evalue:
effectivement l'erreur au moyen de V Dn (/)/net, donc, le calcul s'ar-
râte au moment ou la precision demandee est atteinte.
Avant d 'y souscrire voyons le << pour >> et le << contre >> de la me-
thode en question.

§ 10. Legitimite des methodes indeterministes


_ de resoly.ţi~n des pr~~I.emes
Certains utilisateurs sont prevenus contre la methode de Monte-
Carlo: la petitesse de son erreur n'etant assuree qu'avec une certaine.,
probabilite, ils l'avancent pour nier sa legitimite.
Nous avons deja dit qu'en calculant Ies integrales de multiplicit&
tres elevee on n'a aucun espoir (ou peu s'en faut) d'obtenir une valeur-
294 PROBL:ll:MES A PLUSIEURS DIMENSIONS [CH. ·v

approchee de l'integrale avec la ga:rantie d'une petite estimation


d 'erreur. Cette situation suggere justement l'emploi de la methode de
Monte-Carlo.
Remarquons que meme Ies programmes standard de calcul des
integrales simples (eh. III) ne garantissent pas completement une
erreur faible en cas de fonctions a integrer regulieres arbitraires.
D'autre part, la resolution de n'importe quel probleme s'accompagne
d' erreurs eventuelles dans sa position, dans le programme, etc.
Pour toutes ces raisons et pour d'autres ancore il est rare qu'on puisse
assurer que l'ecart entre le resultat des calculs et le modele reel sera
petit: il y a toujours une certaine probabilite de l'erreur. Tout cela
nous montre que !'abandon de la methode de Monte-Carlo a cause
de son caractere probabiliste est injustifie.
D'autre part, en utilisant la methode de Monte-Carlo on doit
tenir compte de ses defauts suivants:
Pour appliquer la methode de Monte-Carlo il est necessaire de dis-
poser d'une suite de points independants Pi possedant une loi de
repartition donnee. En pratique, l'utilisateur dispose des genera-
teurs de nombres aleatoires ou pseudo-aleatoires qui donnent des
suites de nombres aleatoires uniformement repartis sur [O, 1). En Ies
transformant on obtient des nombres aleatoires de lois demandees.
Les premieres caleulatriees electroniques etaient munies de certains
dispositifs (utilisant par exemple le phenomene de desintegration
radioactive) qui elaboraient des suites de variables aleatoires satis-
faisant parfois a la condition d'independance dans l'ensemble. Or,.
leur vitesse de fonctionnement etait petite et on y renon9a avec
le progres du materiei de calcul. Au lieu de generateurs de nombres
aleatoires on utilise des generateurs de nombres pseudo-aleatoires:
programmes qui donnent Ies suites des nombres a prendre pour
nombres aleatoires. L 'utilisation des generateurs de nombres pseudo-
aleatoires s'est averea bien avantageuse car elle a permis une vaste
application des methodes probabilistes. Pourtantt on doit preciser
toujours Ies proprietes des suites de nombres qu 'ils fournissent.
En effet, certains generateurs elaborent des suites de nombres qui
peuvent âtre consideres comme deux a deux independants, mais-
non independants dans leur ensemble. Dans ce cas on ne saurait se
servir d 'estimations d 'erreur basees sur le theoreme limite central.
On desire calculer I 'integrale
1 1
I(!)= ) • • • ) / (x1, ••• , Xs) dx 1 ••• dx8
o o
par la methode de Monte-Carlo. Supposons qu'on veut prendre comme
points d 'integration une suite de points independants uniforme-
ment repartis du cube unite. Si le generateur de nombres pseudo-
s
aleatoires donne une suite de nombres 1 , • • • uniformement repartis
§ 10) LJ:!:GITIMIT:E: DES M:E:THODES IND:E:TERMINISTES 295

sur [O, 1], il est naturel de prendre pour points d 'integration les
points (61, ... , 6s), (Ss+t, • • ., 62s), • • •
Pour que l 'inegalite de Tchebycheff soit licite, il faut que l 'hypo-
these sur l 'independance de la repartition de tous Ies points P ,~
c'est-a-dire l'independance de la repartition des ensembles
(6 Ci-i>s+h • • •t ~Js), (~a-us+h • • •, 6is),
soit remplie.
A mesure que s croit, cette hypothese impose des contraintes de
plus en plus severes au generateur de nombres pseudo-aleatoires.
On connaît de nombreux exemples d 'une utilisation malheureuse de
la methode de Monte-Carlo pour s grands, dont voici la raison. La
mise en amvre de la methode et l' evaluation d 'erreur se faisaient dans
certaines hypotheses sur telles ou telles proprietes statistiques des
nombres pseudo-aleatoires. Or ces hypotheses etaient fausses. Ce
qui entraîna une fausse appreciation de la petitesse de l'erreur.
Donc, le danger de la methode de Monte-Carlo n' est pas tant dans
le caractere probabiliste de l'evaluation de l'erreur que dans le
fait qu'on effectue souvent celle-ei dans l'hypothese des proprietes
inexistantes des generateurs de nombres pseudo-aleatoires.
L'independanee de l'ordre de grandeur de l'estimation d'erreur
par rapport a la dimension de !'integrale qu'on calcule eonstitue
un avantage de la methode consideree. Pourtant, en insistant sur
l'ordre de convergence de la methode on risque de negliger le fait
important suivant. Nous avons evalua l'erreur sur la valeur appro 7
ehee de I 'integrale et obtenu
IS N (!)- I (I) I~ const• VD (/)/N.
Or d'habitude, c'est la petitesse de l'erreur relative sur la valeur ap-
prochee de !'integrale qui importe, i.e., dans notre cas, celle de la
quantite
-Vnîn
ll{f) IVN.
La statistique des integrales qu'on calcule en realite montre que
VD (f)/ I I (f) I a tendance a s'accroître brusquement avec la dimen-
sion des integrales. Illustrons ce fait sur !'exemple de !'integrale
1 1
l(fs)= j Jexp ( -32 (x: + ... +x;)) dxt ... dxs,
o o
telle que
VDUsÎ > 10s12 _ 1
11 Us> I .
296 PROBL~MES A. PLUSmURS DIMENSIONS [CH. V

De ce fait le eout de la methode de Monte-Carlo augmente sensible-


ment avee la dimension des integrales (l'erreur relative etant la
mâme). Avant d'appliquer directement la methode au calcul d'inte-
grales multiples on se propose souvent de diminuer la quantite
VD(f)/ I I (f) I et on procede a cet effet a une etude minutieuse des
proprietes de la fonction sous le signe somme, a la transformation
de !'integrale moyennant un changemenf;' de variables, etc.

§ t t. Acceleration de la convergence
de la methode de Monte-Carlo
Voyons eertains procedes susceptibles d 'augmenter I' efficacite
de la methode de Monte-Carlo.
1. 11 s' agit en particulier de representer / (P) sous la forme
I (P) = F (P) + g (P),
oii F (P) est explicitement integrable et contient toutes Ies com-
posantes a variation rapide def (P), et g (P) est une fonction variant
eontinument de variance petite. On di vise parfois le domaine d 'inte-
gration en petits domaines partieis et on prend· dans chacun de ceux-
ci pour F (P) un polynome d 'interpolation aux poi11ts dans ce do-
maine partiel.
2. La variante de la methode de Monte-Carlo etudiee au § 9
comportait comme parametre libre la fonction p (P), densite de
repartition des points d'integration. L'estimation d'erreur montre
que l'erreur est d 'autant plus petite que Ies valeurs de Ia fonction
f (P)/p (P) sont moins dispersees. Un choix convenable de· la fonc-
tion p (P) entraîne donc egalement une diminution de la variance.
Nous avons etudie le cas oii tous Ies points P 1 avaient une mâme
fonction de repartition p (P); iI s'avere souvent utile de choisir
des points d'integration ayant des fonctions de repartition p 1 (P)
distinctes.
Un cas particulier: repandu de ce procede est le suivant. L'in-
tegrale initiale est representee par la somme d 'integrales
m
/(/)=) f(P)dP=LJ li(/), /z(f)= j f(P)dP,
G l=1 Gz
N par
N = N1 + ... + Nms
et on calcule chaque Ii (f) par la methode de Monte-Carlo a N z points
d 'integration. Etudions le cas de I 'integrale de la fonction visualisee
par la fig. 5.11.1. En calculant directement I 'integrale initiale
pour p == 1 on a D (f) = 1/4. Si G1 = [O, 1/2), G2 = [1/2, 1],.
alors pour tout N 1 ,\N2 =I=- O, Ies deux integrales Iz (f) et_, partant.,,
§ U] ACCiLiRATION DE CONVERGENCE. DE ~DTHODE DE MONTE-CARLO 291

!'integrale initiale, seront calculees exactement. Ce cas tres rare- .


ne se produit que si on a reussi Apartager le domaine initial en parties
dans lesquelles la fonction sous
le signe somme est constante ; 1,5
pourtan.t, · si on parvient a le '~
partager en des parties telles que
la fonction y varie faiblement,
on peut obtenir une amelioration
sensible de la precision pour le
meme volume de calcul. I -
Considerons le cas ou le cal-
cul de chaque integţ9ale Iz (f) se
fait avec Ies points Pj, j = 1, ... ,
N z, dont la densite de repar-
tition p z = µT 1 est uniforme I
dans le domaine Gz; et tels que 0,5 -
deux points quelconques (apparte-
nant a un mâme domaine ou A
des domaines differents) sont
repartis independamment ; ici µ z
designe la mesure du domaine Gz.
I
Comparons la methode decrite o 0,5
avec le schema initial .de la I
methode de Monte-Carlo dans Fig. 5.11.1
lequel Ies points d 'integration
sont repartis uniformement et deux A deux independants. Alors on
a pour ce schema
p (P) = µ-1 , Var S N (f) = D (/) N-1~
ouµ est la mesure du domaine G,
D (J) = µI (12) - (I (1)) 2 •
On prend pour valeurs approchees des integrales· Iz (f) Ies quantites:
Nz
sz (/) = Nµz ~
l .
f (Pj).
r-=1
On a de meme
ES' (/)=Iz(!),

ou
Var S 1 (/) = Dz (/) N, 1
,

Dz (/) = µz/z (/2) _;_(Iz (/)) 2 •


Posons
m
~ (/) = ~ S' (!) ;
1=1
~98 PROBLEMES A PLUSIEURS DIMENSIONS [CH. V

~i deux points Pt et Pt quelconques sont repartis de faQon inde-


pendante,. Ies quantites S1 (f) sont egalement deux a deux indepen•
dantes,; donc1
m
ESN (/) = ~ ESl (/)=I(!),
Z=l
m m
Var SN (!) = ~ Var (S1 (/)) = ~ D1 (!) N 11 •
1=1 Z=1
Considerons le probleme de minimisation de Var (S N (/)) par
1e choix des valeurs N 1 , • • • ,. N m, Ie nombre total des points N =
= N1 N 2+ + ... + N m etant fixe. Introduisons la fonction de
Lagrange
m
'lJ' = VarSN(f)-Â. (~ N 1 -N);
Z=1

-en egalant a zero ses derivees par rapport a N z, on obtient le systeme


d'equations -Di (f) N;: 2 - Â. =O; en resolvant ce systeme simul-
tanement avec l'equation N = N 1 + ... + Nm, on determine Ies
~aleurs demandees N z, lei et plus bas, comme d 'habitude, on ne-
:glige le fait que Ies valeurs N 1 doivent etre entieres.
Montrons que pour Ni = Nµ,iµ,- 1 on a l'inegalite
Var (S N (f)) ~ Var (SN (/)).
LEMME. Soit s une variable aleatoire. Pour tout a on a alors
E (s - a) ~ E (s - Es) 2
Var s. 2
:..._

Nous laissons au lecteur le soin de demontrer ce lemme.


Pour N 1 = N µ, 1µ, - 1 on peut acrire la chaîne de relations
VarSN(f)= D;f) = ! J_!_µ (µf(P)-/(f)) dP=
G
2

m
=~
l=i
t 5(f Gi
(P)- I~!) )2 dP=
m
=~ j J (HP)-
i µi /(f) )2 dP=
l=i µ~z µ
m
~ -Nz
= LJ 1
j _!_
µz
(µd(P)-~J(/))
. µ
2
dP=
l=i Gz
m

=~
l=1
!l Ei( µ-d (P)- ~l I(/) )2 ; (1)
,§. 12) FORMULES DE QUADRAT-URE AUX POINTS A~ATOIRES

on designe ici par E 1g (P) 1' esperance mathematique de g (P) sous


l 'hypothese que le point P est uniformement reparti dans G1• Repre-
nant (1)., d'apres le lemme, on obtient l'inegalite
m
VarSN(f)>~ ;., Ez(µzf(P)-Ez(µzf(P))) 2,
l=t
or,
E, (µJ (P)) = I, (fh Ez (µJ (P) - 1, (/)) 2 =Di(!),.
et le deuxieme membre de la derniere inegalite coincide avec
Var (S N (/)). Donc, la relation demandee Var (S N (j)) ~ Var (S N (/))
est demontree.
Le fractionnement du domaine d 'integration pour diminuer la variance
de la methode de tMonte-Carlo est largement utilise dans le traitement de l'infor-
mation scientifique. Soit a determiner les reserves de neige dans le bassin d 'un
fleuve. En appliquant directement la methode de Monte-Carlo on choisirait de
fa~on independante plusieurs points a densite de repartition uniforme en les-
quels on mesurerait la quantite de neige par unite de superficie. Pour les par-
celles de surface au.x conditions naturelles identiques (altitude, niveau de
nebulosite, peuplement forestier, direction des versants, precipitations, direc-
tion generale du vent) cette quantite de neige est approximativement egale.
C'est pourquoi la division du bassin en de telles parcelles permet d'ameliorer
sensiblement la precision.

§ 12. Formules de quadrature de precision


elevee aux points aleatoires
Si la fonction sous le signe somme est reguliere., la division du
domaine d 'integration en parties augmente I' ordre de grandeur de
la vitesse de convergence. Soit a calculer
1 1

I (f) = J ... J/(x1, ••• , Xs) dz


1 ••• dx,.
o o
Posons N = na et partageons le domaine initial d 'integration en
cuhes egaux IIm :
m1-i ./ ./ m1 m8 -1 & & m8
n ~X1 ~ ---;i-, • •• , n --.:::: Xs-...::: ---;i- •

Dans chaque cube choisissons un point aleatoire P m• Prenons sa


densite de repartition pour une constante egale a na et supposons
que Ies points sont deux a deux independants. Posons
n
f(Pm)•
mt, •. . , m1 =1
300 PROBL1!:MES A PLUSIEURS DIMENSIONS [CH. V

La eondition Nz = Nµ 1µ-1 est remplie dans ee eas. Par suite, d'apres


la relation demontree plus haut, on a
- D(n
VarSN(f)~VarSN(f)=,:r,
de plus,
ESN (j) = I (j).
Preeisons l'estimation de la variance en supposant que la fonction
f (P) satisfait a la eondition de Lipsehitz dans le rapport A pour
ehaque argument. L 'egalite ·
n
Var ( ~s f (Pm)) =
m1, .•. , m8=1
fl
1
28 Varf (Pm) (1)'
n

est verifiee.
Evaluons de fa~on grossiere Var/ (Pm); il vient
Ef (Pm) = O'm = ) n'f (P) dP;
IIm
par suite du theoreme de la moyenne
CJm=/(Pm), · OU PmEIIm
et done
E/ (Pm) = f (Pro).
Par ailleurs,
f (x1 + d1, • • •J Xa +As) - f (x1, • • ., Xs) =
= + A1; .· .. , Xs + As) - f (x1 + A1, ... , Xa-1 +
(f (x1
+ Aa-1, x)) + (f (X1 + A1, ... , Xs-1 + As-1, Xs) -
- f (x1 + A1, • • ., Xs-2 + As-2, Xs-1, Xs)} + • • •
... + (f (x1 + A x X1, f (x
2 , ••• , 8) - 1 , •••., X 8 }).
II en decoule que pour Ies fonctions de la classe en question on a
+ +
I/ (X1 A1, ... , X 8 As) - f (xi, •.. , Xa) I ~
~A ( I Ail + ... + I As I).
Si le point Pm appartient a Ilm, alors chacune de ses coordonnees.
differe de la eoordonnee correspondante du point Pm de n-1 au plus.
C'est pourquoi la derniere inegalite entraîne l'estimation
I f (Pm) - f (Pm) I ~ Asn-1
'§ 12] FORl\lULES DE QUADRATURE AUX POINT$ AL~ATOIRES 301.

pour Pm E IIm, d'oii


I/ (Pm) - O"m I~ Asn-1 • (2)
Toute variable aleatoire s satisfait a l'inegalite
I E sI ~ sup I s 1-
Donc
2
Var(/ (Pm)) = E (f (Pm)-am) 2 ~ sup (/ (Pm)-O-m) 2 ~ ( ~) •
PmEIIm n
~A l'aide de cette estimation on conclut que le deuxieme membre de
(1) ne depasse pas la quantite

Ayant designe par N Ie nombre total des points na, on obtient l'esti-
mation •
- A2s2
Var S N (/)~ N1+ 2 /a • (3)

D'oii, d'apres l'inegalite de Tchebycheff (9.1), il vient


- As
I s N (f) - ] (I) I~ Ni/8 -V T)N
·.avec la probabilite 1 - 11· Du point de vue de l'ordre de grandeur
l'estimation obtenue est meilleure que celle O (1!l/ N) de la methode
de Monte-Carlo. II s'agit de l'estimation en probabilite; ii se trouve
que pour la methode consideree on peut obtenir une estimation
garantie. La multiplication de (2) par n-a donne

I :s /(Pm)- J f(P)dP,~ n:1 •


IIm

_La quantite S N (I) - I (I) peut etre representee ~sous la forme d 'une
.somme des termes ·
n
~
m1, ... , m 8 =1
( :a I (Pm)- J f(P) dP) •
IIm

·En sommant Ies estimations pour ces termes, on obtient


- As As
ISN(f}-1(/) 1~,i-= Ni/a•

La comparaison avec le theoreme du § 7 montre que la methode ·en


question admet une estimation garantie de l'erreur, qui est optimale
relativement a l'ordre sur la classe eonsideree.
302 PROBLSMES A PLUSIEUBS DIMENSIONS [CH. V

Peut-on ameliorer l'estimation de varianee (3) sur cette classe?


La methode de Monte-Carlo et Ies autres procedes d 'integration ana-
logues au mode operatoire considere et tels que la valeur ·approchee
de I 'integrale depende de eertains parametres aleatoires sont dites
indeterministes. Soit S N (F) la valeur approchee de !'integrale I(/)
obtenue par une methode indeterministe.
TH~OR:8ME (sans demonstration). Il existe di (r; A), d2 > O, satis-
faisant a la relation suivante. Pour toute methode de calcul d'integrales
qui n'utilise de l'information sur la jonction sous le signe somme que
celle sur ses valeurs en N points, il existe une fonction f E Cr (A) telle
que
(4)
avec la probabilite d2 ; ici comme plus haut ..!.. = _.!_
r r1
+ ... +..!.
r
"
8
S N (/) est une valeur approchee de l'integrale.
II est evident que (4) entraîne l'inegalite

Var SN (/) > dsN2r+t


(r, A)

qui signifie en particulier que l'ordre de grandeur de (3) ne peut


etre ameliora.
THl?ORSME (sans demonstration). On peut indiquer des procedes
d'integration pour lesquels on a simultanement l'estimation d'erreur
garantie
I SN (/)-](/)I~ d" ~r A)
et

58 ES N (!) =I(!), V Var S N (I)~ ;)~.1~~


quelles que soient f ECr(A).
Nous avons construit plus haut un tel procede pour r 1 = ...
. . . = r8 = 1. II consiste a partager le domaine initial d 'integration
en plusieurs parties et a caleuler !'integrale sur chacune d 'elles au
moyen d 'une « formule de quadrature aleatoire ».
Considerons la classe de fonctions C< 2 , ••• , s, (A, ••• , A). Comme au debut
de ce paragraphe prenons dans chaque cube Ilm un point aleatoire P m· Designons
par P:i le point symetrique de P m par rapport au centre du cube; posons
1
sm (/) = 2n• (/ (P ml+ f (P:i)),
n
SN (/)= ~ 8m (/).
m1, ••• , ms=1
§ 12] FORMULES DE QUADRATURE AUX POINTS AU:ATOIRES 30~

Les points P m' Pt sont uniformement repartis dans le cuba considere; donc►

E ( : 8 f (Pm)) =E( :8 f (P:il) = ~ f(P))JP.


IIm
11 s'ensuit que
Esm (!)= Jf (P) dP
IIm
la sommation de ces relations nous donne
ESN (f)=l (/).
Comme plus haut, on a
n n
1 "'1 V (/ (Pm)+I (P:.))
VarSN (/)= ~ Varsm (/)= nh LJ ar 2 •
m1, ••• , ms=1 mf, • •• , ms=i
(5)
Designons par .Pm le centre du cube Ilm ; en soustrayant la constante sous le-
signe de variance, on obtient l'egalite

Var
(! (P ml+ f (P:i))
Var
(J (P m>- 2/ (fim>+ I (P:.)) • (6}
2 2
Pour un point P m = (z1, ••• , x 8 ) fixe, introduisons la fonction
g(t)=f { m1-1/2
n
+ .x1-(m1-1/2)
.n
t, ••• , m8 -t/2 I '.x8 -(m8 -{/2)
n n
t}.
11 est clair qtie
g (1)=/(Pm), g (O) =/(Pm), g (-t)=HP:.).
Exprimons la difference seconda en fonction de la derivee deuxieme
I (Pm)-2/(P.n) +f(P~)=g (1)-2g (O)+c(-t)=gM (8), I 8 I <;t.
Une derivation immediate nous montre que
8

g" (t) = "'1 f { m1 -1/2 I• nz1 - (m1 -1/2) t, .•. ) X


LJ :cl,cJ n n
i,i=1

Puisque (zt, ••• t Za) Enm'

C'est pourquoi
As9
I g" (t) I< 4 nz pour f t I< t,
I I (Pm)-2/ (Pm)+ fl(P:i) r As1
2 < 8n 1 •
(7}
PROBL1!:MES .A PLUSIEURS DIMENSIONS [CH. V

_-Conformement a~aiderniere inegalite on a


f ( As2 ) 2
Varsm (/)<,ii, 8n2 •

-La substitution de cette estimation dans le deuxieme membre de (5) donne


(As2)2 24./a
Var SN(f)< IN=2n•.
Ni+4./a ,
32
D'oii, a l'aide de l'inegalite de Tchebycheff (9.1), on obtient
As221/2+2/s
I SN (J)-1 (I) I< 8N2/sy11N
.avec la probabilite 1 - T'I·
Le procede d'integration considere permet egalement d'obtenir une esti-
,u.ation d'erreurgarantieO (AN- 218). En effet, la relation (7) signifie que pour
tous Ies Pm la v&leur de sm (/) appartient au segment

[ :, ( I (Pm>- ::: ), ;s (I (Pml+ t: )J •


Donc, il en est egalement de son esperance mathematique

) f(P) dP.
IIm
-On en deduit que pour tous Ies P m la quantite

I sm (f) - ) / (P) dP
Ilm
I
4s2
ne depasse pas la longueur de ce segment, a savoir n2+8
4
• Ainsi,

Ism (f) - J/
Ilm
(P) dP I< ~:s .
4

En sommant par rapport A m, on obtient l'estimation d'erreur


As2 As222/s
I8 N ( / ) - / (f) I< 4n2 4N2/s •

La comparaison avec Ies enonces des theoremes sur Ies minorations des estima-
tions garanties et indeterministes d'erreurs montre que dans le cas de la classe
C <i, ••• , 2 > (A, ••• , A) et Ies estimations garanties et celles ~n probabilite
de la vitesse de convergence du procede construit ci-dessus sont optimales relati-
vement a l'ordre. ·
§ 13. Choix de la methode
Discutons le schema de resolution d'un probleme qui s'est tres bien prâte
aux techniques de Monte-Carlo de ce type. On a eu a calculer la serie d'integrales
/(cit, a 2 ,'aa)=
.
f
c
f (P; ai, a 2 , a 3) dP
§ 13] CHOIX DE LA MgTHODE 305

{'0ur differentes valeurs des parametres ai, a.2, a. 8• Le domaine d'integration G


etait compris dans le cube unite a trois dimensions, la condition d'appartenance
d 'un point a G etant donnee par un systeme d 'inegalites encombrantes. 11 etait
clair qu'on ne pouvait faire le changement de variables independantes de faţon
que G prît une forme standard permettant l 'application de formules de quadra-
ture tres precises. On a du prolonger / par O en dehors de G et ramener le probleme
initial au calcul de !'integrale
1 1 1
l(a.1, a.2, a.a}=) ) ) f(P; a.1, a.2, a.a} d.1:1 dz2 tka,
o o o
ou
- (P. a. a. a)= { f (P; a.1, a.2, a.a) pour PE G,
1 ' 1' 2, 3 O !pour P EG.
La fonction a integrer etait desormais discontinue. On a calcule !'integrale par
la formule des rectangles et celle de Gauss. Pour verifier la precision on a fait
Ies calculs avec un nombre variable de points d 'integration; Ies resultats se
sont stabilises lentement (ils variaient rapidement avec chaque nouveau nombre
de points), ce qui indiquait une precision faible des valeurs approchees obtenues.
L'application immediate de la metbode de Monte-Carlo a entraîne une stabili-
sation encore plus fâcheuse des valeurs approchees. On a donc decide de faire
d 'integration. On a partage le domaine O ~ x1 , x2 , x,
recours aux. procedes decrits de reduction de la variance par division du domaine
~ 1 en cubes egaux
de cote 1./n, puis on a essaye Ies deux methodes considerees au § 12. Comme
dans le cas d autres formules de quadrature, c'est la stabilisation des resultats
qui nous interessait. 11 s'est trouve que Ies deux methodes pouvaient assurer la
precision demandee des calculs en temps machine admissible.
Dans de nombreux cas le calcul d'integrales de multiplicite elevee ou d'une
grande serie d'integrales ne peut âtre effectue que grâce a l'elimination des
calculs analogues repetitifs. La resolution du probleme considere a d'abord paru
inextricable, tellement le test d'appartenance du point P au domaine G etait
laborieux; la recherche de chaque valeur f (P ; ai, a. 11, a. 8) exigeait notablement
moins de calculs. Puisque toutes les integrales etaient calculees sur un mâme
domaine, on a decide d'employer l'algorithme suivant. On a partage le cube
O~ x1 , x2 , x3 ~ 1 en petits cubes de cote 1/n, dans chacun desquels on a
choisi un point aleatoire Pm et verifie la condition Pm E G (Ies coordonnees
de tous Ies points Pm E G etaient stockees en memoire de l'ordinateur). Ensuite
on a remplace toutes Ies integrales de la serie par Ies sommes
i
~ n3 f <Pm; «tt «2, a.3)
PmEG
ayantl Ies memes· points. Comme on n'avait plus a tester la condition Pm E G
lors du calcul de chaque integrale, on a reduit d 'environ 100 fois le temps
machine. Et ce n'etait pas tout. La fonction sous le signe somme etant
g (xi, ai) h (xi, X2, xa;. ai, «2, a.a),
ou le calcul de chaque valeur de la fonction h exigeait relativement peu d'o_pera-
tions elementaires sur ordinateur devant celui de g, on a employâ le schema
suivant. Toutes Ies inte~ales 7 (ai, a. 2 , a.,) correspondant a une mâme valeur
du parametre a.i ont ete obtenues simultanement, et, en travaillant sur toute
la serie, chaque valeur I( (x:a,, a.1) a donc ete trouvee une seule fois. Cet arrange-
ment des calculs a permis d'abaisser le temps machine a un niveau admissible.
Une fois la serie calculee, on a analyse la marche des operations et decouvert
~ertaines possibilites de faciliter la tâche du client et de l'utilisateur. Pour
20-01007
306 PROBLl::MES Â PLUSIEURS DIMENSIONS [CH. V

reduire le temps machine le client voulait dim.inuer le nombre M des triplets


de valeurs (a.1, a.t a.i) pour lesquels on cherchait la valeur de !'integrale.
L'operation la plus laborieuse etait la recherche des valeurs de la fonction
g (.xi, a.i). C'est pourquoi le cout total en temps machine etait proportionnel
au nombre des diverses valeurs <4 et non pas a M. Ainsi, on aurait pule reduire
egalement par un choix heureux du triplet (af, ci!). cit
Le J)robleme en question offrait encore un moyen d 'elever la precision.
L'effort de calcul qu'exige la methode consideree est proportionnel au produit
ci
du nombre des differents par celui des differentes valeurs des x1 , coordonnees
des points d'integration. Ceux-ci etant choisi au hasard, ce dernier nombre
etait tres eleve. Pour le diminuer on aurait J)U proceder de la fa~on suivante:
approcher !'integrale initiale par la formule des rectangles
m
I (a.1, ci2, a.3) ~ L, !i 2
I ( a.t, a.2, ci3, q-~/ ) ,
q=i
ou
1 1
I ( ci1, cit,
q-mi/2
a.s, - - - ) -- J( Jr -I (a.1, a.2, a.a, q-1/2
m , .x2,.zs ) dz2 d:&3,
o o
et n'employer la methode de Monte-Carlo avec division du domaine d'integra-
tion que pour trouver J (ai, ci 2 , a. 3 ; zi), Un autre procede consiste a diviser
le segment [O, 1) en segmenta partiels
1
m , [q ! ],
a choisir sur _chacun
d' eux un point aleatoire Sq et & poser
m
- 1 -
1 (a.1, a.2, a.a>~,; Li , (a.1, a.2, cis; sq>•
q=1

Ces deux methodes convergent plus lentement, mais elles exigent sensiblement
moins de valeurs- g (.xi, a.i).
On voit donc qu'en calculant Ies grandes series d:integraies
(comme, d 'ailleurs, Ies grandes series de n'importe qtleis problemes),
ce n'est pas souvent l'amelioration de la methode dans chaque proble-
me de la serie qui donne de bons resultats, mais une meilleure orga-
nisation des calculs.
En utilisant le procede decrit au § 5 le calcul d 'une integrale
de multiplicite elevee se ramene en quelque sortea celui d'une.serie
d'integrales plus simples. C'est pourquoi dans le cas d'integrales
de haute multiplicitâ on augmentera l 'efficacite par Ies techniques
decrites ci-dessus.
A noter le risque suivant si l'on veut resoudre toute la serie des
problemes a la fois.
L'ensemble des problemes proposes correspond a un phenomene
reel. II se peut que ce phenomene n 'ait pas encore ete calcule sur
ordinateur et que le modele mathematique ne soit pas satisfaisant.
Si l'on resout alors simultanement tous les problemes de la serie,
§ 13] CHOIX DE LA DTHODE 807

les resultats s'avereront inutiles. Tandis qu'une resolution de proche


en proche revele des Ies premiers resultats un ecart entre le modele
mathematique et la nature generale du phenomene. Un tel ecart
est inherent a la resolution de nouveaux proplemes etil ne s'elimine
qu'apres un grand nombre de calculs d'essai et une etude commune
du modele par l 'utilisateur et le client.
L 'utilisateur a toutes Ies raisons de vouloir participer a la dis-
cussion de la position du probleme.
En effet, si la position initiale du probleme est deraisonnable,
il perdra beaucoup de temps a choisir un nouvel algorithme et a
ecrire un nouveau programme. Tandis qu'en prenant part a la dis.:.
cussion, ii etablit pour lui Ies variantes de la position, dont il tiendra
compte en redigeant le programme. II importe donc beaucoup que
dans le cas de problemes d 'un type nouveau le programme se com-
pose de divers blocs fonctionnels susceptibles d'une modification
independante.
Le conflit d'interets du client (calcul d'un modele detaille)
et de l 'utilisateur (volume minimal de calcula) engendre scmvent un
modele simplifie du phenomene dont le calcul rapide permet de deci-
der si l 'etude d 'un modele plus complique est utile.
Considerons un autre exemple relatif au choix de la metnode
d 'integration dans le cas d 'integrales multiples. On ramene hahituel-
lement le calcul des integrales sur un domaine complique a celui
des integrales prises sur un produit direct de domaines simples:
segments, parallelepipedes, rayons, droites infinies, cercles, spheres,
boules, etc.
II y a assez de methodes parfaites d 'integration pour ces domaines
standard (p. ex. le procede decrit au § 5 ou un autre analogue).
Soit a calculer I 'integrale

I (I)== I) J /(.x1, Xz, x 2 ) dx 1 dx 2 dx3 •


f ~xf +xf+xJ~-'
II est commode de I' ecrire sous la forme
2

I (I)= JJ
1 81
g (l, ro) dro dl,

S1 etant la sphere unite et dro !'element d'aire,


g (l, ro) = l 2/ (lro1 , lro 2 , lro 3 ),
ro = (001, 00 2, ro 8), ro~ + ro: + ro! = 1.
Supposons qu'on desire calculer cette integrale au moyen dee
formules de quadrature << produit direct )) des formules sur le seg-
ment [1, 2) et la sphere S1 •
20•
308 PROBL"tMES A PLUSIEURS DIMENSIONS [CH. V

On comprend par produit direct de la formule de quadrature


2 n
Jh(l)dl~ ~ dih(li)
1 j=1
(1)

et de
m

) p (ro) dro ~ ~ kqp (wq) (2)


81 q=1
la· formule
2 n m
) ) g (l, ro) dro dl~ ~ ~ d1kqg (l1, roq)•
1 S1 j=1 q=1

Etablissons le lien existant entre l'erreur d'integration, d'une


part, et i,. technique d 'integration et le nombre des points, de I' autre.
Etudions le comportement de l'erreur d'integration numerique
sur l' axe l a l' aide d 'une formule de quadrature << de base >> sur la
sphere un.ite
mo
f p (ro) dro ~ ~ '4p (rog); (3)
§1 q=1

on exige que le nombre m 0 des points soit petit et qu'en meme temps
Ies expressions
mo
G (l) = ) g (l, ro) dro et G0 (l) = ~ kig (l, rog)
~ q=1

presentent sur l une allure qualitative identique. Par exemple.,_ on


pourrait essayer de prendre pour (3) la formule

) p (ro) dro ~ ~ p (ro1, ro2, roa),


2
:
81

ou la sommation se fait sur Ies 6 points d 'intersection de la sphere


unite avec Ies axes de coordonnees x1 , x2 , x 8 •
Supposons que pour calculer !'integrale sur l'axe on emploie la
formule de Gauss ou celle de Simpson. En utilisant successivement
Ies formules de Gauss
2 n
I
1
h (l) dl~~ d'/h (l'J)
j=i
§ 13) CHOIX DE LA ~THODE 309

pour n = nu n 2 , • • • points, on obtient des quantites

De meme., pour n = n;, n;, ... points on trouve des approximations


a l'aide de la formule de Simpson S~i.
L'etude du comportement de toutes ces quantites donne la valeur
de leur limite J 0 • Choisissons ensuite., pour chaque n, parmi toutes
Ies approximations G~i et S~ avec nh lli ~ n l'approximation rn
assurant la meilleure preeision et introduisons la fonetion de l'erreur
d 'integration numerique sur l' axe l
cpz (n) = Ir 71, - JO ,.

De meme, on fixe une formule de quadrature de base par rapport


a !'argument l (c'est souvent la formule de Gauss a deux points)
et on construit la fonction cp 00 (m) de l 'erreur resultant de l'inte-
gration numerique sur la sphere ro. Supposons que l'erreur resultante
est R = q> 1 (n) + q> 00 (m). Si Ies valeurs de la fonction / sont calcu-
lees de fa~on independante, le cout de la methode est proportionnel
a nm. En minimisant nm dans la condition q> 1 (n) q,00 (m) ~ e, +
on obtient Ies valeurs n 0 et m 0 du nombre de points cherehes. On
choisit la formule (celle de Gauss ou de Simpson) a laquelle corres-
pond n donne. En eas de doute sur la legitimite de cette teehnique
il est possible de verifier l'exactitude du resultat par une integration
eomplementaire avec des valeurs de n et m legerement differentes
de n 0 et m 0 •
Voici un exemple typique d'un tel choix de la methode d'inte-
gration pour chaque axe dans le cas d 'une grande serie d 'integrales
prises sur le cube unite de dimension s. On integre sur chaque axe par
la formule de Gauss ; en choisissant le nombre de ses points sur cha-
que axe on prend pour ţa formule de base, sur Ies axes restants
de la formule de Gauss a deux points. Le fraetionnement du Bombre
de points sur chaque axe considere se poursuit jusqu'a ce que la
difference entre deux approximations consecutives ne sqit inferieure
a e -s-1 • Apres avoir determine le nombre necessaire n<t> de points
correspondant a chaque axe, on calcule I 'integrale avec 11,<i> points
sur chaque axe.
L'algorithme decrit n'etant pas tout a fait sur., on le teste habi-
tuellement pour une serie <lonnee d'integrales: on ehoisit une sous-
serie assez representative et on compare Ies resultats des calculs
selon l'algorithme donne avee ceux pour des valeurs legerement
differentes du nombre de points sur Ies axes.
3t0 PROBL~MES Ă PLUSIEURS DIMENSIONS [CH V

Dans un des programmes standard de la methode de Gauss a plu-


sieurs dimensions le nombre n<i> de points sur chaque axe est choisi
selon le procede decrit ci-dessus, puis on execute un calcul corres-
pondant a ees n<i> et un calcul de verification pour des valeurs de
n<i) legerement differentes.

Bibliographie du cbapitre V
I (6), II [f3, 14); §§ 1-4: II (16, 37, 39), III (24, 25, 33, 34, 35, 44,
45); § 4: III [4]; § 7: III (10]; § 8: III (13]; §§ 9-12: II (2, 8, 18], III (10,
61); § t3: II [9].
DEUXI&ME PARTIE

PROBLEMES D'ALGEBRE
ET D'OPTJMJSATION

CllAPIT)lE VI

METHODES NUMERIQUES DE UALGEBRE

L 'objet des methodes numeriques de I' algebre est la resolution


de systemes d'equations lineaires, l'inversion des matrices, le calcul
des determinants, la recherche des vecteurs et valeurs propres de
matrices et des zeros de polynomes. .
Abordes formellement, ces problemes se resolvent sans diffi-
CJJlt6 : on reso:ut un systeme en developpant Ies determinants dans
Ja ţor]1l.ule de Cra;mer; on trouve Ies valeurs propres d 'une matrice .
en 6~rivant l'equation ca;racteristique et en en obtenant Ies racines.
Cette fa~on d'agir appelle cependant des objections.
Ainsi, la resolution d 'un systeme a m ·ineonnues par developpe-
me;nt direct des determinants exige des operations arithmetiques
de l'oţdre de mim, ce qui depasse la c$p~cite des ordinateur.s ;modernes
d.es que m = 30. L'exemple suivant pro"Q.ve que pour un m suffi-
samment grand ii en sera ainsi dans l'avenir immediat.
Imaginons-nous une machine parallele occupant un volume V et composee
d'elements dont chacun est un cube de cotes egaux li. On admet naturellement
que le temps mis par un element quelconque pour effectuer u,ne operation ele-
mentaire est au moins A/c, c = 3-108 m/s etan-t la vitesse de propagation de la
lu.miere, i.e. la plus grande vitesse possible de transmission de l'information.
On majore alors par Vei !14 le nombre total d'operations elementaires executables
en une seconde par la macJ,une dQnnee. Si V= i km8 et /l = 10-a cm (ordre de
grandeur du rayon atomiq11-e), ce noml>re vaut 3 ·10&7 • Or, 100 I = 101rn,9 •••
On voit donc qu'il sera impossible de calculer explicitement un determinant
d'ordre 1.00.
Mais ces methodes classiques sont a rejeter meme pour un m
faible, et la cause en est la grande influence des arrondis sur le resultat
final. Des que m = 20, le depassement de capacite des nombres deter-
mine l' arret de I' ordinateur, et meme si l' arret n' a pas lieu, l' erreur
de calcul fait que le resultat presante souvent un ecart sensible a
la valeur exacte. II en · est de meme pour la reeherche des valeurs
propres des matrices en explicitant le polynome earactâristique.
312 M~THODES NUMgRIQUES DE L'ALG:8BRE (CH. VI

Les methodes de resolution des problemes algebriques peuvent


âtre directes, iteratives ou probabilistes. Les classes de problemes
qui sont resolus par ces methodes sont conventionnellement appelees
classes de problemes a petit, moyen ou grand nombre d'inconnues
respectivement.
La modification du volume et de la structura de la memoire des
calculateurs, l'augmentation de leur rapidite de fonctionnement et
le developpement des procedes de calcul entraînent un decalage des
domaines d'applications de ces methodes en direction des systemes
d'ordre plus grand. Les methodes directes sont valables actuellement
pour des systemes de l'ordre de 103 et Ies techniques iteratives pour
ceux de l' ordre de 106 •

§ 1. Methodes d'elimination successive


des inconnues
Considerons le probleme de resolution du systeme Ax = b; ici
A = [ai 1] est une matrice m X m, det A =I= O
b = (ai, m+1, • • •,. am, m+JT.
Une methode de resolution est directe si elle donne, au bout
d'un nombre fini d'operations logiques et arithmetiques et dans
l'hypothese de l'absence d'arrondis, une solution exacte du probleme.
Si le nombre d'elements non nuls de la matrice du systeme est de
I' ordre de m2 , le calcul par Ies methodes directes actuellement dis-
ponibles exige un nombre d'operations ·de l'ordre de m3 • Donc, pour
que Ies methodes directes passent, il est necessaire que cet ordre de
grandeur soit acceptable pour la machine donnee ; il ,existe egalement
des contraintes qu 'imposent le volume et la structure de la memoire
du calculateur.
On connaît des methodes de resolution de pareils syste.mes qui sont moins
couteuses en operations; cependant, le resultat qu'elles perm~ttent d'obtenir
est tras sensible a l'erreur de calcul, ce qui fait qu'elles ne sont pas exploitables.

Parmi Ies procedes directs la methode d'elimination de Gauss est


la plus connue. Voyons l 'une de ses realisations possibles. Dans
l'hypothese a 11 =I= O, divisons la premiere equation du systeme
m
~ aux,= a,, m+h i= 1, ... , m, (1)
J=1

par le coefficient a 11 , d'ou


§ 1] MiTHODES D'~LIMINATION SUCCESSIVE DES INCONNUES 313:

Retranehons ensuite de ehaeune des equations restantes la premiere-


multipliee par le eoeffieient au eorrespondant. On a
m
~ aJ;XJ = ._af, m+t'
:,=2
i = 2, ••• , m.

La premiere ineonnue s'est eliminee entre toutes Ies equations„


~xcepte la premiere .. Supposons ensuite que ak =I= O, divisons la
deuxieme equation par a~2 et eliminons l 'ineonnue x 2 entre toutes-
les equations a partir de la deuxieme, et ainsi de suite. L'elimi--
nation sueeessi ve des ineonnues met le systeme sous forme triangu-
laire
m
xi+ ~ afJXJ= a1 m+t' i= 1, ... , m. (2)
j=i+i t,

Xi s'elimine a la suite des operations suivantes: 1) division de la


i-ieme equation par at
1 ; 2) soustraetion de la i-ieme equation mul-

tipliee par a1;; des equations de numeros k = i + 1, ... , m. La.


1

premiere operation equivaut a multiplier a gauehe le systeme par


la matrice diagonale
1

C,=
1
1
la seeonde a multiplier a gauche par 58
1

c,=

tXm 1
ou a4 = -a~-!, i <
t, n
k ~ m.
314 M:8THODES NUM:8RIQUES DE L' ALOElBRE [CH. VI

Le systeme (2)1 resultat de ces transfofmations„ s'ecrit done


CAx = Cb
avec
C = Cmtm-1C.m-1 • ~ . C1C1.
Le produit de matrices triangulaires gauches (resp. droites) esţ
encore une matrice triangulaire gauche (resp. droite); C est donc
triangulaire gauche.
La formule des elements d 'une matrice inverse

(A-1) u= detA
AJI

entraîne que !'inverse d'une matrice triangulaire gauche (resp.


droite) est triangulaire gauche (resp. droite). Par consequ13nts 13 =
= c-1 est triangulaire gauche.
Introduisons la notation CA = D; par eonstruction tous Ies
du = 1 et D est triangulaire droite. Ori a
 = c-1D = BD.
L'egalite A = BD plus Ies conditions du = 1„ i = f, .•. ., m1
. formant un systeme d'equations relativement aux elements des ma-
m
trices triangulaires B et D: ~biJdJk
J=i .
= a,1i. Vu que bu = O pour
i < j et d11i = O pour k < ;,. ce systeme peut prendre la forme
min (i, k)
~ b1;d111. = a,11. (3)
i=1
ou, ce qui revient au mâme,
h
~ bud11i = a,i pour k ~ i,
1=1
i
~ bud11i=a 11 pour i < k;
l=f.

mettant a profit la condition du = 1, on trouve un systeme de rela-


tions de recurrence pour determiner biJ et du:
k-1
b1k = a,k- ~ bud11i pour k~i,
i=1
i-1 (4)
a1k - ~ b1;dJk
dik = __i..,,.=_1_ _ pour i<k.
bu
§ 1] DTHODES D'.8LIMINATION '8UOOESSIVE DES INCONNUES 3f5

Les calculs s'effectuent successivement pour Ies ensembles


(i, k) = .(1, 1), •.. , (1., m), (2, 1)1 • • • .,_ (2,; m).i •••
• • •, (m, 1), ••• ,; (m, m).
Ici et dans la suite, on estime .q.ue la somme totale est nulle sila limite
superieure de sommation est plus petite que la limite inferieure.
Ainsi, au lieu ,de transformer successivement le systeme (1)
jusqu'a obteni,r (2) on peut caleuler direetement Ies matrices B .et D
par Ies formules (4), a condition toutefois que -tous les bu soient non
nuls. Soient A1i,, Bk, D1r. Ies matrice.s des mineurs principaux d'or.dre k
des matrices A, B, D. Conf-Ormement .a (3), A" = JJ1,,DA; puisque
det Dk = 1, det Bk = b11 • • • bu., on a det A" = b11 • • • bkk·
Par consequent,
detAa
detA 0 = 1.
det A11.-t '
On voit que pou.r utiliser Ies fprmules ..(4} il fa~t et il suffit que
det A1i =I= O.,_ k ;= 1, ..• , m - 1. (5)
Ces ealeuls demandent (2m8 - 3m,1 +
m)/6 mult·iplications, au-
tant d''additions et m (m - 1)/2 divisions. Adoptons la notation
Cb = d = (di, m+1, • •• , dm, m+i)T. Du moment que c-1 = B et
CA = D, on a Bd = b, Dx = d. Ainsi, apres avoir decompose la
matrice du systeme initial en produit d'une matrice triangulaire
gauche par une droite A = BD, on ram~ne la resoluticm du systeme
initial a1a resolution sueeessive de deux syst~mes Bd = b et Dx = d
de matriees triangulaires; le processus coutera 2m2 - m operations
ari thmetiques.
On reunit parfois Ies operations successives portant sur la deeom-
position de A en produ:it de matricea triangulaires et sur la deter-
mination du veeteur d. Les equations
i
~ btJdJ, m+t = ai, m+t
j=i

du systeme Bd = b se mettent sous la forme .(3):


min(i, m+1)
~ b11dJ, m+1 = ai, m+t•
;=1
C'est pourquoi Ies valeurs dt,m+i se ealculent simultanement -avee
Ies autres dtJ par Ies formules (4). L'ensemble .des operations trans-
formant le systeme de depart en Dx = d constitue le calcul dir.ect par
la methode de'Gauss et la procedure de resolution de Dx = d le .cal-
cul par remontee.
316 M~THODES NUMERIQUES DE L8 ALG1l:BRE [CH. Vl

En calcul manuel, la probabilite d'erreurs accidentelles est elevee. Pour


eliminer celles-ci on introduit la colonne de controle du systeme: Bm+a = (a1, m+ 2, •••
• • •, tim, m+a>'JJ composee des elements de contrâle des equations du systeme
m+i
a1., m+2= ~ aii•
J=i
Lors des transformations d'equations, Ies elements de controla subissent les
mâmes operations que Ies termes constants. L'element de contrâle de toute-
nouvelle equation doit donc âtre egal a la somme des coefficients de celle-ci ;
un ecart important revelera des erreurs commises au cours des calculs ou l'insta-
bilite de l'algorithme de calcul par rapport a l'erreur de calcul.
Citons un exemple. En reduisant le systeme d'equations Ax= ba la forme
Dx = d a l'aide des formules (4), !'element de controla di, m+a de chacune des
equations du systeme Dx = d s'obtient par les memes formules (4). Apres
avoir calcule tous Ies diJ (i fixe), on teste l'egalite
m+t
~ diJ=dt, m+2•
;=i
Le calcul par remontee comporte lui aussi le calcul des elements de controle
des lignes.
Dans plusieurs cas, on sait d'avance que la condition (5) est
remplie; de nombreux problemes de physique mathematique se rame-
nent par exemple a la resolution de systemes ayant une matrice A
definie positive.
Cela n'est cependant pas vrai dans le cas general. En effet, il se
peut que tous Ies det A1i1i =:/= O, mais certains bu sont tres petits;
une division par ces derniers donnera des nombres importanta affec-
tes d 'erreurs absolues elevees, et le resultat s'en trouvera fortement
altare. .
Pour eviter l'influence catastrophique de l'erreur de calcul, on
applique la methode de Gauss avec choix du pivot. Voyons en quoi
differe-t-elle du schema decrit ci-dessus. Supposons qu'en cours d'eli-
mination des inconnues on obtienne le systeme
m
~ a~.XJ=
xi+ .f=i+i tJ
a~t, m+t' i= 1, ... , k,
m
. ~ at;XJ= af m+t' i= k+ 1, ... , m.
J=k+i '

Cherchons un Z tel que I a:+1,z I = m~x I a:+ 1, J I et notons X1i+1 =


3
= Xz et xz = X1i+ 1 ; eliminons l'inconnue xk+ 1 entre toutes Ies equa-
tions a commencer par la k +
2-ieme. Ce changement de notation
modifie l'ordre d'elimination et reduit notablement, dans beaucoup
de cas, la sensibilite de la solution aux arrondis.
La plupart des methodes directes de resolution des systemes
d 'equations lineaires sont en fait autant de variantes de la methode

,.
Ul DTHODES D11:LIMINATION SUCCESSIVE DES INCONNUES 3i7

de Gauss qui ne different Ies unes des autres que par des details.
Elles impliquent a peu pres le meme nombre d'operations arithme-
tiques, cependant certaines mises en ceuvre encombrent moins la
memoire de la machine. Ainsi, avec une memoire a N cellules, on
peut resoudre par Ies methodes d' elimination et d' ascension optimales
des systemes de l' ordre de -2"ţ/N. La methode de reflexion qui se
distingue un peu de l'algorithme de Gauss, offre l'avantage d'un
schema de calcul homogene.
On demande souvent de resoudre plusieurs systemes d 'equations
Ax= bq, q = 1, ... , p, ayant une meme matrice A. On procede
eomme suit. Introduisons la notation
bq= (at, m+q, .•. , am, m+q)T,
et utilisons Ies formules (4) en calculant dii„ pour i < k ~ m p. +
On aboutit a p systemes d 'equations de matrice triangulaire qui
-correspondent au probleme initial
Dx= dq, dq= (dt, m+q, ... , dm,, m+q)'P, q-==-1, ••• , p;
resolvons ces systemes un par un ..Le nombre total d'operations
arithmetiques necessaires pour resoudre p systemes d 'equations par
ce procede est ,,_ m3 i +
2pm2 •

On se sert de ce procede pour se faire entre autres une idee de l'erreur d'arrondi
sur la solution sans pour autant consentir d 'importantes depenses supplemen-
taires. On se donne un vecteur z de composantes ayant si possible le meme
ordre et le mâme signe que celles de la solution cherchee; le manque d'infor-
mation fait souvent prendre z = (1, ...• 1f. On calcule le vecteur = Az
-et on resout simultanement le systeme initial et le systeme A z = c.
c
Soient x' et z' deux solutions reelles de ces systemes. On pourrait se repre-
senter ce qu'est l'erreur x' - x sur la solution cherchee si l'on admet que les
-erreurs relatives provenant de la resolution par elimination de systemes ayant
une meme matrice et des seconds membres distincts, A savoir
llx-x'II et li z-z' li
li x' li li z' li: '
different d'un nombre de fois pas tres grand.
11 existe un autre procede permettant de se faire une idee de la grandeur reelle
de l'erreur d'arrondi. 11 s'agit du ckangement d'eckelle qui modifie l'allure de
l'accumulation de l'erreur de calcul. On resout par cette methode le systeme
initial et le systeme
(a.A) x' = f}b, a. et f} nombres;
pour a. et f} · des puissances non entieres de 2, la comparaison des vecteurs x
et ~ x' permet de juger de l 1 erreur de calcul. On peut par exemple prendre
a.=~= lf2.
En cas de systemes d 'equations lineaires de matrice hermitienne A
il est avantageux de recourir a la methode de la racine carree. La ma-
318 M~THODES NUDRIQUES DE L'AL~BRE [CH. Vl

trice A est representee par


A _ S*DS, (6)
ou S est une matrice triangulaire droite et S* sa conjuguee :
Su S12 • • •)
S= 0 S22 •••
(
.. . . . .
avec tous Ies sii superieurs a zero et D une matrice diagonale telle
que du valent +1 ou -1. L'egalite matricielle (6) forme uil systeme
d 'equations
au= slis11di1 + ... +sus,idii
pour i ~ j.
On a neglige Ies equations analogues pour i > j, etant donnee l'equi-
valence des equations correspondant aux couples (i, j) et (j, i). D'ou
Ies relations de recurrence pour determiner du et siJ :
i-1
du= sg ( au -
.
21 ISkt 12 dk1,),
1&=1

i-t
ai}- ~ BkfBkJdkk
k=t
St1 =------- sudu
pour i<j.

La matrice S est triangulaire droite, c'est pourquoi, une fois qu'on


a obtenu la representation (6), la resolution du systeme initial se
ramene a resoudre successivement deux systemes de matrices trian-
gulaires. Notons que pour A> O tous Ies dii = 1 et A = S*S.
Si l'on a des raisons de penser que la solution obtenue x1 est
fortement influencee par l'erreur de calcul, on procede comme suit.
Definissons le vecteur h1 = b - Ax1 • L'erreur r1 = x - x1 verifie
evidemment le systeme d 'equations
Ar1 = Ax - Ax1 = h1• (7)
En le resolvant avec arrondi nous obtenons rt 1 >,
une valeur approchee
de r 1 • Posons x 2 =x1 +r< 1 >. Sila premiere approximation n'est pas suf-
fisamment precise, repetons l'operation. En resolvant (7), Ies termes
du second membre subissent Ies memes operations lineaires que ceux
a droite dans (1). Dans le calcul sur machine a virgule flottante, ii
fait donc s'attendre a ce que Ies solutions de ces systemes soient
entachees d'erreurs relatives d'un meme ordre de grandeur. Les er-
reurs d'arrondi etant en general faibles, on a li h1 li ~ li h li; alor~
§ 1] 'MgTHODES D'~LIMINATION SUCCESSIVE DES INCONNUES 319

<
li r 1 li li x1 li, et la solution de (7) se definit apparemment avec
une etreur absolue sensiblement inferieure a celle faite sur la solu-
tion de (1). Ainsi, le procede decrit augmente la precision de la solu-
tion approchee.
Le procede en question est particulierement commode si Ies
matrices B et D sont logees en 'memoire tout au long des caleuls.
Cfaque degrossissage de la solution implique la recherche du vecteur
b = b - Ax" et la resolution de deux systemes de matrices tri-
angulaires, soit -4m2 operations arithmetiques, ce qui est peu en
regard des -2/3 m3 operations que coute la representation de A
sous la forme A = BD.
La technique de degrossissage de la solution qui vient d'âtre decrite admet
souvent une mise en reuvre suivante. Soit B une matrice proche dans un certain
sens de la matrice A, mais telle que la resolution du s~teme Bx = c exige
un volume de calcul essentiellement moindre que celle du s~teme Ax= b.
Acceptons la solution de Bx = b pour premiere approximation x1 de la solution
cherchee. La difference X - x1 verifie le systeme d'equations
A (x - x1) = b - Ax1 •
Au lieu de le resoudre, trouvons la solution de
Br1 = b --Ax1
et posons x = x
2 1 +
r1. Chaque valeur approchee s'obtient donc de la prece-
dente par la formule
Jtn+1 = xn + B-1 (b - Axn) = (E - B-1A) xn + B- b.
1

Si Ies matrices A et B sont assez proches, la matrice E - B-1A est munie d'une
petite norme, et un tel processus iteratif converge rapidement (v. § 3).
L 'inversion de matrices est un probleme que I' on rencontre bien
plus rarement que la resolution de systemes d 'equations. Pour la
matrice inverse X = A - 1 , on a AX = BDX =
E. 11 suffit, pour
trouver X, de resoudre successivement deux systemes matriciels
BY = E, DX = Y. On etablit sans peine que le calcul de la matrice
A - 1 co-O.te en gros 2m3 operations arithmetiques.
Si le besoin s'en fait sentir, on ameliora Ies approximations a
l'aide du processus iteratif Xk = X11._1 (2E - AX 11 _ 1). Pour en
etablir la convergence considerons la matrice G11. = E _,_ A.X 1 • On a
Gk= E - AXk = E -AX11.-1 (2E - AX1t-1) =
= (E - AXk-1) 2 = Gf-1.
11 en resuite la suite d'egalites
4
2
G1i= G1i-1 = G1i-2 = ... = Go2k •
Puisque
A-1 - X11. = A-1 (E -AXk) = A-1Gk = A-1G!",
on a l' estimation
li A-l - X k li ~ li A-l li li Go 11 2" ;
:320 M~THODES NUM~RIQUES DE L' ALG~BRE [CH. VI

-par consequent, pour une approximation initiale suffisamment bonne,


:i.e. si li E - ,.AX0 li < 1, le processus iteratif converge rapidement.
Dans le cas de systemes d'ordre eleve, Ies quantites necessaires ne peuvent
.s'implanter simultanement en memoire rapide et le probleme se pose de Ies
1oger dans des parties distinctes de la memoire et d'organiser le travail de fa~on
que le transfert de ces quantites ralentisse le moins possible la marche des
calculs. On s'adresse alors ă. d'autres variantes de la methode d'elimination
telles que Ies methodes par bloc. Nous ne nous attarderons pas sur ces problemes
importants pour la bonne raison que la solution optimale du probleme considere
.depend souvent essentiellement de la machine utilisee.

§ 2. Methode d'orthogonalisation
Ecrivons le systeme Ax= b sous la forme
a11x1 + •••+ a1mXm + ai., m+t. == O.
am1X1 + •• •+ llmmXm + "mtm+l = O.
'Une autre ecriture de ces equations est (a1 , y) = O, ••. , (am, y) = O, ou
ai = (an, ... , ai, m+i), y = (.x1, ••• , Xm, 1). Resoudre le systeme initial
·-equivaut donc â. trouver le vecteur y_ de derniere composante egale ă. 1 et ortho-
gonal aux vecteurs a1 , ••• , am. Adjoignons a ce systeme le vecteur am+i =
= (O, ••. , O, 1). Les vecteurs a1 , ••• , am+t sont lineairement indepeudants
puisque le determinant de la matrice dont ils constituent Ies lignes est egal a
celui de la matrice A qu'on suppose non degeneree. Appliquons au systeme
(a1 , ••• , &m+i) l'algorithme d'orthogonalisation successive pour la norme
li u li= V(u, u). Pour construire Ies vecteurs u1, Vtt u 2• v 2••••• Urn+i, Vm+1
A-1
.on utilise la regle habituelle u 1 = ai, v1 = ~I, ... , uh =ak- ~ chtVt,
li Ut I LJ
i=i
·vh = l1 :: li , .•. L' orthogonalite de uk aux v 1 , ••• , vk _1 donne les equations
,O = (uk, Vt) = (ak,vi) - cki• i.e. cki = (ah,vi) pour i < k. Donc,
k-1
Uk=ak- ~ (ah, Vt) Vf•
t=i
La derniere coordonnee Zm+1 du vecteur Um+i = (.ri, ••• , ~+1) est dif-
ferente de zero; en supposant le contraire, nous aurions obtenu que les conditions
(um+I, ai)= O, i = 1, ••. , m,
-equivalentes aux conditions (Um+i, Vt) = O, t = 1, ... , m, formant un
m
·systeme d'equations lineaires ~ auz1 = O, i = 1, •.• , m, admettant une
5=1
:solution non nulle; alors le determinant du systeme de depart devrait Atre nul.
Ainsi, les conditions {um+i, ai) = O, i = 1, ••• , m, peuvent s'ecrire
Zt Z,n Q
au--+••• +aim--+ai,m+t= ;
Zm+i Zm+i

iil s'ensuit que {-2L-, ... ,---=.?!!....)


Zm+i Zm+t
est solution du systeme initial.
§ 2] M~THODE D'ORTHOGONALISATION 321

Cette variante de la methode fd'orthogonalisation coute ,..., m3 multiplica-


tions et divisions et ,..,, m3 additions et cede en precision a la methode de Gauss.
Essayons d'ameliorer le resultat. Cherchons le vecteur y = (y1 , ••• , Ym, 1)
satisfaisant aux conditions·(ai, y) = O, t = 1, .•. , m, sous. la forme
m+1
y= ~ djVJ•
i=1
Les relations (af, y) =
O donnent le systeme d'equations
m+1
~ d1(ai, VJ)=O, t=1, ••. , m;
i=1
de plus, la condition d'egalite de 1 et de la (m + 1)-ieme coordonnee du vecteur
y fournit
m+1
~ dJ (v1)m+1=1;
j=1
ici et dans ce qui suit (v)k est la k-ieme coordonnee de v. En calculant sans
arrondi, Ies proprietes de la famille de vecteurs construite font que (a,,JvJ) = O,
i < i, et que le systeme considere s'ecrit
dt{at, V1) =0, }
dt(a 2, v1) +d2 (a 2, v 2) = O,
(1)
d1 (am, V1) +... + dm (am, Vm) = O,
d1 (v1)m+1 + ••• +dm+1 (Vm+1'm+1 = 1.
La solution de ce systeme est le vecteur d0 = (O, •.• , O, ((vm+i>m+1)-1).
En arrondissant, la matrice du systeme (1) aura des elements petits non
nuls au-dessus de la diagonale. Ecrivons le systeme obtenu sous la forme Cd+
+ Dd = g, g = (O, ••• , O, 1f, C etant la matrice du systeme (1) et
O (a1, v 2) (a1, v3) . . • (at, Vm+1))
O O (a2, va) • • • (a2, Vm+1)
D=
(
.. ... .... . . . . .
. .. .
o o o o
Pour l'approximation initiale d 0 donnee, determinons Ies valeurs ameliorees
dk a l'aide du processus iteratif
Cdk+l +
Ddk = g. (2)
La relation (2) s'ecrit
dk+1 = -c-1Dd" c-ig. +
La petitesse des elements de D entraîne celle de la norme de la matrice -C-1D ;
aussi (v. § 3) la suite d 'approximations obtenues. par iterations converge tres
rapidement. Ce procede attenue la repercussion de l'erreur de calcul. Pour
se premunir davantage contre l'influence notable de celle-ci, le procede est
repete a chaque pas d'orthogonalisation. En presence d'arrondis ii se peut
que (v,, v1) -=I= O, i ::f= j; c'est pourquoi Ies conditions (uk, v1) = O, j < k,
forment le systeme
k-1
(a1,., VJ)- ~ Chi (Vt, Vj)=O
i=l
de matrice proche d'une matrice diagonale. Les valeurs cki s'obtiennent par
iterations du type (2).
21-01007
322 Mli:THODES NUMERIQUES DE L' ALG~BRE [OH. VI

§ 3. Methode _iterative simple


Le systeme d 'equations
Ax= b {1)
se transforme en
Bx + c,;
x = (2)
et sa solution est cherchee comme la limite de la suite
xn+1 = Bx• + c. (3)
II est evident que tout systeme
x = x - D (Ax - b) (4)
s'ecrit comme (2) et est equivalent a (1) pour det D =I= O. D'autre
part, chaque systeme (2) equivalent a (1) s'ecrit sous forme (4) de
matrice D = (E - B)A-1 •
Recapitulons en quelques mots Ies definitions des normes prin-
cipales dans Ies espaces de vecteurs et de matrices. Si l 'espace vee-
toriel x (x1 , • • • , Xm)T est muni de la norme li x li, la norme qui
lui est associee dans l'espace des matricea A est

li A li= sup li Ax li .
(x=pO li X li
Voici Ies normes Ies plus usuelles :
llxll 1 = i~~m
max lx1 1,
m
l[xll2= ~ 1 IXJ I,

llxlla={j,1x,l2 =-V(x, x).


Les normes qui leur sont associees dans l'espaee de matrices sont
respecti vemen t
m
IIAll1= max(~ laiil), (5)
t~i=:im i=1
m
IIA ll2= 1~i==im
max (~ laiil),
i=i
(6)

li Alia= Ji maxt~i=:im
Â~M; (7)

ici et dans la suite Ab designent Ies valeurs propres de la matrice D.


§ 31 M~THODE ITBRATIVE SIMPLE 323

Deduisons...ces relations. On a
11 Ax llt c= max ~
i
Ii a1JXJ I<

e'est.-a-dire
1 1
:,:,1~ <m~ (~, la,,1).
Supposons que max (~ Iau I) est atteint pour i = l ; pour le vecteur
i ; ·.

x = (sg (au), ••• , sg (azm)) T


on a
lllx: ll1 = 1,
ll~Ax lls ~I 'Y. az1XJ I=~ Iali I= {max~ IaiJ I) fi x·ll1•
i i li ;
D'ou (5).
De mâme
ll:AX:ll2= ~i I~; aux1I~~i ~; I a,1llx1I=
= ~; (~[I
i
aiJ I ) I XJ I~ (max ~ Iau I ) ~ I XJ I,
; i ;
i.e.
li Ax Ila
1llxll2 <mf ( f~ Iau I) •
Supposons que max ~ I au I est realise pour j = l. On a, dans le cas
; i
du vecteur x dont toutes Ies composantes sont nulles sauf xi,

li Ax Ila= ~i I~; aiJXJ I= ~i Iail 11 Xz I=


=(~I aul) Ix,!= (max~ )aul)~ lx1I= (max~ I au I) l(xlls,
i ; i ; ; i
ce qui entraîne (6).
Par definition
li .Ax Ila -. / (Ax, Ax) -. / (A*Ax, x)
IIA Ila= s~p li xlls s~p Y (x, x) =Y ~p (x, x) •
La matrice A•A est symetrique vu que (A•A)*= A*(A*)* = A*A.
Soient B une matrice symetrique, eh ••. , em un systeme ortbo-
norme de ses vecteurs propres et Â1, ••• , Am Ies valeurs propres
2t•
324 M:8THODES NUM:8RIQUES DE L' ALG:il1BRE [OH. VI

correspondantes. Tout vecteur x peut s'ecrire sous la forme 21i c1e,.


Evidemment

aussi

et
(Bx, x)>(min Âi) (x, x). (9)
I
D'autre part, (Bei, et) Âi. Ces relations entraînent
(ei, ei)
I (Bx, x) I 10
s~ p (x, x) l I•
- m~x Âi ( )
Puisque (A* Ax, x) = (Ax, Ax) >0, tous les Â~*A>O; posant B =
=--A*A dans (10), il vient
sup I (A(*Ax,) x) I = m~x I Â~*A I= m~x Âi~M-
x X, X i i

Les relations obtenues impliquent (7).


Indiquous un cas particulier important. Si A est symetrique,
alors Â~M = Â~2 = l Âl j2 ; donc pour une matrice symetrique
IIAll3 =maxp.~I- (11)
I
Si Ax = Âx, alors li A li li x li ~ li Âx li = I Â I li x li ;~ ainsi
le module de toute valeur propre de la matrice A est au plus egal a
sa norme.
TH:80R"tME (sur la condition suffisante de convergence de la me-
thode iterative simple). Si li B li < 1, le systeme d'equations (2)
possede une solution et une seule et le processus iteratif (3) converge
vers la solution en progression geometrique.
D:8MONSTRATION.On a, pour toute solution du systeme (2), li x li ~
~ li B li li x li + li c li ;
d 'ou li x li (1 - li B li) ~ li c li ou
li x li ~ (1 - li B 11)-1 li c li- Cette inegalite entraîne l'existence et
l'unicite de la solution du systeme homogene x = Bx, donc du sys-
teme (2). Soit X la solution de (2). (2) et (3) donnent une equation
par ra pport a I' erreur rn = xn - X:
(12)
On a immediatement
(13)
§ 3] Ml!lTHODE ITERATIVE SIMPLE 325

11 decoule de (13) que li rn 11 ~ li B lln li r 0 li ~o. Le theoreme


est demontre.
La qualite du processus iteratif est bien caracterisee par la vitesS\:,
de decroissance du rapport de l'erreur commise au bout de n ite-
rations a l'erreur d'approximation initiale
Sn = sup li rn li = sup li BnrO li = I] Bn 11 •
xo*x li r 0 li ro*o li r 0 li
On garantit que Sn ~ 8 si li Bun ~e, i.e.
n~ne= ln (e- 1)/ln ( li Bll-1 ). (14)
S'il existe des '\'o:lh '\'tla constan ts tels que pour x =I= O
li X 1113 li X Ila. /
lfilj;"-<: '\'a13, -li X 1113 ~ '\'Pa.,
les normes li x Ila et li x lltJ sont dites equivalentes. On a l'inegalite
evidente
li rn ll13~ '\'o:13 li rn Ila~ '\'aP li B li~ li r0 Ila.~ '\'o:13'\'13o: li B li~ li r 0 1113·
Ainsi, si la condition du theoreme demontre est realisee pour une
certaine norme, le theoreme est valable pour toute norme equivalente.
Deux normes quelconques dans un espace de dimension finie
sont equivalentes; il en est en particulier de li x ll1, li x 112, li x Ila
vu la chaîne d'inegalites evidentes
li x 111 ~ li x lls ~ li x 112 ~ m li x 111•
LEMME. Supposons que toutes les valeurs propres 'A. 1 d'une matrice B
appartiennent au cerc le I Â I ~ q et qu 'aux Â.i de module q correspon-
dent des blocs de Jordan de dimension 1. Il existe alors une matrice
A= D-1BD munie de la norme li A 111 ~ q.
D:eMoNSTRATION. Posons q-max I 'A., I- Les valeurs propres
T) =
1"-t I< q
de la matrice T)-1B sont T)-1'A,i• Transformons la matrice T)-1B en
forme de Jordan
1
T)- Â1 Cl.12 Q • • •)

~ .. ~-:'A.: . ~ 2 ~
1
n-1 (TJ- B) D = ( ••• :

avec ai, i+l pouvant âtre O ou 1.


La multiplication par T) donne
Â1 Cl.12TJ Q • ••)

A= JriBD= ( O. . ~2 • • ~2~~ ... :


326 MSTHODES NUMSRIQUES DB L' ALG2BRE [CH. VI

Si I A, I = q, alors, selon la condition du lemme, ai,i+1 = O, donc


I "-i I + I a,, 1+111 I = q; si I).., I< q1 on a
I Ai I+ I ai, i+i ri 1-<max I Â, I+ 11= q.
l~il<q

Ainsi, 11 A 111 = max ( I Âi I


i
+ I a,, i+11l I) ~ q.
Nous aurons besoin de ce lemme dans le chapitre VIII. Son cas
particulier nous permettra de demontrer le
Tmion:ll:ME (sur la condition necessaire et suffisante de convergence
de la methode iterative simple). Supposons que le systeme (2) admet
une solution unique. Le processus iteratif (3). converge vers la solution
de (2) quelle que soit l' approximation initiale si et seulement si toutes
les valeurs propres de la matrice B ont un module plus petit que 1 .
.:,UFFJ.c;A NCE. Soit un q queleonque dans Ies limites max f  1 I < q <
< 1. La condition du lemme ci-dessus est verifiee pour ce q, et ii
existe donc une matrice D telle que HA 111 ~ q pour A= n-1BD.
Puisque B = D AD-1 , ii vient

Aussi
li Bn 111 ~ li D ll1 li n-1 ll1qn -,.. o
et
li xn - X 111 ~ li D 111 li n-1 111 qn li x0 - X 111-+ o (15)
avec n tendant vers oo.
Si x,
sont Ies vecteurs unites diriges suivant Ies axes de coordon-
nees, X = (x1, ... , Xm)T, alors X = ~XiXt et
i

llxll-<~
i
lxt 111 xi fi<(~ li xi li) Jlxlh·
On a donc, quelle que soit la norme,

llxn-X!H<(~ llxdl)IIDll1IIV-1 11tqnllx0 -Xll1-+0.


1,
(16)

Les relations (15) et (16) signifiant egalement que toute norme de


l'erreur decroît plus vite que n'importe quelle progression geoine-
trique de raison superieure a max I Âi l-
i
N:m0Ess1TS. Soient I Âz I ~ 1 et ez le vecteur propre correspondant
de la matrice B. Alors on a, pour l'approximation de depart x0 =
= X+ cez, c =I= O:
r 0 = cez et rn = Afcez -,4- O, n -+ oo.
§ 4] . PROCESSUS IT}.ţRATIF R:8EL 327

PROBL~ME- Supposons que toutes les valeurs propres de la matrice B, sauf


"1.. = 1 simple, sont interieures au carele unite et que le systeme (2) a X pour
solution; tous Ies x = X + ce1 sont visiblement solution de (2). Demontrer
que le processus iteratif {3) converge vers l'une de ces solutions.

§ 4. Processus iteratif reel


Si toutes Ies valeurs propres de B appartiennent a l'interieur du
cercle unite, îl semblerait qu'on n'a pas a se soucier de la qualite
de la methode travaillant avec des nombres ayant un exposant borne
et avec arrondi. En effet, Ies perturbations d 'approximation par sujte
d'arrondis sont equivalentes aux perturbations _des conditions ini-
tiales du processus iteratif. Du moment que ce dernier est convergent
et << autocorrecteur >>, ces perturbations finissent par s'amortir,
et on obtient une bonne approximation de la solution du probleme
initial.
Or, en resolvant certains systemes, on a ete confronte a une
situation differente. Toutes Ies valeurs propres de la matrice B etaient
bel et bien interieures au cercle li Â. li ~ 1/2, mais le processus ite-
ratif s'arrâtait au bout d'un certain nombre d'iterations a cam~e du
depassement de capacite. Dans d'autres cas, le depassement ri'avait
pas lieu, mais Ies vecteurs xn obtenus n'avaient pas tendance a
se stabiliser. Ce dernier cas est particulierement dangereux. Urţ uti-
lisateur debutant en conclurait que, dans la condition max j Â. 1 I ~
~ 1/2, un tel. nombre d 'iterations, disons 100, suffirait amplement
pour obtenir une solution avec la precision demandee. II effectuerait
donc ces cent iterations et accepterait comme parfait le· resultat
obtenu. On a donc juge necessaire de pousser l'etude des iterations
et d 'introduire de nouvelles notions dans la theorie des operateurs.
Construisons un exemple qui nous permette de suivre le pheno-
mene en question sous forme explicite. Prenons pour modele un pro-
cessus iteratif correspondant a la matrice bidiagonale

Bo= (~ •
ooo
~ .~.
·i) ·
o oo
B0 elevee a la puissance n donne la matrice triangulaire:
328 MJ;lTHODES NUMJliRIQUES DE L'ALG:BBRE [CH. VI

b(n) )T
rn = Bnoro = (b(n)
im, ••• ' mm '

Pour n < m, celle-ei se simplifie :


m
li rn ll2 = ~ c:i-i Ia, 1n-c m-i> I ~ 1m-i =
i=i
m-1 n
= ~ c! I a. 1n-k I~ I" = ~ c! I a 1n-k I ~ lk = <I a. I+ I ~ 1r.
k=O. h=O

Considerons le cas I a. I< 1, I a. I+ I~ I> 1, I ~/(1-a) I< 1. Soit


c=c0 =(0, ... ,O, 1f; on verifie directement que, avec. cec, la
solution du systeme considere est

xo = (1 1a ( 1 ~ a ) m-1, •• •' 1 1a )T ;

evidemment,

Pour l'approximation initiale x 0 = X0 +c„ 0 on a r0 = c0 et.,


conformement aux constructions ci-dessus,
li rn ll2 = «I a I+ I ~ I)n pour n < m.
Prenons un m tel que <1 = <1a 1+ I~ 1)m-i - Cil depasse la capacite
m
de la machine. Les rel~tions obtenues plus haut entraînent li xm-i 111 ~
2
,::;;,,-
llxm-1112
m 2
,::;;,,-
li rm-i li 2 m- li xo 11 2 ~ <J • I' exemple que nous venons
,::::,,-, .
de construire jouit donc des proprietes suivantes: la norme
de l'approximation de depart est petite, le processus iteratif con-
verge si l'on se passe d'arrondi et si l'exposant des nombres est
borne; dans Ies conditions reelles, le processus s'arrete pour n =
= m - 1 au plus par suite des valeurs trop grandes des composantes
d'approximations.
Voici un exemple numerique concret satisfaisant aux conditions
imposees dans le cas de la plupart des machines modernes: a = -1/2>
~ = 5/4, m = 120.

Soit I P/(1 - a) I >


1, c} - c 2 = 6c0 • Les solutions x1 , x 2 des systemes
Xi = B 0xi + ci. i = 1, 2, verifient alors les relations
li X1 - X2 111 = .611 X0 Jh = I ~ 1-1 I ~/(1 - a) lm6.
§ 4) PROCESSUS ITERATIF REEL 329

Si I P/(1 - a.) im est tras grand, l'erreur d'arrondi sur le second membre, qui
est proportionnelle a co, entraînera une erreur inacceptable sur la solution.
Pour I P/(1 - a.) I > 1 et m grand, le systeme s'avere un modele impor-
tant de systemes mal conditionnes (v. § 13).
Examinons un cas reel avec arrondi a chaque pas. 11 est fort peu
probable que la presence d 'arrondis nous evite un depassement de
capacite s'il y en a deja en leur absence. C'est pourquoi nous nous
arrâterons a un cas sans depassement de capacite. A la place de xn,
on obtient alors x*n relies par
x*n+t = Bx•n + c + Pn,
pn etant I' arrondi total par pas d 'iteration.
11 en resuite, compte tenu de (3.2), l'equation relativement a
I' erreur reelle r*n = x* 11 - X :
r•n+t= Pn+ Br•n. (1)
Exprimant chaque r•n par l'iteree precedente, i1 vient
+
r•n = pn-t Br*n,..1 = pn-t + B (pn-2 + Br*n-2) =
= pn-1+Bpn-2+ .•• +~1Po+B11ro. (2)
Pour I a I < 1, I a I + I ~ I > 1, la norme li B:
li a, on I' a vu,
l'allure suivante: pour n petits elle a tendance a s'accroître, et
pour n grands, elle tend vers zero. On montre que la valeur maxi-
male q> (B 0) = max li
n
B:li est atteinte pour un n = n 0 de I' ordre
de m. Avec Ies normes li Bn li se comportant de cette faţon on se
place dans la situation suivante. La quantite max li x*n li n'est
n
pas si importante pour entraîner un depassement de capacite et
I'arret de la machine; d'autre part, <p (B) 2-t ~ co, co etant la plus
grande erreur admise sur la solution. Aussi, avec n > n 0 , il existe
toujours, dans le second membre de (2), un terme Bno pn-1 -no muni
d'une norme ~ro. Resultat: Ies approximations x*~e se stabilisent
pas avec une precision acceptable.
n-1
L'erreur de calcul totale Pn = 'IiBn-1 -ip; peut s'averer notable
i=O
non seulement a cause de la valeur importante de termes isoles,
mais aussi parce qu'ils sont nombreux.
Soient B une matrice symetrique, li B lls = max I Â~ I = Âh <
i
< 1 et e1 le vecteur propre norµie associe a Â}J. Considerons un
modele d'arrondis tel qu'on ait p' = pe1 a chaque pas, p etant de
l'ordre de 2-t. On a
330 M:8THODES NUM:8RIQUES DE L'ALGEBRE [CH. VI

Puisque le nombre d'iterations est tel que li Bn li~ 1 et li Bn li =


=(Â.}J)n, on peut estimer que li Pn li:::::: P h . Ainsi, si Â.~ est proche
1-Â -
de I 'unite, l'influence globale des arrondis sur Ies pas d 'iteration
s'avere assez grandE,.
Montrons que l'erreur de calcul presante inevitablement cet ordre
de grandeur. Supposons qu'au lieu du systeme (3.2) on demande de
resoudre le systeme x = Bx + c + pe1 • La difference X - X des ·
solutions de ces systemes verifie (X - X) = B (X - X) + pe1 ;
d'ou X - X= (E - .B)-1pe1 = (1 - Â.k)-1pe1 • L'erreur de l'ordre
de (1 - Â}J)-1p est donc inevitable et la perturbation des approxi-
mations par suite d'iterations est comparable a une erreur inherente.
Afin de reduire le nombre d'iterations lorsqu'on passe au systeme
c,
x = Bx + on tâche d 'obtenir un systeme avec la plus petite li B li
possible; c'est pourquoi Ies problemes avec ÂB superieur, disons,
a 0,9999 sont plutot rares.
§ 5. Spectre d'une famille de matrices
Soit {Am} une fan;tille de matrices carrees avec m, dimension de
la matrice Am, parcourant un certain sous-ensemble de l'ensemble
des nombres naturels, et soient li x ll<m> Ies normes definies dans Ies
espaces de vecteurs Xm de dimension m.
Appelons Â. =I= oo point du spectre S = S ( {Am}) de la famille de
matrices {Am} sous la condition suivante: pour un e > O quelconque
on a une matrice Am. et un vecteur Xm =I= O tels que
(1)
De meme, Â. = oo est dit point du spectre de la famille de matrices
si, pour tout K, on a une matrice Am et un vecteur Xm =I= O tels que
(2)
L'ensemble des points du spectre constitue le spectre de la famille
de matrices.
Si la famille {Am} ne comprend qu'une seule matrice Am, le
spectre de la famille coincide evidemment avec l'ensemble Sm des
valeurs propres de Am.
PROBL°E:ME. Demontrer que le spectre de toute famille de matrices est un
ensemhle ferme.
NoTE. De nombreux auteurs definissent autrement le spectre d'une famille
de matrice.c;. Le point i., =/= oo est dit potnt du spectre d'une famtlle de matrices
si, pour tout 8 >O, ii existe une suite infinie de matrices Am et de vecteurs
Xm -=I= o associes tels que
li JlmXm - ÂXm ll<m> ~ s II Xm ll<m>·
§ 5] SPECTRE D'UNE FAMILLE DE MATRICES 331

Dans le cas A = oo on exige l' existence, pour K quelconque, d 'une suite infinie
de matricea Am et de vecteurs Xm =f=. O tels que
li ÂmXm ll<m> ;;::: K li Xm ll<m>·
La quantite Pm = sup Iz I est le rayon spectral de la matrice
zEBm
et p = p ( {Am}) = sup I z I le rayon spectral de la famille
z E 8({Am})
{Am}- Evidemment Pm ~ li Am ll<m>•
PROB~ME. Demontrer que
.S ({Am})= LJ
m
Sm (3)

si Am = A& et li x ll<m> = li x 11 3 quels que soient m.


La proposition que nous venons de formular entraîne que le spectre
d 'une f amille de matrices symetriques de norme li x Ila est determine
par Ies spectres des matrices de la famille.
La relation (3) n'est pas obligatoire pour des matrices non syme-
triques. Prenons pour modele une famille simple de matrices non
symetriques
a ~ O o
O a ~ o
Âm= ' a, ~*o.
o o o ... ~
O O O .•• a
Pour n'importe quel m l'ensemble Sm est compose du point z = a
et l'ensemble LJSm coincide donc avec le point a. Montrons que
m
l'ensemble S contient egalement tous Ies points du cercle Iz - a I~
~ I~ j. Soit w un complexe quelconque tel que I w I~ 1 et soit Xm
un vecteur de com posantes
(xm)j= uJ-1 ( 1 - j m1 ) .

On a Ies egalites suivantes:


(AmXm)J = a (xm)J+ ~ (xm)J+1 =
= aul-1 ( 1 - + ~zoi (1 - ~ ) =
j m
1
)

= (a+~w) wi-t ( 1- im 1 )-P ': pour j < m,


1
(AmXm)m= a (xm)m= awm-t ( 1- mm )=

= (a+ ~w) wm-1 ( 1 - mm 1 ) -P ':im .


332 METHODES NU:MERJQUES DE L'ALG:BBRE [CH. VI

Ainsi,

D'ou

Par ailleurs

Donc,
IIAmXm-(a+~w)xmlJa<:( ~1) llxmlla•
Comme pour un e > O il existe un m tel que 1~ 1 < e, l'inegalite
. Vm
obtenue veut dire que le point a + ~w appartient au spectre de la
famille de matrices {Am}· Puisque tout point du cercle Iz - a I~
~ I ~ I s'ecrit sous cette forme avec I w I ~ 1, nous avons demontre
l'appartenance de ce cercle au spectre S.
Posons <J>n = sup li (Amt ll<m>·
m

TH:80R:ElME 1. Si p ( {Am}) = p < oo, on a pour tout a> p l'esti-


mation
<J>n ~ k (a) O'n (4)
avec n quelconque; ici k (a) ne depend pas de n.
D:8MONSTRATION. Soit Dune matrice arbitraire de norme li D li<
< d< 1. Considerons l'equation matricielle
X =DX + C. (5)
On· a evidemment
li X li ~ li D li li X li + li C li ~ d li X li + li C li,
d'ou
li X li ~ (1 - d)-1 li C \I. (6)
Le systeme (5) est un systeme d'equations lineaires en elements de la
matrice X. Puisque X = O pour C = O (vu (6)), ce systeme admet
une solution unique pour toute matrice C. Si C = E, on a X =
= (E - D)-1 , et, selon (6),
li (E - D)-1 II ~ (1 - d)-1 • (7)


§ 51 SPECTRE D'UNE FAMILLE DE MATRICES 333

On a, pour tout n,
E - Dn = (E - D) (E + D + ... + nn- 1
),

et, apres multiplication par (E - D)-1 ,


(E - D)-1 - (E - D)-1 nn = E + D + ... + nn- 1
;

il s'ensuit
(E - D)-1 - (E + ... + nn- )11 ~ 1

~li (E - D)-1.11 li nn11 ~ (1 - d)-1d!". (8)


Soient B une matrice quelconque et ~ un nombre superieur a sa
norme: li B li < ~; si l z l ~ P, on a li z-1B li ~ 11:II = d < 1.
Faisant D = z-1B dans (8) il vient

li (E - z-1Bti -
n-1
p (z-1B); li~ (1 _
:,=0
li ~ li r1
( li : li r-
00

Ainsi, la serie matricielle ~ z-iB; converge uniformement vers la


j=O
matrice (E - z-1B)-1 dans le domaine l z I~~- La formule des
coefficients de la serie de Laurent nous permet d' acrire
1-
Bn = -2ni th zn-1 (E - z-1B)-1 dz
'% '
Jzl=f3
ou ancore
1
nn- = -2ni
- t"Y zn (zE - B)-1 dz. (9)
lzl=f3
Les elements de la matrice (zE - B)-1 sont egaux au signe pres aux
rapports des mineurs de la matrice zE - B a. son determinant. Ils
sont donc analytiques partout sauf aux points z, zeros de
det (zE - B), i. e. en dehors du spectre de B. Par consequent, dans (9)
on peut passer a l'integration le long de tout contour renfermant
le spectre de B. Soit a> p quelconque. Les spectres Sm de toutes
Ies matrices Am se trouvent a l'interieur du eercle Iz I ~a. Aussi

A~= 2~i ţ zn (zE -Amt1 dz. (10)


lzl=a
En demontrant le theoreme 1 on s 'adressera au
LEMME. Si a > p, alors
k (cr) = sup li (zE'.-Amr1 Hem)< 00.
lzl=a, m
M!:THODES NUM!:RIQUES DE L'ALG~BRE (CH. Vl

D!!._ONSTRATION. Puisque a> p, on a, pour Iz I = a et tout m,


det (zE -Am) =I= O et li (zE - Am)-1 ll<m> < oo.
Supposons que le lemme n'est pas juste. 11 existe alors une suite
(z (q), m (q)) telle que
I Z (q) I = a, W (q) = li (z (q) E
- A,m, q»)-1 11,mcq» ~ oo
pour q tendant vers l'infini. Soit z0 , I z0 I = a, la valeur d' adherence
de la suite z (q). Afin· d 'eviter tout changement de notations supple-
mentaire, supposons que z (q) ~ z0 • Par definition de la norme d 'une
matrice, quel que soit q iI existe un vecteur Xmc q> tel que
li (z (q) E-Amcq)r1;xm(q) llcm(q»I> 1D ~q) ll"xm(q) 1(cm(q))1
ou, ce qui revient au mâme,

li (z (q) E-Am,q>) Ymc,p )lcmcq»< w ~q) li Ymcq> llcm<q»


avee
Ymcq> = (z!(q) E-Amcq>)-1 Xmcq>•
11 en decoule l'inegalite
l1Amcq,Ymcq>-Z0Ymcq1 llcmcq»< (lz(q)-zol+ w~q)) li Ymc0!·Jlcmm>•'
Puisque w (q) ~ oo par hypothese et Iz (q) - z0 I ~ O, îl en resuite
que le point z0 , I z0 I = a, est un· point du spectre: contradiction.
Le lemme est demontre.
En evaluant la norme du second membre de (10), il vient

li A:i]cm, < 2~ ~ ahk:Ca):l~dz I= 14( a):an.


Iz l=a
D'ou l'inegalite (4).
TH!:ORiME 2. S( p > 1, alors

q> = sup Q>n = supfll A~:Ucm> = oo.


n n,m

DffMONSTRATION. Si, pour une famille~ donnee de matriees., on a


q,1 = oo, elle verifie le theoreme.
Considerons le cas q,1 < oo. Pour demontrer le theoreme 2 il
suffit de prouver que, quel que soit K, il existe m et n tels que
li A~ 11,m> ~ K.
Si p > 1, il existe un z E S, I z I > 1. Prenons K arbitraire et
choisissons n a partir de la condition Iz in ~ 2K. Posons cS =
= Kl(nbn-1), oii b = max (q,1 , I z I). z etant un point du spectre, il
§ 5) SPECTRE D1UNE P'AMILLE DE MATRICES 335

existe m et un vecteur Xm verifiant


li AmXm-ZXm llcm,-<«S li Xm llcm>•
On a evidemment
11 A:.-i-fzi (AmXm-ZXm) llcm,-<11 Am nf,;t 1 Iz I! 6]1 Xm llcm>-<
-<cp1-i-i IZ li l> li Xm ll<m>-<bn-fi) li Xm ll<m> = ! li Xm llcm>• (11)
On a l'identite
n-t
n
A mXm-Zn-. "'1 An-i-1
Am= ~ m Zi (A mXm-ZXm.
)
i=O

Apres avoir evalua la norme de chaque terme a droite a l'aide


de (11), îl vient.

d'ou
li A~m ll~m>~I Z in li Xm llcm>-K li Xm llcm> =
· =(lzin-K) llxmllcm>~Kllxmll<m>•
Nous avons trouve Ies m et n pour lesquels li A~llcm> ~ K, ce qui
demontre le theoreme.
Les affirmations des theoremes entraînent que le rayon spectral
d'une famille d'operateurs determine pour beaucoup Ies proprietes
du processus iteratif. En effet, si p < 1, alors, d 'apres le theoreme 1,
Ies normes li A~ ll<m> sont uniformement bornees, et le processus
iteratif doit etre insensible aux arrondis; si, par contre, p > 1,
on a sup li A~ll<m>=oo conformement au theoreme 2, et, pour certaines
n,m
des matrices Am, le processus xn+i = Amxn +
b ou hien divergera~
ou hien sera assez sensible aux arrondis.
Les theoremes demontres n' autorisent aucun jugement sur la
stabilite d 'un processus iteratif concret par rapport aux arrondis.
II y a plus. En l'absence de relations nettes entre Ies elements de la
matrice A on ne sait pas exactement A quelle famille co.nvient-il
de la rapporter. Et quand bien meme le probleme du choix de {Am}
et de la recherche de son spectre serait rasolu, la question de la stabi-
lite du processus iteratif reste entiere. Pour un nombre reel de carac-
teres binaires et une precision fixe du calcul, il se peut que Ies nor-
mes li A~ llcm> croissant lentement avec n et m soient a preferer
aux memes normes uniformement bornees par une constante im por-
tante. Aucune conclusion pratique concrete n'est donc possible.
Neanmoins, nous avons etabli que Ies matrices non symetriques de
dimension elevee jouissaient de proprietes qui nous etaient incon-
nues. Elles possedent, en particulier, a cote de valeurs et vecteurs
336 MJ;lTHODES NUM~RIQUES DE L'ALG:8BRE [CH. VI

propres, des valeurs et vecteurs << presque propres >>, c'est-a-dire


des  et y tels que By ~ Ây. La derniere egalite implique B"y ~
~ iny, donc la norme d'une erreur proportionnelle a y augmente
d 'environ I Â ln fois au bout de n pas d 'iteration. La presence de ces
valeurs << presque propres >> est justement la cause des effets deplo-
rables dont nous avons parle au debut du paragraphe precedent.

§ 6. Procede 6 2 d'evaluation pratique


de l'erreur et d'acceleration
de la convergence
Voyons comment on evalue l'erreur sur une solution approchee
d'un systeme d'equations. Si X* est une solution approchee du
systeme AX= h, on acrit A (X* - X) = AX* - h. D'ou l'esti-
mation d'erreur
li X* - XII =li A-1 (AX* - h}II ~IIA-11111 AX* - hll;
elle n'est guere applicable vu la complexite de l'evaluation de
li A - 1 11. Aussi, en analysant pratiquement l'erreur d'approximations
dues aux methodes iteratives, recourt-on plutot a une autre evalua-
tion peu rigoureuse, mais plus simple.
Rappelons le critere de rationalite d'une evaluation pratique d'erreuri
on dit que vn est l'erreur reelle sur l'approximation xn, qui tend vers X lorsque
n-+ oo, si
li yn - (xn - X) 11/11 xn - X li-+ O pour n-+ oo. (f)

Evidemment, on a alors li vn li - li xn - X IJ,'!


Considerons la methode iterative simple xn+i = Bxn + c;
bornons-nous, afin d'âtre simple au souhait, au cas ou B est de struc-
tura simple (sa forme de Jordan est diagonale et B possede donc un
systeme complet de vecteurs propres).
Soient Âh i = 1, ... , m, Ies valeurs propres de B qui sont
numerotees dans l'ordre de decroissance de I Âi I, de plus,
1 > I Âi I > I i2 I ~ I Âs I ~ ... ~ I im I,
et e1, li edl = 1 Ies vecteurs propres associes du systeme complet.
Developpons le vecteur r0 suivant la base e,: r 0 = 2] ciei. Al9rs
rn = xn- X= UT0 = ~ ciÂfet = c1Me1 + O (I Â2 ln). (2)
Ici et dans la suite Xn = Yn. + O (en.) a le sens suivant I
îll Xn-Yn.11=0 (En) pour n ~ oo.
Indiquons un procede d 'approximation du vecteur wn = c1Âfei
qui tienne compte de l'information obtenue en cours du calcul. On a,
§ 6] PROCEDE 01 D'ACCELERATION DE LA CONVERGENCE 337

salon (2),
xn- 2 - X + O (I Â2 ln) ,~
= wn),;;- 2

xn- 1 - X= wnA; + O (I Î.2 !n),


1

xn-X= wn+o (I Â2 in).


En retranchant membre a membre les expressions voisines, il vient
xn-t = wn (1-A:;:1) A;1 +o (I Â2 r>,
_xn-2
xn-xn-t = Wn (1-Â.11) + O (I Â2 ln). (3)
D'ou
(xn - xn-1, X - xn-1) = li wn 112 I·1 - Â;1 12 + O (li wn li IÂ1dn)'
(x -xn- 2 , xn-xn-1) = 11 wn ll 2 I1-Â;112 Â:;:1 +O (li wn li I Â2
1 1
'- r>- (4)
Posons
Â<n> _ (xn-xn-t, xn-xn-1)
1 - (xn-t_xn-2, xn- xn-t) •
Prenons Ies egalites (4) et sous l'hypothese c1*0 divisons le
numerateur et le denominateur par li wn ll 2 I 1-Â;1 l2 Â;1 _:

Â1+0 ( 1'1~t1,)
Âf>=---..:.;._....,......._
1+0 U1 ~2~1 ) .
Puisque
(5)
on a
(6)

Divisant la seconda relation (3) par 1- (Â1n>rt, on trouve


xn-xn-1
t-(Âm1r1
n 1-Âil
W 1-(1'.in>)-1 + O (I Â 1n
2 ) =W
n
+ w'1 Âi("-i_n>-i)
Â1-1in>
+O(IÂ ln)
2 •

(5)' (6) entraînent li wn (Â 1 - Âin>) li= a (I Â2 ln), et donc


xn-xn-1
1-("-i_n>)-1
II s'ensuit, compte tenu de (2),
xn-X= vn+o (I~ r>
avee v = i-().{_n>)-t; notons que, con f ormement
n xn- xn-1 , a, (3) , (6 ), II vn II =
= Ictl IÂ1r + o (I Â2 ln). 11 en decoule que vn verifie (1)' ce qui
autorise a le prendre pour erreur reelle sur l'approximation xn.
22-01007
338 M~THODES NUMtRIQUES DE L'ALGtBRE . [CH.: VI

Pour c1 = ... = Cz = O, cz+1*0, nos raisonnements restel)t:vala-


bles si I Âz+1 I> I Â1+2 I; 9n remplace dans toutes Ies relations Ah c„
ei (i = 1, 2) par Âz+h Cz+h ez+i• Ainsi, nous avons evalua la solu„
. tion approchee par le procede 62•
Si on pose yn =Xn-vn,, alors yn-X= O (I Â2 ira), et yn est en
general une meilleure condition initiale des iterations devant xn.
En affinant de temps en temps Ies resultats on arrive parfois a
reduire sensiblement le nombre d'iterations.
Pour que soit vraie l'egalite approchee
xn - X~ vn, (7)
il est necessaire que le terme c1Âf'e1 a droite dans xn - X = ~ ciÂÎet soit pri-
i
ponderant. S'il est bien ainsi, Ies vecteurs xn - xn-1 , xn-t_xn-2 sont appro-
ximativement proportionnels et
I (xn-t_xn-2, xn-l_xn) I -~-
~n = li xn-1-xn-21111 xn-1-xn 11,.._, 1.
La condition Jl.n ~ 1 est donc necessaire pour que soient vraies nos constructions
ci-dessus. On peut donc la prendre pour critere d'applicabilite pratique de (7).
Le schema suivant de la methode iterative simple avec recours au procede
B2 d 'acceleration de la convergence paraît par exemple raisonnable. On se donne
un certain 'I')> O petit; si, A une iteration, Jl.n ~ 1 -1), on calcule le vecteur
vn et Ies iterations suivantes demarrent a partir de l'approximation initiale yn.
Le processus s'arrâte si Jl.n ~ 1 - fJ et li vn 1J ~ s, ou s est la precision
voulue.
Pour 1) tres faible, la condition Jl.n ~ 1 - 11 n'est satisfaite qu'apres de
nombreuses iterations et la convergence n'est pas amelioree. Pour TJ grand,
Ies relations a la base de nos constructions ne sont plus strictes et il se peut
que le procede C, 2 ralentisse le processus iteratif. La situation est compliquee
par la presence d'arrondis, et le schema decrit ap_pelle une mise au point sur
un nombre important d' exemples afin de pouvoir choisir un 'll optimal et deter-
miner la home inferieure des valeurs de s permettant l'algorithme en question.
Si un processus iterat.if homogene se trouve remanie (dans notre cas, il l'a ete
lors du passage de xn a yn), il serait bon de verifier si une telle modification
n'en deteriora pas la qualite. On prend comme critere d'opportunite du rema-
niement une certaine relation entre Ies normes des residus pour xn et yn, par
exemple une inegalite de la forme
li (E - B) yn - c li < q lf (E - B) xn - c 11·
Quand nous avons parle de la necessite d'indiquer la home inferieure des
valeurs de s, nous nous sommes guide sur la circonstance suivante. Soit, pour
fixer Ies idees, 1i.i > O. Le calcul de xn d'apres xn-1 donne suffit deja pour que
Ies arrondis perturbent le resultat d'une quantite cSxn dotee d'une norme de
l'ordre de p. Cela risque d'entraînerune perturbation Bvn de norme en (1 - ~)-1p.
11 en resuite que pour e < (1 - Â1)-1p le processus iteratif est susceptible de
ne jamais finir.
Nos raisonnements prouvent que la mise en pratique d 'une methode engen-
dre des situations qui exigent une preparation mathematique serieuse et des
experiences numeriques en quantite considerable. Aussi, toute « simple » que
paraisse la technique iterative sii;nple, 1'elaboration d 'un programme standard
est-elle completement justifiee. .
§ 7] OPTIMISATION DE LA ViTESSE DE CONVERGENCE

§ 7. Optiinisation de la vitesse de convergence


des process~ iteratifs
Considerons un procede· tres simple de resolution du systeme
Ax = b par iterations:
xn+t = xn - a (Axn - b).
On sait deja que sa vitesse de convergence depend essentielle-
ment du module maximal des valeurs propres de la matrice B ==
= E - aA. Si Â.1 , • • • , Ân sont Ies valeurs propres de A, on a

Fig. 6.7.1 Fig. 6.7.2

max I 'A; (B) I = max 11 - a;Â,i j. La figure 6. 7 .1 montre que s'il


i i
y a des valeurs propres reelles de signes contraires, ce maximum est
superieur a I 'unite et le processus iteratif diverge.
Voici un cas particulier avec toutes Ies 'Ai > O. Les valeurs 'A1
sont connues fort rarement encore qu 'un cas assez typique soit celui
ou on en connaît l' estimation :
O<µ~ Â.1 ~ M < oo pour tous Ies i.
La vitesse de convergence se earacterise par
p (a)= ,max I 1- a. I.
µ.~~M
Considerons le probleme_ de minimisation de p (a) par le choix de a.
22•
340 METHODES NUMERIQUES DE L'ALGEBRE [CH. VI

Pour trouver min p (a) on se servira de considerations geometri-


a.
ques (fig. 6.7.2). 11 est clair que p (a)~ 1 pour a~ O. Si O< a~
~ M-1 , la fonction 1 - aÂ. est non negative et decroît de fa~on mono-
tone sur [µ, M], donc p (a) = 1 - aµ. Pour M-1 < a, la quantite
1 - aM devient negative et son module augmente avec a; pour un
certain a = a 0 , 1 - a 0 µ devient egal a - (1 - a 0M) et alors
p (a 0 ) = 11 - aoµ I• Si a < a 0 , alors p (a) = 1 - aµ > 1 -
:- a 0 µ = p (a 0); si a 0 < a, on tP (a)~ 11 - aM I = Ma - 1 ~
~ Ma 0 - 1 = p (a 0). La valeur a = a 0 est donc la valeur cher-
chee. En resolvant l'equation par rapport a a 0 , on trouve a 0 =
2 D' ,
= M+µ· ou
M-µ
p ( CXo)= M+µ.

Nous avons optimise un processus


yant sur une image concrete.
, .
iteratifl particulier en nous appu-

Sur !'exemple de systemes de matrice A > O (ici et dans ce qui


suit l'inegalite A > O signifie que A est une matrice autoconjuguee
definie positive) examinons d'autres fa~ons de poser Ies problemes
d 'optimisation de la vitesse de convergence de processus iteratifs.
Une partie des resultats pourront jouer pour Ies matrices non syme-
triques.
Tout systeme Ax = b avec det A =I= O est generalement reduc-
tibie a une forme correspondant a A> O par une multiplication
· par la matrice A* (on dit alors qu'il est symetrise). En effet, le sys-
teme A* Ax = A *b est equivalent au systeme initial, la matrice
A* A est autoconjuguee (A* A = (A* A)*) et definie positive
((A* Ax, x) = li Ax 11 2 > o pour X=/= O). La symetrisation est a evi-
ter car nous le verrons a la fin du paragraphe, elle conduit souvent
a une deterioration des proprietes de la matrice.
Soit x 0 I' approximation initiale et admettons que chaque appro-
ximation suivante est construite selon
xk = x0 - Q,i_1 (A) (Ax0 - b), (1)

Q1i-i (A) etant un polynome de degre k - 1 de la matrice A.


On sait du spectre de A qu'il appartient au segment [µ, M],
O<µ~ M < oo. La solution X du systeme de depart verifie
X= X - Q,i-1 (A) (AX - b).
En retranchant cette egalite de (1) 71 on obtient une equation don-
nant l' erreur
-r" = r0 - Qk-t (A) Ar0 = P11. (A) r 0
§ 7] ·OPTIMISATI-ON DE LA VITESSE DE CONVERGENCE 341

avec Pk (A) = 1 - 'J...Q1t-i (Â). La matrice Pk (A) est symetriqtţe.~·--~ .


en tant que fonction d'une matrice symetrique; c'est pourquoi -:' ·· ·- ·..·

sup 11
~ 113 = li P11, (A) lb = max I P11, (Â) I ; (2)._
ro,;:o 11 113 AES(A)

introduisons la notation C'J (g) = max I g (Â) I et posons


~~M

a,,, = inf CJ (Pk).


Qk-1
LEMME.
1
ak = max I1-ÂQL 1 (Â)I= -1t 1
; (3)
µ~'-~M k

ici

1-,.,oLd'J...) = pg (Â) =T11, ( 2Â~~:µ)) (Tk ( - :+~) r 1


, (4)

comme d'habitude Th sont les polyn6mes de Tchebycheff, t11. =


=Tk(-:+:)·
D:8MONSTRATION. En utilisant max ITk (x) I= 1, on obtient CJ (P'li) =
IXl~i
= I t.,. 1-1• Supposons qu'il existe un polynome Pk (Â) = 1-ÂQ.,,,_1 (Â)
tel que
('J (Pk) < (J (Pi)= I tk 1-1• (5)
Considerons le polynome Sk (Â) = Pi (Â)- P,,, (Â). Soit
"J;
/1,
M+ µ
=-2-+-2-COSŢ,
M- µ "-i .
]=
O
' ... ,
k.

Par suite de l'egalite T,,,(x)=cos(karccosx), ii vient


P'k (Â;) = ( -1}1 t1/.
Puisque 'Al E[µ, M], on a, conformement A (5),
I ph (Â.i) I< I tk 1-1 '
d'ou
sg S k (Â;) = sg PR (}}).
Les points Â.8 , ••• , ,._k sont monotones sur le segment [µ, M);
vu que S,,, (Â) change de signe en passant de chacun de ces points
au suivant, i1 possede sur [µ, M] k zeros. De plus;
S1i (0)= P'i. (0)- Pk (O)= 1-1 = O.
, M_gTHODES NUM8RIQUES DE L' ALG:il:BRE .. [CH. VI·

Nous venons ·d'obtenir un polynom,e de d~gre k qui a k+ 1 zeros;


par eonseq~~nt, S1i (Â) ==0, P1i ("-) =:: P'/i (A) et · • · •·
max I Ph (Â) I= I tk 1-1 ,
[µ, M] .. . ;
ce qui est contraire a (5) .. Le lemme est demontre.
ExERCICE- Utiliser la formule
(z+ 1/z2 1)k + (z- 1/.x2 1)"
Th (.x)= -~ .

pour verifier la validite de l 'egalite

- (-f)k ('J,}'+
t h--2- O
Â, -k)
O .,

_VM+Vii . '·
Âo-,r- ,r-·
V M-v µ

De cette fa~on de representer tk il decoule en particulier que


· 1 . 1
C11t =Ţii;T = eh (k ln Âo) < 1 pour k > O.
Les construetions faites supposent plusieurs types de processus
j teratifs·.; .
. • Dans un des eas on se donne une suite: de valeurs 7Jo =·0 <
·<
< n 1 n 2 ••• , et Ies approximations xni · sont definies par ia for-
mule de reeurrence
(6}

avec q; = ni+1 -n1• On a Ies relations evidentes ·


rni+i = pg_z (A) rni,
li rni+i lls~Gqi li rn'.-lla
et finalement
li rnp lls~ Oqo • • • Cfqp-1 li .r0 113•
Soit le eas q, == k, i.e. ni= ik. En notant xni = yi, on ecrit :le
processus iteratif (6) .sous la forme .
• . o .
y'+1= y'-011.-1 (A) (Ay'-b)
avec pour e~timation d 'erreur
§ 1] OPTIMISATION DE LA VITESSE DE CONVERGENCE 343

Un tel processus est dit lineaire optimal a pas lies. · Pour le sac
particulier k = 1, on a selon (4)
2Â-M-µ
2
P. {Â)
01 =1 ~ÂQo0 ("-) = .· M-µ
M+µ = 1.- Â
M+µ'
-M-µ
1 1 ,. M-µ
t1 = M+µ ' 0'1 = '"Ţt;Ţ= M+µ •
~M-µ .
Le processus analogue a pas separes se represente donc comme _suit:
. . •2 .
yi+t = y" ---.-(Ay1-b)
. M+µ
avec pour estimation d 'erreur
1
11 y -Xlla~( :+: rlly 0
-X lla-
On verifie que Ies coefficients des polynomes Qf _1 (A) croissent
rapidement avec k; on con~oit que; pour k grand, l'algorithme de
calcul de xn qui fait. :r;ecours a l 'information sur les valeurs desdits
~oefficients .est tres sensible a l'erreur de calcul. Aussi pour trou-
ver x.,,_. suit-on des voies detournees.
· Mettons (1) sous la forlrie ·
~= P,i (A) ~0 -(Pk (A)-E) A- 1 b
et considerons-la comme la transformation x0 -+ xk.
So'ient pw (1'.) ·et p< 2> ("-) des polynomes arbitraires et P (Â)=
= pw (Â) P<2> (Â); effectuons ·successivement Ies- transformations
correspondant a pw et P< 2) :
xm = pw (A) x 0 -(PU> {A)-E) A- 1b,
(8)
·;•
_x< 2 > = pc 2> (A} xm -·(P< 2' (A}°-E) A-1b.
On a
r 2> =:P< 2> (A) p~u (A) x 0 -P< 2> (A) (PW (A)-E) A- 1b-
;_ (P< 2> (A)- E) A- 1b = P< 2> (A) p,o (A) x 0 -
- (P< 2>·(A) pcu (A)-E) A-1~,
Ainsi, les transformations successives (8) equivalent a la transfor-
mation .. correspondant au polynome P (A). 11 s'ensuit que lorsque
P (Â}= pw ("-) ... pck> (Â); ~a realisation successive des transforma-
t.ions ; correspondant a· P<"> (Â), i= 1, ... , k, conduit au meme
resultat que la transformation correspondant a P (Â).
Pour calculer xk= x0 -QL 1 (A) (Ax0 -b) procedons commo suit.
Decomposons .
pg C"-) = 1·-"-0L1 <"-) ·
344 Mlr:THODES NUMtRIQUES DE L'ALG:filBRE [CH. VI

en produit de facteurs
Pf (Â) = (1- a1Â) ... (1-a:Â)
et effectuons l 'une apres l 'autre Ies transformations qui leur cor-
respondent. Si P (Â) = 1-afÂ, alors Q {Â) = (1- P (Â)) Â- 1 = et at
elles s'ecrivent
x< i> = x<i-o - anAx<i-t> -b), i = 1, ... , k. (9)
11 ·vient finalement egal a x". Les zeros des polynomes
x<k> PH"-)
sont Âi= (aft1 , ceux des Tk ( 2 '}..-;_~~µ).}
 _ M+µ
i - --2-
+ --2-
M-µ •1t(2i-1)
cos. 2k '

i=1, ... , k.
D'ou
a~= 2 n (2i-1). (10)
M+µ+(M-µ)cos k
2
.. Lorsque k est grand, l'algorithme de calcul selon (9), (10) est lui
aussi sensible aux arrondis. Retranchant de (9) X= X- anAX-b),
on trouve l'equation donnant l'erreur: r<i>=(E-afA)r<i-1>, qui
s' ecri t en arrondissan t :
Q r<i>=(E-atA)ri-1+Pi-1.
Exprimant. chaque r<i> par les iterees precedentes, on a l'egalite
r<"> = IT (E-a~A) r<
i=i t
0> + k~i IT
i=O i+2~j~k
(E- aM) pi.
1

Ici sur r< 0 > agit l'operat~ur P'k (A) de norme CJ1i = j t~ 1 tandis I<
que Ies operateurs sur p1 peuvent etre munis de normes fort impor-
tantes.

« brassage » des quantites ar


Dans la pratique, on rend un algorithme insensible aux arrondis par le
Pour k = 2l l'algorithme correspondant est
le suivant. En prenant successivement j = 1. . .. , l, on construit la permuta-
tion « la plus desordonnee » des nombres, soit 1, ... , 2i. Lorsque j = 1, elle
comprend 1, 2. Soit (b{- 1 , . . . , bti.!1) une permutation donnee; la suivante
s'ecrit alors (b1- 1 , 2i+1-b{- 1 ,,;2- 1 ,2i+t-bt- 1 , ••. ). Pour l=4
par exemple cette permutation a la forme (1, 1.6, 8, 9, 4, 13, 5, 12, 2, 15,
7, 10, 3, 14, 6, 11). En se donnant k = 2z, construisons le tableau des nom-
bres bi, ... , b~ 1 et effectuons les iterations (9) pour

at=------2-------,-, -- .
1t (2b--1)
M+µ+(M-µ) cos ~k
§ 71 OPTIMISATION DE LA VITE!SSE DE CONVERGENCE 345

Proposons-nous de construire un processus iteratif qui donne


l 'approximation
y"= x 0 -QL 1 (A) (Ax0 -h) (11)

au bout de k multiplications ele la matrice A par un vecteur. On


a conformement a (4)
. QL t (A)= ( E-Tk ( 211 -,.\~~it) E ) t;; 1 ) A-t.

Notons que Q~ 1 (A)= (E-E) A- 1 = O et y 0 = x 0 • Portant l'expres-


sion de QL 1 (A) dans (11) et multipliant les deux membres par t1,.,
il vient
2
t1&y" = T1i ( A-j~!µ) E) (x 0 -A- 1h) + tkA- 1b.
La validite de cette relation lorsque k=n-1, k=n, k=n+1
entraîne
t n+t Yn+t_2 2A-(M+µ) E t Yn+ t yn-t _
M-µ n 11-1 -

= {T ( 2A-(M+µ) E ) - 22A(M+µ) E T ( 2A-(M+µ)E) +


n+t M-µ M-µ n M-µ

+Tn-t ( 2A-j~-;µ)E)} (xo-A-tb)+

+ (tn+tE- 2 2
A- ~~-tµ) E tn -t- tn-tE) A- b. 1 (12)
Les polynâmes de Tchebycheff sont lies par la relation de
recurrence
T n+t (x)-2xT n (x) + T n-1 (x) = O. (13)
Si l'on substitue a x une matrice, en particulier 2A-JM+µ) E , la

relation reste stricte. Aussi la matrice entre accolades est-elle nulle.
Par suite de (13) et de l'egalite t 11 = T n ( - on a :+: )
tn+t - 2(- : +: ) + t 11 tn-t =O (14)
et la relation (12) se recrit

M-µ t n yn+t n-1 yn- -4~(Ayn-b)


t n+t y"+ 1 -2 ( - M+µ) (15)
1
- M-µ •

Nous avons ici la relation de rlicurrence cherchee. Mettons-la


sous une forme qui soit d'un usage plus commode. Vu (14) l'ega-
lite (15) s'ecrit
tn+tYn+i -· (tn+t + tn-1) Yn + tn-1 Yn- 1 = - M ~ µ (tn+t + tn-t) (Ayn - h),
MtTHODES NUMlilRIQUES DE) L'ALGEBRE [CH. VI

.ou encore
· yn+i = Yn + IDnIDn-1 (yn -yn-1) - M
2
+ µ
(1
.
+ IDnIDn-1) ( Ayn - b) ( 16)

avec
tn
IDn = I- - tn+i
-.

La division par tn+t des deux membres de (14) fournit


2M+µ
1- M
-µ IDn + IDnIDn-1 = 0,
· d'ou
1
rou= M+µ . (17)
2 M-µ -Wn-1

Ainsi, on peut calculer par recurrence ron a l'aide de (17), puis


les vecteurs yn+i moyennant {16). Pour obtenir Ies vecteurs y1 , • • •
. . . , yn il faut n multiplications de la matrice par le vecteur, O (n)
multiplications de vecteurs par Ies nombres, additiQns de vecteurs
et · operatitnis ~ur Ies nombres. Tous Ies k verifient, par suite de
(2)-(4), l 'estimation
(18)

Le processus iteratif (16), (17) est dit lineaire optimal. En effet, on


montre que toute approximation raisonnable de la solution telle
que la matrice A ne participe qu'a k operations de multiplication
par le vecteur se met sous la forme (1). En realisant le processus (16);
(17) chaque ensemble de .k applications de A fournit un resultat
optimal au sens de {2)-(3). On voit donc que le processus (16), (17)
converge pl"Q.s rapidement que (6). Cepelidant, en raison du facteur
occupation memoire -on lui preferera parfois (6).
Voici u:r;ie evaluation plus concrete de la vitesse de convergence
des processus ·îteratifs construits. ·
D'apres la formule explicite des polynomes de Tchebycheff,
Tn {x) = 1
~+~ 2 . ---·-
avec Â1 , 2 = x ± V x2 - 1. Lorsque x > 1, on_
2
a Â1 = x ,+ V x 2
- 1 > 1, O < Â2 = ;
1
< 1. ~ussi, pour n grands,

_{19)

T n (x) > ).2r . . 11 en resuite f tn 1-1 ~2Â;n, ou 10 = M+ µ


M-µ
+
+ -,I ( :!-~ ) 2
- .1, et, conformement a (18), pour. le processus
. w,
§ 71 . . OPTIMISATION DE· LA VITESSE DE CONVERGENCE •347

iteratif optimal
li yn.-x lla~21i;t li x0 -X lla-
Lorsque 2lt~e, la norme de l'erreur · diminue d'au moins e- 1
fois. D'ou l'evaluation du nombre d'iterations requis

n >n1 = logAo
.
~s = (ln

"-ot
.
1
ln ~.
e

On verifie aisement que .

. A - -VM+ Vii t+V~


o-VM-y"µ 1-:--:-,f.~.
Dans beaucoup de prob1emes M/µ est tres important; pour
M/µ ~ oo, il vient

donc,
. . : /- M 2
1 .. /
ln Âo ......, 2 V ~ , n 1 ......, 2 V µ ln 8 .
Faisons la comparaison avec le processus lineaire optimal a pas
separes dont l'orreur, selon (7), est evaluee par

llxn-Xlla~( :+: rux -Xlb; 0

l'estimation du nombre d 'iterations s'ecrit alors

. n>n2 = (ln_ : : : r .! . 1
ln
S1. M -+ oo, a1ors
-
µ
1 M 1
ln M+µ ,_ 2 ..f.. et n.,-----ln-.
M-µ M 2 µ e M

Ainsi, le processus optimal fournit un gaio de nombre d'operations


d'envii:on ·V·:· 'fois. ..
PROBL:BMES- 1. Soit un processus iteratif
. xi.= xi-1 - eti-l (Axi-1 - b}, i ~. 1, 2,
Supposonsp impair et. les ensembles et 0 , ••• , et.Pk._ 1 , ·k quelconque, coincidant
avec
.. . ( .
'\'1-1=2
. n (2i-1)
M+µ+(M~µ) cos pk .
)-1 · ·. · k·
. . ,. &~1, .·•.·.,.P ~-
2
348 M:8THODES NUM:8RIQUES DE L'ALG1l:BRE {CH. VI

Verifier que pour tous i = ph, les approximations xi coincident avec Ies appro-
ximations du processus iteratif lineaire optimal.
2. Soit
2 1 1
«o= M+µ ' «1=1r, «2=- µ
et les ensembles

coincident, quel que soit k > 1, avec Ies ensembles


n (2i-1} }- 1 i= 1, ... , 2k.
Y;=2 ( M+µ+(M-µ) COS--------'- ,
2k+1

Montrer que pour ce processus iteratif et pour tont n=2k+t on a l'esti-


mation

.. i.e.

Considerons un probleme type de physique m-athematique qui se ramene


ă resoudre un systeme d'equations de rapport Mlµ. grand. On demande de resou-
dre dans le carre O~ z1.: x 2 ~ 1 l'equation de Poisson -Au= f avec des
conditions· aux limites nulles. Donnons-nous un reseau de pas h = 1/l et ecri-
vons le systeme d'equations approximant le probleme differentiel:

u;1+1,iz- 2 u;1, i2+u;1-l, .12 u;1, .12+1- 2 u;1, iz+ u;1, f.i-1
(20)
h2 h2
avec O< ;s, ; 2 < l;
u.11,h=O si it(l-i1)i2(l-i2)=0.
La matrice de ce systeme est definie positive et pour elle

µ=minÂi=8l2sin 2 ( ;h }·-- 2n~,

M=maxi..;~8l 2cos2 ( ;h),..., sz2,


c 'est-a-dire ·• / M _, ..E__ . En utilisant le pas l = 30, on constate un gain
V µ n
assez sensible sur le nombre d 'itt!rations.
Au debut du paragraphe, nous avons dit que la symetrisation
d 'un systeme risque d 'en deteriorer Ies proprietes. En effet, en appli-
quant ce processus a une matrice A symetrique, on passe du sys-
teme Ax = ba A 2 x = Ah pour lequel le rapport de la plus grande
valeur propre a la plus petite n'est plus M/µ mais (M/µ}2 et la
vitesse de convergence diminue en consequence.
§ 8] M~THODE DE SEIDEL 349

NOTE. Vu (19), on a pour n-+ oo

T ( M+µ)
n. M-µ
M+µ)
Tn+t ( M-µ
Donc, pour n grands, la formule (16) est voisine de
2
zn+t=zn+Âo2(zn-zn-1)-M+µ (1+)..02)(Azn-b). (21)

Si l'on itere par cetteJorm.ule avec n quelconque, sous la condition zO = xo,


z1 = y1 , ce processus exige approximativement le mâme nombre d'iterations
que (16).
§ 8. Methode de Seidel
Soit un systeme d'equations Ax = b dont tous les elements dia-
gonaux sonto non nuls. En le resolvant par la methode de Seidel on
calcule successivement Ies composantes de la solution, la k-ieme
composante etant trouvee par la k-ieme equation. Ainsi, si xn =
= (xf, ... , x~)T, l'approximation suivante est donnee par le
systeme
auxf+1 + a 12x: + ... + a1mX~ = b1,
a21x~+i + a22x:+ + a2 3X~ + ... + a2mX~ = b2,
1

.. . . . . . . . . . . . . . . . . . . . . . (1)

am1Xf+1 + am2x:+1 + ... + ammX~+i = bm.


Le ·systeme (1) se recrit:
(2)
avec

L}
o o
B=
C a~1-

am1
a22

am2

a12
o
o
ama
a1a ... a,m)
C,=(:. o o
a2a • • • a2m

o
D'ou
(3)
La methode de Seidel equivaut donc a une methode iterative simple,
et pour qu'elle converge, quelle que soit l'approximation de depart,
350 Mli:THODES NUM:mRIQUES DE L'ALG:BBRE CcH. VI

ii faut etil suffit que toutes Ies valeurs propres de la matrice -B-1C
aient un module inferieur a 1. L'egalite
det (-B-1C - 'A,E) = det (-B-1) det (C + BÂ)
entraîne que Ies valeurs propres de (-B-1 C) sont racines de l'equa-
tion det (C +
B'A,) = O.
Donc, la condition necessaire et stiffisante de convergence de la
methode de Seidel est que toutes Ies racines de l'equation

lltm )
~2~ • =0
llmmÂ

aient un module plus petit que I 'unite.


Nous essayerons d 'obtenir des criteres de suffisanee plus com-
modes pour Ies applications.
TH li:OREME. Soit

quel que soit i. A lors


11 xn+ 1 ·-x llt~q II xn-x 111-
n:mMoNsTRATION. Retranchant de (2) I' egalite BX + ex= b verifie~ par
la solution exacte, on obtient l 'equation d 'erreur

Brn+i + Crn = O. (4)


Soit li rn+i _llt = li rr+ 1 li ; ecrivons la l-ieme equation du systeme (4)
l-1 m
~ aorj+ 1 +aur;+ 1 + ~ awj=O,
j=t i=l+i .
et resolvons-la par rapport a rf+t:
l-1 m
rnz +1 = ~ azJ r~+t
- LJ au ,
i=i
11 en resulte
I r;+t. I"¾ a li rn+i 111 +~ li rn ll1 (5)

avec

a=
l-1

h I::: I, ~= hm Iaiz I;
al}

i=i i=l+t
§ 8] M~THODE DE SEIDEL 351·

une aut.re ecriture de cette relat.ion est


li rn+ 1.ll1 < a li rn+t 111 +~ li rn llt

"f}
li rn+l llt < i-a li rn ll1•
Par hypothese a+ f} < q < 1 ; c 'est pourquoi
_tl_ ~ q-a =q a(1-q)
1-a ~ 1-a 1-a <q
et

Signalons certaines circonstances qui pourront nous âtre utiles lors de


l'etude de la convergence de la methode de Seidel. La multiplication des rela-
tions (1) par certains facteurs ai =I= O laisse invariants Ies vecteurs xn definis
par ces relations. La convergence de la methode de Seidel est conservee donc
si l'on multiplie Ies lignes de la matrice A par des nomhres. Si l'on multiplie
la j-ieme· colonne de A par p1 =I= O et divise zf
par PJ, toutes les quantites x1J
sont divisees elles aussi par p1• Ainsi, la convergence de notre methode se con-
serve par multiplication des colonnes de la matrice A par des nombres quel-
conques.
La resolution des systemes d 'equations lineaires est un modele
sur lequel on etudie Ies problemes relativement plus eompliques
que sont la resolution des systemes d'equations non lineaires et la

Fig. 6.8.1 Fig. 6.8.2

minimisation des fonctions de plusieurs variables. On ne saurait


transporter une methode a des prohlemes plus ardus sans en com-
prendre Ies proprietes qualitatives, Ies plus grossieres qui garantis-
s~nt la convergence. A eette fin, la inethode doit a:vant tout etre
m
interpretee geometriquement. Designons par Lt le plan ~ atjXJ ~.b l =
5=1
= O. La valeur iteree (xf+1 , ••• , xf+i, xf+1 , ••• , X:.) se deduit de
.··,

352 MtTHODES NUMiRIQUES DE L'ALG:BBRE [CH. VI

n) par un dep
n+t , Xin , • • • , Xm
( Xsn+l , • • • , Xi- „ 1acemen t de l' approxuna-
·
1
tion parallelement a l'axe des xi jusqu'a l'interseetion avee le plan
Li; geometriquement, la methode de Seidel consiste donc en un
deplacement cyclique parallele aux axes des x 1 jusqu'a la ren-
contre avec Li. Les fig. 6.8.1-6.8.3 illustrent, pour m = 2, Ies eas

Fig. 6.8.3

ou la methode de Seidel converge, diverge ou cycle. En eomparant


Ies deux premiers dessins on voit que la convergence peut changer
de caractere par permutation des equations.
Le cas de A symetrique a un· support geometrique particu-
lierement interessant.
TH:eoR:BME. S{ A est une matrice reelle, symetrique et de/inie posi-
tive, la methode de Seidel converge.
DtMONSTRATION. On a, lorsque A est symetrique,
F (y) = (A (y- X), y- X) - (AX, X) =
=(Ay, y)-2(AX, y)=(Ay, y)-2(b, y).
Si A > O, alors (A (y - X), y - X) > O, y =I= X, et la fonetion
F (y) admet un minimum et un seul pour y = X. Resoudre le sys-
teme Ax . b revient donc a chereher l'unique minimum de F (ţ).
Citons, parmi Ies techniques de minimisation des fonctions ·de
plusieurs variables, la methode de descente sequentielle.
Soit (x~, ... , x~) une approximation du point de minimum de la
fonction F (x., ... , xm)- Considerons la fonction F (x1 , x~, .•. , x~)
en tant que fonction de la variable x1 et trouvons le point .tj reali-
sant son minimum. Prenons maintenant pour point de depart
l'approximation (x}, x~, ... , x~) obtenue en minimisant
F (~, x 2 , x~, ... , x~) et trouvons l'approximation suivante
(x~, x~, x~, .•. , x~). Le processus reitere de fa~on cyclique. Lors
de I' amelioration des valeurs approchees de xk, on se deplace sur
une droite parallele a l'axe des xk jusqu'au point realisant la valeur
§ 8) DTHODE DE SEIDEL 353

F (x) = c la plus,..petite possible pour cette droite. 11 s' agit evidem-


ment du point de contact de ladite droite et de la ligne de niveau
F (x) = c. Aussi, dans le cas bidimensionnel, le processus se
presente ·comme sur la fig. 6.8.4.
: Appliquons la methode de descente sequentielle pour obtenir
l'~extremum- de la fonction F. Designons F (y) + (A X, X) =
= (A (y - X), y - X) par F 0 (y). En minimisant en x,,, on se

Fig. 6.8.4
deplace parallelement a l'axe des xk jusqu'au point en lequel F~'h. -
= O. Par consequent, la nouvelle valeur xk se definit a l'aide de
m
F~,,,=2 (~ akJXJ-b1i)=O,
j=1
i.e. par la meme equation que dans la methode de Seidel. Ainsi, en
minimisant la fonction F p~r la methode de deseente sequentielle et
erţ resolvant le systeme initial par la methode de Seidel, on obtient
Ies memes approximations.
Si xn 9'= X, l'une des equations au moins n'est pas satisfaite,
et la valeur correspondante F~k (xn) est differente de zero. Choisis-
sons le plus petit de ces k. Alors, en approchant x1 , • • • , x,i_1 nous
restons en xn et en approchant xk on se deplace vers F (x) Ies plus
petits; en precisant Ies autres eomposantes, la valeur F (x) ne croît ~
pas. Donc,
F (x'1+ 1) < F (x"), F 0 (x1'+ 1) < F 0 (xn),
ce qui implique ·
Fo (xn+ 1)
Fo(xn) < 1 (6)
23-01007
354 M~THODES NUl\l~RIQUES DE L' ALGEBRE [CH. VI

pour xn* X. Par suite de (4h on a rn+t = -B-1Crn. La relation (6)


s'ecrit
(7)

avec rn ::/= O. Sur la sphere li rn li = 1, <p (rn) est continue et atteint


donc sa plus grande valeur <p 0 • Puisque A > O, on a toujours
<p (rn) > O, donc <p 0 > O; posons V<p 0 = Â. Vu (7), on a Â.2 < 1.
Evidemment <p (cr") = <p (rn) quel que soit c ::/= O; aussi <p (rn) =
= cp (rn/11 rn 11)~.Â.2 avec i_.n quelconque. D'ou l'inegalite
(8)
et

(3.8) et (3.9) entraînent


(minÂ.~) li y-X 11: ~F0 (y)~(max Âi) li y-X 11:,
ce qui permet d 'evaluer la vitesse de convergence:
11xn-x Ila~
maxÂ~
. i li X0 - X lls• (9)
llllllÂA

Le theoreme est demontre.


La fig. 6.8.5 montre que la methode de Seidel converge plus vite
si la direction des axes des elli psoides est proche de celle des axes
de coordonnees, c' est-a-dire si la matrice A est proche de la forme
diagonale.
Dans le cas 6.8.4 Ies valeurs approchees successives se deplacent
de maniere monotone a gauche et vers le bas. Un deplacement
monotone de certaines composantes dans une meme direction est
propre a plusieurs classes matricielles. Ce deplacement caracterise
assez souvent Ies composantes dont la vitesse de convergence est
la plus mauvaise. Pour l 'accelerer on recourt alors a la methode de
relaxation. Apres avoir calcule chaque coordonnee par la methode
de Seidel on effectue, dans la meme direction, un deplacement sup-
plementaire egal a la p-ieme partie du deplacement precedent (p non
obligatoirement positif). Les approximations de la methode de rela-
xation se determinent donc par la relation
(10)
§ 9) M:E'l'BODE DElLA PLUS GRANDE PENTE 355

La pratique des calculs montre que pour A > Oon prendra le f acteur
de relaxation p dans Ies limites O_< p < 1; on a alors affaire a la
surrelaxation. Les petits cercles 1....
blancs de la fig. 6.8.4 representent .r,
Ies approximations de la methode
de Seidel et Ies asterisques celles
de la surrelaxation pour p = 1/4.
En resolvant le systeme (7 .20) par .
la technique de Seidel une reduction
de I' erreur de e - 1 fois exige
,...,, ck-2 ln (e-1) iterations, tandis que
la methode de surrelaxation, pour
p = 1 - ©h, ©>O, n'en demande
que ,...,, c (©)h-1 In (e-1). Le choix
du parametre © est en l'occurrence
tres delicat. En particulier, dans
nombre de cas la valeur optimale
de p se definit experimentalement.
On choisit parfois le facteur de
relaxation p en fonction de net i.
Revenons de nouveau a la te1
fig. 6.8.4 pour A > O. Apres avoir
approche la eomposante x1 par Fig. 6.8.5
la methode de surrelaxation avec
-1 < p < 1, nous tombons en un point situa a l 'interieur ou sur
la frontiere de l 'ellipsoide F (x) = F (x0). En nous rappelant nos
raisonnements relatifs a la methode de Seidel, nous tirons la conelu-
sion que pour p dans Ies limites indiquees on a toujours,.,F0 (xn+1 ) <
< F 0 (xn) si xn =fo X. .
PROBLBME. Demontrer que dans la condition I Pn I~ q < 1 la methode
de relaxation converge en progression geometrique.

§ 9. Methode de la plus grande pente


Un procede repandu de minimisation des fonctions de plusieurs
variables est la methode du gradient. Chaque approximation s'ob-
tient de la precedente par un deplaeement dans la direction du gra-
dient de F (x) et s'ecrit done
xn+t = x" - Bn grad F (xn). (1)
Cette description ne definit pas l'algoritbme de faţon unique puis-
qu 'elle ne dit rien sur le choix du parametre Bn. Celui-ei se qeter-
mine par exemple par la condition de minimum de
F (x" - Bn grad F (xn)). (2)
23*
356 M~THODES NUMiRIQUES DE L'ALG:illBRE• (CH. V

11 s'agit dans ce cas de la methode de la plus grande pente.


Pour la fonction F (x) = (Ax, x) - 2 (b, x) associee au systeme
d'equations lineaires de matrice A > O le probleme de recherche
du minimum est un probleme qui se
resout explicitement.
Dans ce cas concret

grad F = 2 (Ax- b)
et

Designons 26n par ân, i.e. posons

xn+i =Xn-ân {Axn-b). (3)

Soit <p (ân) = F (x"+1). Rappelons-nous


Fig. 6.9.1 que A = A* et calculons <p' (ân) :

<p' (L\n) =·( A 'd::: 1


, xn+l) + (Axn+1, d::: )-2 ( d;:: b) = 1 1
,

=2 ( Axn+t-b, d;;: 1
) = -2 (Ax"+1 -b, Axn-~).

Compte tenu de (3), l'equation cp' (ân) = O s'ecrit


(Ax"-b-L\nA (Axn-b), Axn-b)= O,
d'ou.
. (Axn-b, Axn-b) (4
/j,.n = (A (Axn-b), Axn-b) • )
La fig. 6.9.1 represente Ies approximations de la methode de la plus
grande pente et Ies courbes de niveau de la fonction F 0 • On dit que
le processus iteratif (3), (4) utilise les plus grandes pentes pour resoudre
le systeme considere d'equations lineaires.
Soit SA c [µ, M].
TH:moR:illME. Les approximations de la methode de la plus grande
pente verifient
n
F'.o (X),< (·M-µ
M+µ.)2nFo (XO) • (5)
D:mMONSTRATION. Pour yn = xn, effectuons une iteration du
processus optimal a pas separes
yn+t=yn- M!µ (Ay"-b). (6)
§ 9] M15THODE" DE LA PLUS GRANDE PENTE 357

Les erreurs d 'iteration rn = yn - X son t reliees par

rn+1=(E-M!µ A )rn.
Soit es, . . . un systeme orthonorme de vecteurs propres de la
matrice A : Aei = Â,e 1•
Puisque µ<Ai <M, on a, quel que soit i~
M-µ 2 M-µ
- M+µ <1- M+µ Ât-< M+µ
et donc

11 - M! I-< :+: .
µ Âi (7)

~_?it rn = ~ ciet• On a Ies relations


(Ar'1., rn) = (~ c';"i~eh ~ ciei) = ~ Âicf,
rn+t = ~ bieh ou b1 = ( 1 - ~~ µ ) eh

~ Âibf = ~
2
(Ar,i+1_, rn+1)= Âi ( 1- ~ µ } cf.
Compte tenu_ de (7)!il vient

(Arn+t' rn+i)-< ( : +: ) 2 (Arnmrn).


Vu que F0 (yn) = (Arn, rn), cela signifie que
JFo/Yn+t)< ( :+: ) 2
Fo (yn)= ( :+: )2 Fo(x
11
).

On acrit l'app1·oximation yn+t sous la forme (1):


1
yn+1 =Xn-agradF(xn), a= M+µ.
Etant donne que de ltoutes Ies approximations de la forme" '(1)
e'est ,c'+i qui realise le minimum de la fonctionnelle F (x), on a
F (xn+1)-<F (yn+1).
11 en resulte l'estimation
Fo (x"+t)-<Fo (yn+1)-< ( :+: ) 2
F0 (x")
et, partant, le theoreme qu' on avait a demontrer. De meme que
(8.9) on obtient l'inegalite

llxn-Xlls<( :+: rv: Hx -Xlla- 0


358 M8THODES NU.MgRIQUES DE L' ALG8BRE (OH. VI

Bien qu'a chaque pas la quantite F 0 (x) ne diminua pas moins


dans la methode de la plus grande pante que dans le proeessus
iteratif (6), Ies estimations de la vitesse de convergence sont quasi
identiques. Ces procedes et evaluations n 'en presentent pas moins
une difference de principe. En effet, le proeessus iteratif (~) a besoin
pour se derouler d 'une information sur Ies hornes µ, M du spectre,
tandis que la methode (3)-(4) s'en passe parfaitement.
Le procede utilisant la plus grande pante presante le handicap suivant par
rapport au processus simple (6). C'est (Jlle chacune de ses approximations s'obtient
par deux operations penibles (au lieu d 'une) de multiplication de la matrice par
le vecteur.
Pour eviter cet inconvenient on note wn= Axn - b et on ecrit (3) sous
la forme
x11.+1 = xn - Anw11. (8)
Multipliant a gauche par A et retranchant b, ii vient
wn+t = wn - AnAwn. (9)
La formule (4) donnant An peut se recrire
(wn, wn)
An= (Awn, wn) . (10)

En operant par iterations on met en reserve Ies vecteurs xn, wn et on calcule


successivement a chaque pas Awn, An, xn+t, wn+1 • Dans la methode initiale
(3)-(4) de la plus grande pante l'erreur par pas equivaut a une perturbation
de l'approximation de depart et, le processus etant convergent, son influence
doit avoir tendance a s'amortir. Le processus (8)-(10) donne lieu a une relation
plus compliquee entre Ies erreurs sur Ies approximations successives, qui entraîne
souvent un accroissement notable de l' erreur de calcul totale avec n. Nous
conseillons donc d'interrompre de temps en temps Ies calculs par Ies formules
(8)-(10) et de faire une iteration salon (3)-(4). L erreur d'arrondi commise lors
des pas precedents deviant alors, J!OUr Ies operations suivantes, l'erreur sur
la condition initiale et a tendance a diminuer.
On choisira tel ou tel proeessus iteratif en se guidant sur l'infor-
mation que l'on possede sur Ies bornes du spectre, le volume et la
structure de la memoire de la machine a ealculer electronique. Ainsi,
en approximant. sur un reseau des equations aux derivees partielles,
on procede parfois eomme suit. On effectue des calculs supplemen-
taires visant a determiner le plus exactement possible Ies valeurs
µ et M, puis on applique le processus iteratif lineaire optimal.
§ 10. Methode du gradient conjugue
Cette methode s'applique aux systemes d'equations
Ax= b
de matrice A definie positive.
Soit x0 l'approximation initiale de la solution. Formons le
vecteur
n-1
xn= x 0 + i=O
~ aîAiro~ r 0 = Ax 0 -b (1)
§ 10] ~THODE DU GRADIENT GONJUGUJll 359

et proposons-nous de minimiser
F (xn) = (Axn, xn)- 2 (b, xn)
moyennant le choix des parametres ai. On a
dF (xn) = 2 (Ax"-b dxn)
da.1 ' da.J '
dx" · et
--=A'r0
da,J
n-1
Axn -- b = r 0 + i=O
~ a.iA i+ r
,
1 0, (2)
les conditions F;,,1 = O formant le syst~me
(Axn-b, A;r0) = O, j = O, ••• , n-1. (3)
En y portant l'expression de Axn-b, on aboutit a un systeme
d 'equations lineaires
n-1
(r0 , A;r0)+ ~ a.t(Ai+ 1r 0 , A;r0)=0, j=0, ..• , n-1, (4)
i=O
en a. 0 , • • • , CX.n-1 •
Si x0 est donnee, on peut choisir un certain n, resoudre le systeme
(4) en a. 1 et obtenir l'approximation xn. L'algorithme decrit connaît
plusieurs utilisations.
Ainsi, on peut operer de proche en proche en adoptant en qualite
d'approximation initiale a chaque pas l'approximation obtenue
au pas precedent.
On peut egalement construire une suite de vecteurs
n-1
Xn= x0 + Lj a.fAi (Ax 0 -h),
i=O
qui minimisent F (x) pour ehaque n.
Proposons-nous d 'etablir une relation de recurrence qui lie ces
vecteurs a la maniere des relations du processus iteratif lineaire
optimal.
Soit e1 , . . • , em un systeme orthonorme complet de vecteurs
propres de la matrice A. Mettons le vecteur r0 = A x0 - b sous la
m
forme r 0 = 2]c1e1. Une combinaison lineaire de vecteurs propres
.7=1
correspondant a une mâme valeur propre est ancore vecteur propre
associe a cette valeur propre. Aussi, en groupant Ies termes eorres-
pondant aux valeurs propres identiques et en ehassant Ies termes
q
nuls, on obtient r 0 = ~ g1 ; iei g1 =t= O,
J=i
Agi = 'J.,,1g1,
360 MgTHODES NUMgRIQUES DE U ALG:8BRE [OH. VI

Âi,, ••• , Âq etant des valeurs propres distinctes de la matrice A.


Puisque Ies vecteurs propres associes a des valeurs propres diffe-
rentes sont orthogonaux, on a (g" g1) = O lorsque i =I=- j.
Montrons l 'independance lineaire des vecteurs r 0 , • • • , A q-i r 0 •
q-1
Supposons le eontraire; alors ~ ''hiA"r0 · = O, ou eneore
k=O
q-1 q q
0 = ~ '\'k ( ~ ('J...J)k gJ) = ~ p ('J...1) g/
k=O i=1 i=1
q-1
avec P ('J...) = ~ '\'1iÂk. L'independance lineaire des g1 entraîne
1&=0
P ('J...1) = o, / = 1, •••., q.
Contradiction: un polynome de degre plus petit que q a q zero(dis-
tincts.
II en rasul te que le veeteur
n-1
Ax"-h= r0 + ~ czrA;r0
i=1

est different de zero pour n < q.


Montrons que x'1 = X. En effet, definissons le polynome
q )., q
Qq('J...)= II (1-r) = 1+ ~ ~k'J...".
i=1 J k=1

Si
q
~= x0 + ~ ~1iA"-1 (Ax0 -b),
1&=1

alors, d 'apres (2) et la definition ei-dessus, nous avons


q
A~-b= ~ Qq('J...1)g1=0;
;=t
donc .i_g realise un minimum de la fonctionnelle F (x) et, par eon-
sequent, ~ = ~ = X.
LEMME. a:_ 1 est different de zero pour n~q.
DgMoNSTRATION. Si cxg_ 1 = O, il vient
q-2
0=Axq-b=r0 + i=O
~ a?Ai+1r 0,

ce qui contredit l'hypothese des r 0 , • • • , Aq-1r0 lineairement indepen-


dants. Soit aţ_ 1 == O et j < q; le vecteur Axi-b s'eerit, en vertu
§ 10) M~THODE DU GRADIENT CONJUGU~ 361

de (2), sous forme d'une combinaison lineaire de r 0 , ••• , Ai- 1 r 0 ;


de plus, vu (3)/il est orthogonal a tous ces derniers. D'ou Ax; - h = O
et, done, j ~ q. Le lemme est demontre.
Soit l'ensemble des egalites
x1 = x0 +a~r 0 ,
x2 = x0 + a~r0 + ~Ar 0 ,

xq = x0 + ... + ai_1AMr0•
Etant donne la oondition aj_ 1 ==/= O, ce system.e de matrice triangu-
laire se resout par rapport aux inconnues A'r0 , j = O, ... , q-1;
ii en resuite Ies relations
;
Ai-tr 0 = ~ b{ (xi-x0)., j= 1, ... ., q.
i=i

Portons les expressions de Ai-tro dans le deuxieme membre de (2) ;


il vient
n-1 n+t
Axn-h=r0 + ~ afA 1·+1r 0 = ~ 1'f(xi-x0) pour n<q.
i=O i=i
Faisons agir l 'operateur A sur les deux membres et obtenons
n+t n+1
A(Axn-b)= ~ 1'f((Axi-b)-(Ax0 -b))= ~ of (Axi-h). (5)
i=1 i=O
n+1
L'egalite ~ of= O est evidente. Les relations (3) se recrivent
. i=O
(A (Axn-b), A;r 0)= O, i= O, ... , n-2;
oompte tenu de (2), il en resuite
(A (Axn-b), Axk-b) = O pour k<.n-2.
De mâme
(Axn-b, Ax"-h)= O pour k<.n-1.
En multipliant scalairement (5) par Ies vecteurs (Ar'-b), k=
=0, ... , n-2, on trouve
a:
0= (Axk-b, Axk-b),
done tous Ies cr}t sont nuls lorsque k < n-1. L'egalite (5) prend
alors la forme suivante:
n+1
A (Axn- b) = ~ crf (Axi- b);
i=n-1
362 M~THODES NUMlilRIQUES DE L' ALG~BRE [CH. VI

l 'application de l 'operateur A-1 donne


n+t
Axn-b= ~ a? (xi-X).
i=n-1

Comme ~ af = O, cette derniere egali te peut s'eerire


A~ - b = a:_1xn-i + a:xn a:+ 1xn+1• + (6)
On remarquera que les oonstruetions que nous venons d 'effeetuer
rappellent beaueoup eelles du § 15, eh. II.
Pour Ies valeurs oonsiderees n < q, le eoeffieien t a!+t est toujours
non nul. Demontrons-le par !'absurde. La substitution de
n-1
Axn-b= r 0 + ~ aţiAi+tr 0 ,
i=O
k-1
x"-x0 = ~ arAir0., k= n-1, n,
i=O
dans
n+i
Axn-b- ~ ol1(xi-x0 )=0
i=n-1
donne alors
a~_1A7T0 + ... = O,
oo qui est oontraire a l'hypothese de l'independance lineaire des
veeteurs r 0 , ••• , Anr0 • En effeetuant le produit scalaire de (5) par
Ax"- b, k = n -1, n, on trouve, pour Ies eoeffieients o:_1 et a: :
m (A (Axn-b), Axh-b)
O'k = ------------
(Axh - b, Ax"- h)
'
et puisque Ax" - b =#= O et A > O, il vient 17 a:_ a:
=#= oo. Comme
0'~+1 = - a!- <1!_ 1 on peut acrire (6) sous la forme

A~-b= a:(xn-xn+1)+0:_ (x"-1-xn+ 1). 1 (7)


Determinant a: et 0'~_1 pour ehaque n, on. trouve de proehe en
proche a l 'aide de (7) Ies veeteurs x2 , • • • •
Le vecteur x1 se definit immediatement en resolvant le systeme (4):
il coincide avec la premiere approximation dans la methode de la plus grande
pente. Afin de trouver xn+l a partir de (7) il faut deux operations de multipli-
cation de la matrice par le vecteur: Axn et A (Axn), soit - 2m2 operations
arithmetiques chacune, et le calcul de plusieurs produits scalaires. Ce processus
iteratif est donc environ deux fois plus laborieux que le processus lineaire opti-
mal par iterations. Le mode operatoire se simplifie de la maniere suivante.
L'egalite (7) entraîne
A (Axn-h)=a: ((Axn-b)-(Axn+i_b)) +
+a:_ 1 ((Axn-1-b)-(Axn+i_b)). (8)
§ 101 dTHODE DU GRADIENT CONJUGU~ 363

L 'utilisation simultanee de (7) et (8) fait (Jl!e la matrice se multiplie par le


vecteur une seule fois par pas, a savoir lors du calcul de A (Axn - b); quant
aux vecteurs Axn+i - b, ils se determinent par la relation de recurrence (8).
Cependant, dans cet algorithme, comme lors de l 'utilisation directe de la
formule (7), ii I a une accumulation importante de l'erreur de calcul. On l'evite
en modifiant 1 algorithme. La formule (7) s'ecrit

(9)
ou
-1
0n
n+ °n-1
:n ,

Au lieu de trouver Cţn. et Pn par ces dernieres formules, on Ies determinera chaque
fois en minimisant la fonctionnelle F {xn+l) par rapport a a.n et Pn. 11 vient les
formules
a.n =({Axn-b, .4xn-b) (ÂX"-b, A (xn-xn-1))-
-{ÂX"-b, xn-xn-1) {A {Axn-b), Axn-b)) O'n,
fin=({Axn-b, xn-xn-1) (.A {xn-xn-1), ÂX"-b)-
-(ÂX"-b, Axn-b) {xn-xn- 1, A (xn-xn-1))) <1n, (10)
1
an-
- {xn-xn-1,
.---...-----------
A (x"-xn-1)) X

Chaque pas d 'iteration exige deja trois operations de multiplication de la


matrice par le vecteur. En l'absence d'arrondis, ces processus iteratifs fournissent
evidemment une meme suite de vecteurs xn. Le dernier processus est cependant
auto-correcteur: l'influence des erreurs d'arrondi commises aux pas precedents
s'amortit progressivement. Tout comme pour la methode de la plus grande
pente, il serait peut-âtre raisonnable de s'adresser a tour de role aux formules {7)-
(8) et (9)-(10). Si l'on n'arrondit pas, on a (Axn - b, xn - xn-1) = O;
pourtant, en rempla<tant celle-ci par O dans (10), le processus risque de ne plus
etre auto-correcteur.

Estimons la vitesse de convergence. Pour Ies approximations yn


du processus lineairc optimal on a:
si
x 0 -X=y0 -X=~cieh
i
alors

oii
364 M~THODES NUMERIQUES DE L' ALG:BBRE [CH. VI

D'ou l'estimation
Fo(Yn)= (A (yn-X), yn-X)=
= ~ Âicf Kf ,<I tn 1-2 21 Âicf = I tn J-2 (A (x0 - X), x 0 - X).
i i
De toutes les approximations du type (1) dont yn, c'est l'approxima-
tion de la methode du gradient conjugue qui minlmise les fonction-
nelles F et F 0 • On a donc ·
F0 (xn) ,<Fo (yn),<j tn 1-2 F 0 (x0).
Evaluons comme plus haut la vitesse de convergence par la norme
usuelle
li xn-x 113-<·V: I tn 1-1 li x 0 -X 113•
Nous voyons que l'evaluation est du meme ordre de grandeur que
celle pour le processus lineaire optimal. Le grand avantage de la
methode utilisant les directions conjuguees est qu' elle neglige Ies
bornes du spectre.
Puisque apres q ~ m iterations on aboutit, sous l'hypothese de
I'absence d'arrondis, a une solution exacte, cette methode peut
âtre qualifiee de directe. Soit une matrice A possedant l elements
non nuls avec naturellement l ~ m. Un pas d'iteration exige O (l)
operations arithmetiques et une solution rigoureuse ne s'obtient
donc qu'au bout de qO (l) = O (ml) operations. Ainsi, pour Ies
matrices renfermant un faible nombre d 'elements non nuls, notre
procede s'avere direct et efficace. De plus, on ne constate dans ce
procede qu'un encombrement relativement faible de memoires des
machines a calculer. Si l'ordre m du systeme est eleve, il n'est pas
rare qu 'une bonne approximation de la solution se realise pour un
nombre d 'iterations n ~ q.
Considerons le cas ou la conditionA>0 n 'est pasrealisee. Le systeme
A*Ax = A*b est equivalent au systeme initial, mais le nombre
d 'elements non nuls de la matrice A* A peut depasser notablement l.
11 serait alors raisonnable de ne pas expliciter ce systeme et de trou-
ver chaque vecteur de la forme A*Au en multi pliant successivement
u par A et A*.

§ 11. Methode de Monte-Carlo


pour des systell)es d'equations lineaires
Dans les methodes par iterations que nous venons d 'appliquer a des systemes
d'equations lineaires, les memoires des machines a calculer doivent conserver
toutes les composantes de la solution, ce qui presante un grand inconvenient
lorsque m est tres important. Si l'ordre du systeme est fort eleve et Ies coefficients
de celui-ci se calculent moyennant des form.ules elementaires, on peut se servir
de la methode de Monte-Carlo.
I Ul DTHOD~ DE MONTE-CARLO 365

Examinons le schema general de la methode. Proposons-nous de calculer


N
la somme S = ~ bk. Mettons chaque bk sous la forme_bk = p,Jk, ou Pk ~ O,
k:=1
N
~ Pk = 1. Soit 6 une variable aleatoire prenant la valeur k avec la probabilite
k=t
Pk• Choisissons M valeurs independantes ki, ... , kM de cette variable et posons
M
S~SM=!~ fk(
l=1
On a
N N
Efk= ~ Pkfk= ~ bk=S, (1)
k=l 1&=1
N N b2
d 2 = Var fk=Ell-(Efh.) 2 = ~ Pkfl-S 2 = ~ P:-s 2 •
1&=1 k=i

Les valeurs fk etant independantes, on a Var (SM) = : .L'inegalitedeTcheby-


cheff nous donne l'estimation: pour O< 1) < 1, la relation I SM - S I~
~ d/1( 11M est valable avec la probabilite 1 - 11· Ainsi, si M est important,
la probabilite pour SM d'Atre proche de S est tras grande.
s
On obtient Ies valenrs de de la fa"on suivante. La machine est d'habitude
dotee d'un dispositif generant des nombres aleatoires ou chargee d'un programme
de nombres pseudo-aleatoires donnant Ies valeurs 1)1 , ••• d'une variable alea-
toire uniformement repartie sur [O, 1).
On determine pour chaque "ll un nombre kz tel que riz appartienne a l'inter-
valle semi-ouvert.

et on pose 6z = k 1• La probabilite pour que TJI tombe sur l'intervalle semi-ouvert


s
n 8 est egale A p 8 ; donc la variable ainsi obtenue prend chaque valeur s avec
l
la probabilite p 8 • Le plus simple serait de prendre Pk = t, car_alors ~
i=i
Pt = t
et ; 1 se determinerait par la formule .simple
s, = (11,Nl 1. +
Cependant, a la lumiere de (i) on voit que la quantite d qui caracterise l'exacti-
tude du resultat depend essentiellement du choix de Pk• Un tel algorithme simple
laisse tres souvent a desirer et la resolution de problemes concrets par la methode
de Monte-Carlo exige un gros effort quant au choix optimal des Pk pour un
ensemble donne des nombres bk.
Ci-dessous un cas important lorsque tout les bk ~ O. Minimisons tJJ, par
N
la methode de Lagrange dans la condition ~ Pk = 1.. La fonction de Lagrange
k=1
366 MJl:THODES NUMJl:RIQUES DE L' ALGEBRE (CH. VI

s'eerit
N b2 N
<I> {p1, • , ·, PN)= ~ p: -8 + Â. ( ~
2
Pk- i) ,
k=i 1'=1
b2
La condition <I>~h.=0, k=1, ... , N, implique - •~
P1i
+ Â= O. D'ou Pk =
N N
=vbk_. La condition 21 Pk= 1 entraîne ~ bk= Vi, i.e. VI=S. La va-
"' k=i k=1
leur Pk = ~k est, on le voit, la plus indiquee. Pour ce cboix

fk=.!.l!:...as, d 2 =0.
Pk
Pour distribuer optimalement Pk ii faut connaître la quantite S cherchee. Voici
un des modes operatoires possibles: on choisit une fonction Bk ~ O telle que
L
bk ~ Bk et Ies sommes O'n = ~ Bk soient connues quel que soit n ; ensuite
1'=1
Bk
on pose Pk =-
ON
.
Appliquons la methode de Monte-Carlo A la resolution de systemes d'equa-
tions lineaires. Supposons qu'on cherche la composante (x)q de la solution du
systeme x = Bx + c. Soit B une matrice telle que le processus iteratif xn+i =
+
= Bxn c converge vers la solution X du systeme pour toute approximation
initiale x0 • Lorsque x.O = O, il vient
n
x 1 =c, x 2 =c+Bc, ... , xn+t= )! Bfo.
J=O
Le processus etant convergent, pour n suffisamment eleve, la quantite (xn+l)q
approche assez bien (X)q. La froximite de xn+i et X nous guide dans le choix
de n. Cherchons ensuite (xn+ )q. On a
m m m
(zn+i)q=cq+ ~ bq; c;
-1
; 1- 1 s
+ ... + .~-1 ... . ~-~ bqi 1
••• bi ; ci .
n-t n n
(2)
,1- 'm-'
Ainsi, sur le plan formei, rechercher (x"+1)q revient a rechercher S. Cependant1
lorsque N sont tr~s importants, il est inutile d'utiliser le procede examine
plus haut en raison de la longueur limitee des nombres avec lesquels travaille
la machine. En effet, Ies nombres sont arrondis a des quantites de la forme
k2-t, k entier, t la longueur des nombres traites. Aussi Ies longueurs des inter-
n,
valles semi-ouverts obtenus dans la pratique seront multiples de 2-1 et, dans
le cas des p 1 comparables avec 2-t, l'erreur sur Ies valeurs de la fonction aleatoire
~ sera consideraMe. En particulier, cette longueur limitee fait que le nombre
d'intervalles semi-ouverts non nuls n,
est toujours 2' au plus. La formule (2)
comprend N > mn termes et le procede examina est inapplicable directement
meme pour m et n pas tres forts.
Essayons de surmonter cette difficulte. Soit Pf} ~ O et verifient~
m
~ Pu=i pour i= t •.•. , m, Pii> O si biJ =I= O. (3)
i=1
§ U] dTHODE DE MONTE-CARLO 367

Soient encore s",


i = 1., ••• , m. des variables aleatoires independantes telles
que ;i prend la valeur; avec la probabilite PiJ• Tirons au sort la valeur de la
variable aleatoire gq, soit /ţ la valeur ainsi obtenue. Faisons de meme pour
la variable 5;, et obtenons, disons, j 1 , et ainsi de suite; cboisissons au basard
la valeur de la variable aleatoire 5in-t, soit in cette valeur. Posons
s,." ·· ·, "n.;
=cq+f,..:1 cit+.•• +f,..;1 .. f,. .; c,• ,
""" """ "n-i"n n
ou fu=biJ/PtJ et /iJ=O si bu=O, PiJ=O. En effectuant cet ecbantillonnage
M fois, on aboutit aux M suites i\, ... , et aux M valeurs S .l .l • J!
Faisons
Jt, ···• 'n
M
(xn+1)q~s{M)= ! ~ S.z
Z=1 11, ••• , in

Calculons ES,. t• ,· •
... , n
La probabilite d 'obtenir la [suite ; 1, ••• , in vaut
p,..; ••• PJ ; • Donc,
"""1 n-1 n
m m
Es,.1' •·•• ,·n = ."'-'
"" ... •"'-'
"" (cq+ lq,· 1c,• I + ...
11=1 'n=t
••• + fq;i • • • f in-t;n c;n) Pq;i · • • P;n-t;n ·
n
Representons le deuxieme membre de cette egalite par ~ Tk avec
k=O
m m
To= • ~ •. • ; ~
_1
CqPq;1 .. P;n-t; n ,
1 1 1= n-
m m
Tk = ~ .. . · "" fq,.: ••• f; ,· c1 Pq,· ••• P,· ,· pour k > O.
· t "'-' "t k-t k k. I n-t n
'1= 'n= 1
Soit
m m
a~• n= "'1 ••• "'1 P·· • • • P·1 3· ,
' • "'-' • "'-' "k+t n-1 n
3k+t=t 3n =t .
alors
-cqao•
T o- q
n'
m m
T1t= ~ ••• ~ (fq; Pq;) .:. (f; ; P; ; }c; ~•n.
• 1 · t 1 1 k-t k k-t k. k. k
'1= 31,.=
Une sommation successive sur Ies variables f n, ••• , ik+i a l 'aide de (3) four-
nit a}• n = 1.. 11 s'ensuit, compte tenu des egalites fuP11=b11, que
To=cq,
m m
Tk. = ~ ... ~ bq; ... b; ; c; ,
i1=1 ik=i t k-1 k k
368 M8THODES NUM8RIQUES DE L'ALG"BBRE (CH. VI

k > O. Ainsi, Tk = (Bkc)q ; compte tenu des egalites

et de (2) ii vient
ES.1 . = (xn+i) q.
1• •··• 1n
D'ou
ES(M) = (xn+i) q.
VarS•
.
Puisque Var (§CM)) ţ ···• 'n ,
pour M eleves la quantite s<M> est
voi_!ine avec une gra~e probabilite de (xn+i)q et on peut estimer que (X)q ~
~ s<M>. Les valeurs s,. ,· se calculent lors du tirage au sort des
t• ···• n
/t, ... , ln par Ies formules de recurrence
S.'t• ... , ,,· =8-, •· +z;,
11• ••• , 'l-t 1• ... , ••C•,
1l ll
{ z.1 . = z.1 . f; . pour l > 1,
t• ···• 1 l 1• ... , 11-t l-t• 1l
avec
s,1 =cq+zilis' z;l =fq;,·

Si l'on realise l'algorithme moyennant ces formules, le calcul de s<M> exige la


mise en reserve d'un ensemble fini (non croissant lorsque M, n ~ oo) de nombres.
De mâme C(Ue dans le cas d'integrales de multiplicite elevee, la resolution
des systemes d'equations lineaires par la technique de Monte-Carlo exige beau-
coup de prudence. En particulier, il convient de choisir avec le plus grand soin
l'ensemble des Pii•
lllustrons nos paroles a l'aide d'un exemple modele elementaire. Soit
x" (t) = O, x (O) = c0 , x (1) = c1 (4)

une equation a resoudre sur le segment O ~ t ~ 1. Donnons-nous le pas


h = 1/L, L = 2l (l entier) et ecrivons l'approximation discrete
x0 = c0 , .xk+l - 2xk + xk-t = O, k = 1, ••• , L - 1, .XL= ci (5)
(dans notre cas le probleme initial (4) est approxime sans erreur). Mettons (5)
sous la forme
xo=co,
Zk-t+.Xk+t
Zk= , k=1, ••• ,L-1, (6)
2
XL=Ct.

Soit x = Bx +
c l'ecriture matricielle des relations (6). Cherchons la compo-
sante :r: l• La matrice B est symetrique et
• ni
).1=cos T, t=1, ... ,L-1.
§ Ul !IBTHODE DE MONTE-CARLO 369

Aussi
id 1t
maxi "'B l=cos-r;,

li Bn Ila= ( cos ~ r= exp ( n ln cos ~ ) = exp ( ...:. n ( 2~ 2 + O ( 1 r))•


(7)

La condition li Bn lls < 1 est essentielle si l 'on veut que l 'erreur sur la valeur
approchee (xn+1)z soit petite. On prend donc
(8)

Supposons, par exemple, que tous les PiJ = ~L! et, pour fixer Ies idees, que
1
n est pair. Alors

pour I i-}1=1 si O, j) =i= (O, 1), (L, L-1),


pour Ies {t, j) restants.

Si n > l, la quantite S; , •.. ,fin peut renfermer le terme


1

f 1J/i1i2. •. f;n_i;nco,

I ip+1-ipl=1 avec p=i, ... , n-1. Ce terme vaut·( Lţt r co et la proba-


s
bilite de son apparition est (L+ 1)-n. Si est une variable aleatoire :prenant
Ies valeurs Yi avec Ies probabilites qit alors
Var s= ~ qi (Yi-Es) 2 > qt (;i-E;) 2
i

avec i quelconque. C'est pourquoi

Var -S 3• ~,· > (L+1)-n ( ( -L+i


2-
)n co-ES-3- 3- )2 •
1' ···•- n i• •··• n

Nous avons choisi un n tel que ES; .; = (xn+1)z ~xi.Du moment que
"i' • • ·• "n
xi= (cq +c1)/2, le terme principal dans le second membre de cette inegalite
est de 1 ordre de ((L +
1)/4)n. La comparaison avec (8) revele que deja pour L
peu importants on n'a ~ere d'espoir de calculer xi avec une precision acceptable
pour un M (nombre d epreuves) raisonnable.
Soit maintenant
pour i =i= O, L, I i - j 1=1,
(9)
i=i=O, L,.
dans tous Ies cas restants.
Considerons une particule errant d'un p~int jk (j' = O, ••• , .L) ă r·autre~
Supposons que ce mouvement commence a .!'instant 't = O au point lhl et ~ue
de chaque point jh, j =p O, L, la particule passe par unite de ten:ţpţ; a l un
24-01007
.370 METHODES NUMERIQUES. DE L' ALG'8BRE [CH. VI

des points (j ± 1) h et ce avec la probabilite 1/2; si la particule tombe en un


des points t = O, t = 1, elle y reste. Soient lh, hh, ... , inh Ies positions suc-
cessives de la particule; posons
co pour Jn = O,
8;1, •.. ,;n = O pour in -=f=. O, L,
{
c1 pour f n = L.
On verifie aisement que la _probabilite de cette trajectoire coincide avec la
probabilite d'apparition de la suite f.t., ••• , in dans la methode de Monte-
Carlo de resolution du systeme initial avec la table de probabilites (9) e\
§'. • =S· • . Dans notre cas
.11• ···• 1n '1• ... , Jn
1s;1, .••• , ;n 1~"c°= max{f col, I c1 I)
et, par consequent, Var S;
· "i' ·•·• 1 n
c
:: ~ 2 quels que soient L et n.
Ceci nous permet d'esperer une solution d'une certaine precision pour
un cout acceptable en temps machine. En appreciant la qualite de la methode
decrite on n'oubliera pas que, vu (8), le tem~s d'ecbantillonnage d'un seul
ensemble ii, ..• , În augmente avec L. Aussi, lorsqu'il s'agit d'approcher Ies
problemes aux limites pour des equations differentielles ordinaires, la methode
de Monte-Carlo ne peut concurrencer les methodes directes.
Une autre remarque de caractere general. Soit fn
la probabilite de l'evene-
ment fn; ••• t,· ,• = O. Alors qn - qn-i est ega a la probabilite de l'evene-
-u1 n-1 n
ment /,,; •.. f,· ,· =f:. O et fn; ••• t,· ,· = O. Si qn tend vers l'unite
-u 1 n-2 n-1 -.i,1 n-1 n
pour n -+- oo, la quantite
00

Q= ~ (qn-qn-1) n
n=i
est egale a l' esperance mathematique de la valeur n pour laquelle le produit.
fn;
-.i"l
••• I,·n-1,· n s'annule une premiere fois.
Dans les problemes appliques on arrive souvent a choisir Pii de faţon que
Ies variances Var 8; , ... , ;n soient uniformement bornees en ~ et qu~ Q ne soit
1
pas trop eleve. Dans ce cas, on ne fixe pas d' avance le nombre n et on choisit.
au hasard. les elements de l'ensemble ii, ... , in tant qu'on n'aura pas
f;n-1in =0.
PROBL'8ME. Demontrer que pour un tel algoritbme
ES1, ,
1• ... , 1n
= (x)q.
Dans la methode de Monte-Carlo, îl importe egalement de faire attention
a la representation du systeme sous la forme x = Bx + c pour laquelle le
processus iteratif xn+i = Bxn +. c converge le plus rapidement possible (cela
fait decroître le nombre n.,,-i.e. allege une epreuve). A defaut d'un choix heureux
des PtJ. une ~onne approximation x 0 de la solution entraîne aussi une diminu-
tion de Var Sji' .... ;n. Dans ce cas, on resout le systeme
r = Br (c + +
Bx0 - x0)
relativement a r = x - x0 par la technique de Monte-Carlo; il faut s'attendre
alors a une diminution~ de Var S1t • .... ;n et donc a une reduction du volume
de calcul.
f tţ) ·: DTHODE AYE}C OP~R4TEURŞ SPECTRALEMENT :QijUIVALENTS 371

§ 12-. Methode par iterations .avec utilisation . ,


. des operateurs spectra\ement
equivalents . .
A part des methodes iteratives simples telles que
xn+1= xn-a (Axn-b) (1)
on en applique souvent d'aut~es, a savoir
Bxn+ 1 = Bxn-a (Axn- b), (2)
B ::/= E etant une matrice facilement inversible. La multiplication
de (2) par B-1 donne
xn+1 = xn - a,JJ-1 (Axn- b),
et le processus iteratif (2) · est, on le· voit, equivalent a la methode
iterative simple de matrice E - aB-1A.
Considerons le cas ou A >Oei le rapport de la plus grande valeur
propre M a la plus petite µ de la matric~ A est important. Les pro-
cessus par iterations que nous avons examines plus haut convergenţ
alors lentement. Soit B > O et
"nf (Ax, x)
M 1 = sup (Ax, x)
(3)
:x+o (B x, x) ' µ, = x+o
I (Bx
' x) •
Supposons que B s'inverse ·Îacilement et Mi/µ 1 ~ M/µ. '
Dans le cas de Mi/µ 1 pas tres grand, on dit des methodes itera-
tives que nous allons examiner dans le presant paragraphe qu'elles
utilisent des operateurs spectralement equivalents. Montrons que pour
un a bien choisi, la methode ·(2) ·converge plus rapidement que le
processus elementaire (1).
La solution X exacte verifie I' egalite
BX = BX- a (AX - b),
en la retranchant de (2) ii vient une equation relativ~ment a l'erreu~
Brn+ 1 =Brn-aArn. · (4>
Diagonalisons la matrice B par une transformation orthogonale~
Soit B . U* AU, ou

A-
-·(Â1. . 0 .)

O Âm
et ·u une matrice orthogonaie.
On designe habituellement par VB la matrice
0
u•(+-V1..t___ ·)u.
o +-V"-m
372 M:8THODES NUM:8RIQUES DE L' ALG:lilBRE [CH. VI

Evidemment, VB > O, (YB)* = YBt VB = B. Multi- VB


plions a gauche par ("JfB)-1 les deux membres de (4) et introdui-
sons Ies nouvelles quantites VBrn = vn. II vient
(5)
avec C = (YB)-1A ("JfB)-1.
Etant donne A = A*, (YB) = (1/B)*, la matrice C est syme-
trique. Examinons I' expression
(Cx, X}
W ( X) = (X, X} .
Apres avoir pose (YB)-1 x = y, on peut acrire
w(x)=w(YBy)= (Ay, y) •
(By, y)
Par suite de '3), on a w (x) E [µ 1 , M1 ] ; c'est pourquoi toutes Ies
valeurs propres de C appartiennent egalement au segment [µ1 , M1 ].
2
Pour a = M + Ies valeurs propres de la matrice E - aC
1 µ1
ont un module egal a MM 1+µ 1 au plus. Aussi
1 µi
li E-aC ll 3~MM 1i +-µµ11
et de fa~on analogue a (7. 7) on a

llvn Ila~ (M1-µ1)n o


Mt+µ 1 llv Ila• (6)

On rappelle que
li Vn Ila= V (V B rn, V B rn) = V (Brn, rn).
S . O< µ 2 ~,,,,,.(By,y),,,,,.M
: 1 (y, y) ~ 2 pour n ,.1mport e que 1· y, (6) en trame
" l' es t·1-
·mation
JJr"II ~ llvnlls ~{M1-µ1}" llv011s &{M1-µ1}n-./M2 l\roll 3•
a---.::: lfµ2 '-.::: M1+µ1 Vµ2 '-.::: M1+µ1 V µ2
Puisque la fonction
M-µ 1-(µ/M)
M+µ = 1+(µ/M)
diminue de fa~on monotone avec M/µ, le nouveau processus itera-
tif converge plus rapidement.
Avant de passer des formules (1) aux formules (2), il convient de
,comparer l'effort qu'elles exigent du chercheur. Si Ies iterations par
Jles formules (2) sont sensiblement plus laborieuses, ce passage est
tpe:ut ,âtre a deconseiller ..
§ 12) dTBODE AVEC OP~RATEURS SPECTRALEMENT :8QUIVALENTS 373

PROBL2ME.SoientT (A) letravailqu'exigeune iteration (1) et T (B) celui


dans le cas de la formule (2). Justifier le passage aux iterations (2) si
T (B) < T (A)
ln M1+µ1 ln M-1-µ •
M1-µ1 M-µ
En s'inspirant de la fayon dont la methode (2) a ete construite a
partir de la methode (1), on elabore un processus iteratif correspon-
dant a ehacun des procedes par iterations consideres aux §§ 7, 9, 10„
Soit un processus iteratif tel que Ies erreurs sur Ies approximations suc- ·
cessives verifient l 'egalite
k
rn+i= (E- ~ aiAi) rn.
i=i
Ecrivons
h
vn+i= (E- ~ aiCi) vn (7)
i=1

avec C=('VB)- 1 A(VB)- 1, posons v"=VBrn et multiplions a gauche (7)


par VB. II vient
k
Brn+i=Brn- ~ ai (AB-1)i-1Arn.
i=1
Cette equation d 'erreur correspond au processus iteratif
k •
Bxn+t=Bxn- ~ ai(AB-l)i-1 (Ax"-b). (8)
i=1 •
Par une optimisation des parametres a,
telle que l 'evaluation du rapport des-
normes li vn+t lls/U vn Ila soit la meilleure, on aboutit, tout comme au § 7,
a la meilleure methocle iterative de la forme (8).
L'analogue de la methode lineaire optimale (7.16), (7.17) est le processus
iteratif
-- 2 -
Byn+t=Byn+ronron-t B {yn-yn-1)- - - - - - - (1+ronron-t) (Ayn-b)
M1-l-µ1
avec ron construit a l 'aide de M 1 et µ1 par analogie avec la construction de-
con d 'apres M et µ.
Voyons une {technique qui combine le processus (2) avec la methode de-
la plus grande pante. L'approximation xn+t s'obtient moyennant la relation
Bxn+i=Bxn-an (Axn-b), (9)
le coefficient an etant determine par la condition de minimum
F (x) = (Ax, x)-2 (b, x) ;
(9) fournit
dxn+1
B d =-(Axn-b).
<Xn
874 . MgTHODES NUMgJUQUESJ'Dll:'.I}ALl}~BRE [CH.-·\ri

Comme, . ;,

dF.::+I) '2 ( Axn+'-b, .' dt )= 2 (A (xn - ,"nB-1 (Axn-b))-


- b, -B-1 (Axn-b)),
l_a c_oDd1·t·1OD dF(xn+l)
d,., .
O t ,
es une equa IOD 1·-m~aire
t' , . eD <Xn_•
. . ""n
L'analogue ,du processus iteratif (10.~), (10.10) s'ec~it
Bxn+i::::::Bxn+a~ (Bxn-Bxn-1)+Pn (Axn-b).
Les .methodeş .examinees dans ~e pr~sent paragraphe_ .sont d'un usa~e fre-
quent fo'rsqu~il faut resoudre Ies systemes':a'equatio'ns Ax= b ou. Ies .v:aleurs
propres de la matrice A > O sont tras dispersees. ·

§ 13. Erreur sur la solution approchee


d'un systeme d'equations et conditionnement ·,
des m~trices. Reg~arisation
Supposons que la matrice et le de~xi~~e membre du systeme ne
sont donnes qu'avec une certaine precision et qu'au lieu.«;lu systeme
propose < . • •· • • I ;

Ax= b, (1)
c'est
(2)
qu'on doit resoudre .. Supposons cQnn1:1:es Ies estimatiqµs li A li et
ii 1J li- E.valuons l'erreur sur la solution.
1
• Degageons pour commencer la partie principale de l'erreur. Notons
X et X* Ies solutions respectives de (1) et (2) et r la difference
X* - X. Portons Ies expressions de A 1 , b1 et X* dans (2), il vient
(A + A) (X + r) = b + 11•
La soustraction de (1) donne

d'ou. ·
Ar+ AX+ L1r = 1)_,,
Ar= 1J -. AX - Ar
et
r = A-1 (11 - AX - Ar). .. (3)
Si li A li et 1111 li sont faibles, li r li doit l'etre aussi. Le terme Ar- est
.alors d'un ordre infinit.esimal superieur; en- le negligeant on trouve
r ~ A - 1 ( 1J -- A X).
L'estimation d'.erreur s'ecrit donc,
li r li ~ cr ~ li A - 1 11 (1111 li
X li). + li A 1111 (4)
On obtient une estimation· rigoureuse de 1a fa~on suivante.
§ 13) ERREUR SUR LA SOLUTION APPROCHgE D'UN SYST~ME D'~QUATIONS 375

· .. Par.suite de (3) on:a l'inegalite· · ·· ·


, .. :li rl1~~·11A-1illlri·1(t-11A-1 IIIIAIIIIXll +11A-1 l 11A:1111 rli.
Supposons que li A - 1 11 li  li< 1. Port~ns 10· dernier terme de la som-
me dans le premier ·membre et: divisons l'inegalite par le coefficient
de li r 11. 11 en resulte
li r li &·li A- 1 11(111111+11 â 1111 X li) (S)
~ , t-11 A-1 1111 A li •
. i1 ~rrive souvent que· l'erreur sur la matrice du systeme est sen-
si~l:ei;nent inferieure a celle due ~u deuxieme membre; prenons com-
me· modele le cas ou la matrice est donnee de fa~oil. exacte. En posant
alors A = O dans (5), il ·vient ·
11.r li ~li A-1 1111 rt li•
Afin de caracteriser qualitativement la relation entre l'erreur
sur le membre a droite et celle sur la solutiQn on fait appel aux notions
de conditionnement du systeme et de· conditionnement de la matrice du
systeme. Les erreurs absolues resultant. du deuxieme membre et de
la solution dependent de l'echelle deces quantit~s et de la matrice du
systeme. Aussi est-il plus juste de caracteriser Ies proprietes de celui-
ei a l'aide de la relation qui lie Ies efreurs relatives correspondantes.
On mesure donc le conditionnement du systeme par le nombre
li r li • 1111 li ) _ li b li li r li
't'=Sup ( IIX·II "lî1ilf -lfxffaupîfiill.
~ . ~

Conformement a cette definition l'erreur relative sur la solution est


evaluee en fonction du nombre de condttionnement et de I' erreur
relative .sur le deuxieme membre:
(6)

sup .l1!JL = l°I A-1 11


tJ 111111
et
- ...ll!1L
-r- 1
IIXII 11 A- li .
Parfois on a besoin d 'une caracteristique plus grossiere des proprietes
du systeme,• qui ·ne tienne compte que ·des proprietes de la matri-
ce A. Cette caracteristique v (A) = su p 't' s' a ppelle le nombr~ de
. b'
conditionnement de la matrice A. Selon cette definition et (6) on a
l 'estimation. ·
Urli · 111111
rxu ~v (A) llh 11
376 . M~THODES NUMi;lRIQUES DE L'ALG:8BRE [CH. Vl

qui relie Ies erreurs relatives sur le deuxieme membre et sur la solu-
tion par l 'intermediaire des seules proprietes de la matrice du sy-
steme. Puisque
11h11 IIAxll
s~p IIXII =s~plfxîl=IIAII,
on a
v(A)= li A li llA-1 11.
Toute norme de la matrice est au moins egale a sa valeur propre de
module le plus grand, i. e. li A li ~ max I ÂA 1- Les valeurs propres
des matrices A et A - 1 sont reciproquement inverses; c'est pourquoi

li A-t ll~max I ·LI= min~ ÂA I·


Donc
maxi 1'.AI
. 111.A I~ 1•
v(A)~ m1n
En particulier, si A= A*, on a li A Ila= max I ÂA I et
li A-t Ila= max I f I=
A ~
min ÂA I '
et alors
v(A)= m~xl1'.AI ·•
m1nl1'.AI
Etudions l'erreur commis~ sur la solution par suite de l'arrondis-
sement du deuxieme membre en calcul automatique. Soit, comme d'or-
dinaire, t la longueur des nombres binaires de la machine a calculer.
Chaque element bi du deuxieme membre est arrondi avec une erreur
relative O (2-"), c'est-a-dire avec une erreur absolue O ( I bt I 2-"),
aussi
1111 li= O (li b li 2-") et :: ~l{ = O c2-t).
Par consequent

Dans la pratique, ii est rare qu'on ait a evaluer strictement l'er-


reur sur la solution approchee d'un systeme d'equations lineaires
a l'aide d 'inegalites obtenues ou par un autre procede. Toutefois
l'information sur l'ordre de grandeur de cette erreur est souvent utile
dans la mesure ou elle permet d 'etablir des limites raisonnables a la
precision des calculs. Les relations (4), (5) majorent l 'erreur sur la
solution resultant des erreurs de donnees. L'egalite (3) montre que
§ 13~ ERREUR SUR LA SOLUTION .APPROCH:eE D'UN SYSTiME D'nQU.ATIONS 377

Ies estimations (4) et (5) sont assez exactes, et la recherche d 'une-


solution affectee d 'une erreur sensiblement inferieure a a n 'a pas.
de sens. ·
On dit des systemes d'equations et des matrices qu'ils sont mai
conditionnes si le nombre de conditionnement est eleve et qu 'ils;
sont bien conditionnes dans le cas contraire. Si le deuxieme membre·
de (4) qui evalue l'erreur sur la solution par Ies erreurs de donnees;
ou l' estimation de I' erreur de calcul sont grandes outre mesure, on·
aura interet a utiliser une information supplementaire sur Ia,
solution du probleme considere. On abordera ce probleme comm&
tout autre probleme mal pose.
Examinons un cas simple de A symetrique. Soient Â1 , • • • , Âm ;;/=
-=I=- O ses valeurs propres ordonnees dans l 'ordre de decroissance de-
I Âi I et e17 • • • , em Ie systeme orthonorme correspondant de vecteurs.
propres. La solution du systeme Ax = b est le vecteur
m

X=~ cie;,
i=1

Pour b =h+ 1) don.ne reellement, la solution est

Le coefficient <11;,;1> peut s'averer tres grand lorsque Ât sont petits~


ce qui altere fortement le resultat. Parfois, on sait d 'avance que-
m
dans le developpement ~ c1ei de la solution cherchee, Ies coefficients.
i=1
ci correspondant aux Â; de module petit sont insignifiants. Des mesu-·
res s'imposent alors afin de << filtrer >> ces composantes de la solution.
Lorsque m sont peu importants, le mode operatoire peut etre Ie-
suivant: on se donne un q > O, on cherche tous Ies Ât et eh i ~ q.,..
et on pose

Le choix de q est fonction de l'information supplementaire sur Ie-


probleme.
Voici encore deux procedes que nous 11Ions illustrer sur I'exemple-
de matrices ou tous Ies Ât > O. Dans le premier procede on se donne-
un a et on cherche la soiution xa du systeme
(a,E + A) xa = b;
.:378 ' 'M::8'Î'HODES NUM::8RIQUES DE L'ALG:tBRE ccm. vr
-tette· ~olution s'e~rit ·evidemment

-Comme
f f a
1;- 1'.t+a = '>..t ('>..t+a)'
la presence du petit parametre a ne modifie guere les termes associes
.aux 'A.1 grands. Par ailleurs, si Ât ~ a, on .a

I I~ I I
(ii, e,)
'>..t+a
{ii, e,)
'>..t '
-ce qui signifie que 1~ ·fait d 'introduire le parametre ·a diminue nota-
blement l'importance des termes associes aux Ât faibles. On choisit
la vaieur optimale de a en comparant Ies resultats obtenus pour
,divers a.
Passons a la deuxieme methode. Resolvons notre systeme d'equa-
-tions par un procede iteratif. Considerons Ies iterations par la formule
xn+t= xn-a (Axn-b) (7)
J)our, au depart, une approximation x 0 • Soit
m
~ z1Je1.;
xn= i=i
portons ces expressions dans (7) et egalo ns Ies coefficients de e, ;
dl vientr
zf+l =a~,+ (1- a'A.1) zf.
.En exprimant chaque zt par Ies precedents, a on aboutit
zf' = a~,+ (1- a'A.,) zr- = a~,+ (1- ~Ât) (a~,+ (1- a'A.,) zr- = ...
1 2
)
n-1
... = a~ 1 ~ (1-a'A.,)k+ (1- a'A.1)1' zf.
k=O

Si 111-aÂ, I< 1, alors 1 pour n tendant vers l'infini,!


ln-11 00

~ (1-a'A.1)k-+ ~ (1-aÂ1)k= aii-1' (1-a'A.,t-+O,


h=O h=O

-.et„ partant,. zr -+ f:.
Soit a ~ (max Ât)-1 ; i. e. relativement petit.
Lorsque 'A.1 sont importants,. la quantite (1 - a'A.,t tend rapidement
'Vers zero avec la croissance de net zf est voisin de sa valeur limite
§if3],ERREUR SUR.L"A SOLU'l'ION APPROCH~E-D"-CJN SYSt.lilME O'.mQUATION S 37~

f:. D'autre part, ~n r~~;it. parfois '.a ·choisir une approximation


initiale telle que zî soient. ~elaţţvement.;petits pour 'J.., 1 faibles. Alors,.
lorsque n est;peti important, les coefficients de zr correspondant a
ces 'A,1 ne sont pas encore eleves au point · d' âtre inacceptables et
l'approxim~tion obtenue peut .s'averer .admissible. . .
: Daris d·'·autre~ cas le probleme se resout par ~Jnimisatlon d'une
fonctionnelle proche de F (x) . (Ax, x) - 2 (h, x), par exemple
F (x) + a; (x, x) avec a; > O petit. ·
L'efficacite des techniques decrites depend essentiellement,
lorsqu'elles ·s'a.ppliquent a des matrices A non symetriques, de la
structura de la forme de Jordan et .de plusieurs autres proprietes
des matrices. 'La solution s'obtient souvent en l'oceurrence en minimi-
sailt 1a· fonctionnelle : .
(Ax - h, Ax - h) a; {x, x) +
pour a; > O p~tits ; l'!l valeur necessaire de a; est toujourş_ .d~terminee
par la compara.ison des calculs avec des a; differents. .'
Un autre groupe de methodes est base sur la representatfon de la
matrice A du systeme :par!··: r
A= GAP.,
G. et P etant- orthogonales et A une matrice bidiagonale dont Ies
.elements '1. 11 peuvent etre non nuls lorsque j = i et j == ·i 1. +
La plupart des techniques decrites permettant de resoudre des
systemes d '.equations de matrice mal conditionnee se rapportent .aux
methodes de regularisation.
PROBL'8ME. Soit A<m> ~ [aV;J une ·m x m~mai~ice d 'elements!

pour J=i,
. { p
af;= q pour J=t+1.,
. o pour J =f::. i, t+ 1.
1.) Calculer (AOn>)-1 et demontrer que, pour I q I < Ip I, Ies matrices
A <m> sont bien conditionnees et que leur conditionnement est. maµvais pour
>
I q I l p I et m grands. · · ·· · .
. · . 2) Explioţter en fonction du deuxieme membre la solution du systeme
A<m>x = b. .
3) Expliciter en b le vecteur Xci qui minimise la fonctionnelle
(A <m>x - b, A <m>x - b) ,- ~ (x, x).
4) 'E:x:J?rime~Jpar une relation l'effet d1 ~e telle regularisation.
11 y a une autre raison d 'eviter la symetrisation de matrices dont
on a parle ·au § 7. Voyons ce que donne une operation de symetri-
sation 'formelle sur une matrice symetri<JU0. On a alors  =  *
·et A*A = A2• Si une matrice est elevee au carre-t il en est de mâme
380 M:mTHODES Nm1:mRIQUES DE L' ALG:E:BRE [CH. Vl

de ses valeurs propres; on a donc pour li A li = li A 11 3 :


max I ÂA2 I (max I Â 1)2
'V (A2) = mm . p.A~ 1)2 = (v {A))2.
. p.A ,I =· cmm
2

Si 'V (A) = 1, alors max I ÂA I = min I ÂA I et toutes Ies valeurs


propres de A ont un meme module, ce qui donne A = const E. Sauf
ce cas particulier, v {A)> 1 et, par consequent, v (A 2) > v (A).
Ainsi, la symetrisation d 'une matrice symetrique augmente le nom-
bre de conditionnement. Cette derniere grandeur etant une fonction
continue de la matrice, la meme operation sur une matrice proche de.
la matrice symetrique conduit egalement a une augmentation du
nombre de conditionnement. II existe donc une classe non vide de
matrices non symetriques pour lesquelles l' algorithme de symetrisa-
tion augmente le nombre de conditionnement.
PROBL:E:ME. Existe-t-il des matrices non symetriques telles que v (A 2) <
< (v (A))2 ?~

§ 14. Probleme de valeurs propres

L 'information necessaire sur Ies valeurs et vecteurs propres varie


selon le cas, d 'ou la diversite de problemes et de modes operatoires.
1. La resolution de certains problemes de mecanique, physiquet
chimie exige la connaissance de toutes Ies valeurs propres {et, par-
fois, de tous Ies vecteurs propres) de certaines matrices. C'est le
probleme global de valeurs propres. Aujourd 'hui, Ies programmes
standard le resolvent pour des matrices de dimensions moyennes
(quelques centaines).
2. On demande souvent, en physique nucleaire en particulier, de
trouver la valeur propre de plus grand ou de plus petit module. Cela
equivaut a rechercher Ies valeurs propres de matrices de dimension
en 103-10 6 et plus. Pour des matrices de dimension moindre on utilise
surtout des methodes iteratives et pour celles dont la dimension
est encore plus importante des procedes probabilistes.
3. L'etude de processus oscillatoires implique parfois la con-
naissance de deux valeurs propres de plus grand module, la plus
petite de ces deux valeurs pouvant âtre trouvee avec une precision
moins bonne.
4. Toujours dans ce domaine, on demande de rechercher une
valeur propre qui soit le plus proche d 'un nombre donne 'J..0 ou bien
on demande de determiner la distance separant ce nombre du spectre
de la matrice.
En raisonnant formellement, on dirait que tous Ies problemes
restants, qu'on appelle problemes locaux de valeurs propres, sont un
cas particulier du probleme global, si bien qu'on pourrait se borner
§ U] PROBLtME DE VALEURS_PROPRES 381

a diseuter Ies methodes de resolution de ee dernier. Cette approehe


augmente eependant plus que de raison le volume de ealeuls. En
diseutant la position de problemes eonerets relatifs a I' obtention
des valeurs propres des matrices, on consacre frequemment des ef-
forts eonsiderables a etablir le plus petit volume d 'information
necessaire sur le spectre de la matrice.
La resolution des problemes 2-4 se ramene d 'habitude a la reeher-
che de la valeur propre de plus grand module d 'une matrice
B = g (A) telle que eette valeur propre corresponde a la valeur
pro pre cherchee de la matrice A.
Considerons le cas ou la matrice a toutes ses valeurs propres
reelles. Afin de trouver la plus grande ou la plus petite valeur propre
de A on prend g (A) = A +
cE; ii est evident que pour c positifs
(resp. negatifs) suffisamment eleves il correspond a la valeur propre
de plus grand module de A +
cE la plus grande (resp. plus petite)
valeur propre de A. Dans le cas 4, ii existe un c tel que la valeur
propre de plus grand module de la matrice E - c (A - 'A0E)2 cor-
responde a la valeur propre cherchee de A. Parfois on peut prendre
pour matrice g (A) la matric~ (A - 'A.OE)-1 • Elle ne s'explicite alors
pas et Ies vecteurs (A - 'A0E)-1 y qui sont indispensables aux calculs
sont trouves en resolvant le systeme (A - 'A.OE) x = y.
Considerons un probleme type de recherche de deux valeurs
propres de plus grand module de la matrice A. Nous simplifierons
l'expose en supposant l'existence d'un systeme complet de vecteurs
propres ei: Aei = 'A.iei, li ei li = 1 ; soit I Â.1 I > I Â. 2 I ~ ... ~
~ I 'Am 1- Donnons-nous un certain vecteur x 0 et calculons de proche
-en proche Ies vecteurs xn+1 = A xn. Mettons x 0 sous la forme x 0 '
m
= ~ Ctei; on a l'egalite evidente
i=1
m m
xn = ~ ciA11 ei = ~ c 1Â.fe,.
i=1 i=1

11 en resuite .Ies relations


+o (I Â.2 r>,
Xn= c1'A.fe1

(xn, xn) = (c1Âfe1 + 0 (I Â2 ln), C1Âfe1 +o (I Â.2 r>) =


= J C1 1
2 I Â1 J2n + O (J Â.1 ln I Â2 ln),
,(xn+t, xn)= (c1'Af+le1 +o (I Â.21 11
+1), C1Âfe1 +o (I Â.2 ln)) =
r
= Â.1 I C1 12 I 1'.1 12n + o (I Ât I Â.2 rl>·
Posons
:382 M'.e~B;O:PES· N:UMiRIQUES DE .L'ALG:B~RE [CH, 'Vl

Ies dernieres re.Iations nous donnent alors si. c1 ::fo O:


ii.<n> _ i-1IC11 2 1Â1 l2n+· O (I Â1 ln I "-2 ln)
1
- I C11 2 J lf1 2n+ O (111 ln I Â2 ln)

, li(1+o(~l~ln)) (1'- ln)


1+0 (-1 1~ ln) _Â1 +o ,.: . (1)'
I C11 2 . Â1
PROBL~ME· Demontrer que dans le cas d'une matrice symetrique

l\n)=Â1+0 '( It 12n) •


On a, en plus de (1),
li Xn li= V (xn, xn) = I C111 Â1 in+ O (I Â2 in),
m
~ cilfei
cn> xn i=1
e1 = 11 xn li = -l-c1_lf_l_+_o_(_l.,.....l2-,-ln-) =
c1Â{'
~e1+
O( I1:'~i'" ln) = eicpne +o (j.&ln) .
. 1+0(!~:ln) ~ - Ât ,

iei <i>n ~ arg (c1Âf). .


Donc, ce processus iteratif aboutit lui aussi a un vecteur propre
associe a Âi-
11 se peut que la matrice A possede deux valeurs propres de plus
grand module, a savoir
Â1 =I= Â2, I Âi I = I Â2 1-> I i\.s I ~ . . •
La quantite i\.ln> ne se stabilise alors evidemment que dans le cas
particulier de c1 ou c2 = O. Si l'on sait d'avance que ces valeurs pro-
pres sont au nombre de deux, on peut Ies determiner, ainsi que Ies
vectet,1rs propres correspondants, en analysant le eomportement de
i\.ln> et e~n>.
Etudions le cas typique oii l 11 l 2 sont reels, 11 > O, Ât = -Â2. Alors
x 11 =c1A1e1 +c2 (-Â1)n e2+0 (I Â3 ln),
xn+ 2 =c1Ân+2 e1
1 +c2 (-Â1)n+2 e2+0 (I ·
Â3 ln)=

= Â~ (c111e1 +c2 (-Â1)n e2)+ O (I Âs jn).


11 en resuite
§·14] PRO~LEM~ ,DE.VALEURS PROPRES 383,

et Ies valeurs approc~~es "-in> ~ O et iţ> < O. On a

z1+1 =xn+i+ Âin>xn = 1+1e1 + O {I Âs ln),


2c1Â
et donc
e<n)
1

De mâme

et

et">= li :;+ li =/©ne2+0 {I ~: t} ·


·n+i
1

Si Âi son:t Ies valeurs propres de A, la conjuguee A* a "-, pour-


valeur propre; alors, si Aei = "-,eh A *g1 = î.1g,, '). ,1 =I= Âi, on a,
(e„ g;) = O. .
Aussi, ayant determine la valeur approchee11 du vecteur 11 pour-
l "-1 I> l "-2 I> 1"-s I~ ... , la valeur propre Â2 s'obtient de la
fayon suivante. Un processus iteratif analogue nous fournit l'appro-
g
ximation g1 du vecteur g 1 , (e1 , 1 ) = 1. Iterons ensuite par la for"'."
mule yn+t = Ayn ; afin d 'eliminer la com posante proportionnelle-
a ei, rendons de temps en temps Ies y" orthogo.naux au vecteur gi,,
c'est-a-dire que pour vecteur de depart nous prenons dans Ies itera-
tio.ns suivantes le vecteuri
Yn=Y"-(y'&, i1)e1
au lieu de y". II est naturel que la convergence du processus soit.
m
meilleure si le terme d 2 e 2 de l'approximation initiale y 0 = ~ d,e„
i=i
est preponderant. Prenons une certaine approximation x1 du proces-
sus decrit de recherche de "'1 et e1 et rendons-la orthogonale a g1 •
Acceptons comme approximation initiale le vecteur y0 = x 1 -
e
- (xz, g1 ) 1 ainsi obtenu. Gardons-nous de prendre l petit (Ies
composanies c1')...je„ j > 2, ne seront pas encore petites devant.
c2 Â,e 2 ) ou tds grand (la composante c2 Âie 2 sera alors faible devant
l' erreur d(calcul). ·
Selon certains auteurs, si c1 = O, le processus iteratif decrit ne devrait.
pas donner d'approximation convergeant vers la valeur propre de plus grand
module. Cependant, Ies arrondis font apparaître une composante proportionnelle-
a ~. et le resultat cherche est forcement obtenu. Ceci arrive effectivement en
calcul manuel avec une precision peu elevee. Par contre, plusieurs iterations-
executees sur une machine moderne tres capacitive peuvent donner lieu. a une-
. m
erreur de calcul dont la repercussion sera· insignifiante, tandis que ~ c/A.1e1
i=3
MiTHODES NUMtRIQUES DE L' ALGBBRE [CH. VI

seralnegligeable devant c 2Âje2 • Alors Axn ~ const xn et on pourrait penser a tort


avoir trouve la premiere valeur pro pre cherchee. Dans plusieurs cas, l' apparition
d'une composante proportionnelle a e1 n'est pas forcement obligatoire mâme
-en presence d'arrondis. Dans le probleme de valeurs propres pour les operateurs
differentiels et integraux on voit parfois apparaître des .matrices A douees
.de proprietes speciales ; ainsi, on a frequemment
aiJ=am+t-i, m+t-J, (2)

,quels que soient i, /. Pour fixer Ies idees, supposons m pair. Nous dirons que
les vecteurs x sont pairs si leurs composantes sont reliees par zt = zm+l-i'
t = 1, ... , m, et impairs si zt = -:&m+t-i• Dans la condition (2) le vecteur Ax
,est pair ou impair avec x. C'est pourquoi Ies sous-espaces de vecteurs pairs
ou impairs sont des sous-espaces propres de l'operateur A. Il existe donc un
:Systeme complet de vecteurs propres appartenant a ces sous-espaces, c'est-a-dire
qui sont ou pairs ou impairs. Cette circonstance est essentielle: si un vecteur x 0
,est pair (resp. impair), ii en est de mâme de tous lesxn si bien qu'en cherchant
-chaque xn suivant il suffit de determiner la premiere moitie de ses composantes.
On reunit de plus Ies coefficients correspondant aux composantes zi et zm+i-t·
Pour x 0 pair, Ies composantes de xn se calculent par exemple a l'aide des for-
mules
m/2
xf+1= ~ (aii+a~, m+t-;) xf.
i=1
A vec ces iterations nous restons dans Ies limites des sous-espaces de vecteurs
pairs ou impairs respectivement. Aussi, pour x0 et e1 elements de sous-espaces
differents, la composante proportionnelle a 0 1 n'apparaît Ras. A part gu'elle
permet de diminuerl directement le volume de calculs qu exige la recherche
de chaque xn, la propriete (2) rend un autre service. Un cas assez repandu est
-celui ou Ies vecteurs propres de numeros impairs petits sont pairs et ceux de
numeros pairs petits impairs; on admet que I A1 I > >
I Â-2 I I Â.3 I > ...
Alors, si x0 est pair, on a toujours

1
xn=c11'.1e1 +caÂ;ea+•·· =c1Â. e1+0(IÂ-sJn),
par consequent,

,et

Ceci etant, on n'a pas besoin de reprimer la composante proportionnelle a 0 1•

Si I Â.1 I> 1, alors li xn li tend vers l'infini avec n et, pour n


suffisamment grand, il y a depassement de capacite des nombres
et. arret de la machine. Si, par contre, I Â-1 I < 1, alors li· xn 11 ~ O,.
~t, l'exposant etant fini, il se peut que, a partir d'un certain n,
xn == O. On l'evite en multipliant de temps en temps le vecteur xn
par un facteur convenablement choisi.
§ 15] ltIBTHODE D~S ROTATIONS 385

On evalue l' erreur et on accelere la convergence des processus


iteratifs par le procede 62 et par d' autres methodes analogues aux
methodes d'acceleratfon de la convergence pour Ies systemes d'equa-
tions lineaires. Ce peut etre par exemple des iterations de la forme
xn+i = gk (A)xn oii le polynome gk (A) est choisi en fonction de
l'information dont on dispose sur le spectre de la matrice A.
Puisque
· (Ax x) • 'I. i _ • f (Ax, x)
maxÂA1 =sup
:ic
'
(X, X) '
IDlilJ\.A-lll
X
(
X, X
)

pour A = A*, certaines techniques de recherche de la plus grande


et de la plus petite valeur propre de A s'appuient sur la recherche
des points stationnaires de la fonctionnelle
<D (x) = (Ax, x) •
(x, x)
PROBL:E:ME. Soit Âi ~ 5, 1 ~ i.i ~ 3 pour i = 2, ••• , m. Construire un
processus iteratif de la forme xn+l = (A ± cE) xn afin d'obtenir Âi avec la
meilleure vitesse de convergence pour l'1nformation donnee.
Resoudre le mâme probleme si i.i ~ 1, 2 ~ I i.i I ~ 3, i = 2, ••• , m.

§ 15. Resolution du probleme global


de valeurs propres d'une matrice symetrique
par la methode des rotations
Toute matrice symetrique A peut s'ecrire
A= U*AUi (1)
ou. U est orthogonale et A diagonale et telle que Ies elements diago-
naux Â1 , • • • , Âm sont valeurs propres de A. (1) entraîne
AU*= U*A
En developpant cette egalite suivant Ies colonnes, on constate que
chaque i-ieme colonne de la matrice U* est un vecteur propre asso-
cie a la valeur propre Â.,.
La transformation de (1) donne
UAU* = A.
Form.ons une suite de matrices orthogonales V1 ••• Vn telle que si
Wn = Vn ... V1 , n -+- oo, on ait
WnAW~ -+-A.
Notons Vu (cp) une matrice d'elements Vttk = Vzi = cos Q),:
= -Vz1,. = sin cp, vii = 1 avec i =I= k, i =I= l, ViJ = O pour Ies
V1,.z
(i, j) restants. II est evident qu'elle est orthogonale. Soit B une
25-01007
386 M~THODES NUM~RIQ'"O'ES DE L' ALG-SBRE [CH. VI

matrice symetrique. Considerons la matrice


B (<p) = vkl (<p) BTiz (cp)~ (2)
LEMME. Pour toute matrice B symetrique on peut indiquer une
matrice V 1i z ( <p 0 ) telle que

~ I bf; (cpo) 12-< {1- m (}_ 1 )) ~ I bii 1 2


,
i~J i::ţ=J

D ~MONSTRATION. L 'egalite
B(O)=B
est evidente.
Les matrices B (O) et B (cp) sont semblables et leurs polynomes caracteris-
tiques
Âm-s 1 {<pJ Âm-1 +s2 (<p) Âm-2_ ••• =0

ne dependent par consequent pas de <p.


Ici
m
s1 (<p)= ~ bu (cp), s2 (<p) = 2] (bii (<p) bJJ (cp)-(b;J (cp)) 2);
i=1 i<j
en explicitant s2 (cp) nous avons utilise la symetrie de B (cp). II en decoule
que
s (<p) =si(cp)-2s2 (<p) = ~ (blJ (q,)) 2
i,;
ne depend pas de cp :
s (cp) = s (O). (3)
Soit I bhl I =max J b11 I, k < l.
i=ld
Introduisons la notation
B ( )= ( b1tk (cp) bhz(<p) ) •
kl cp bll, (cp) bu (<p)
Une multiplication directe des matrices a droite dans (2) et la comparaison
des elements appartenant aux k-ieme et Z-ieme lignes et aux k-ieme et l-ieme
colonnes fournissent les relations
Bhl (cp) =G (cp) Bhl (0) G* {<p) (4)
avec
· (
G (cp) =
cos <p sin cp)
.
-sm cp cos cp
.
L'egalite (3) est egalement satisfaite par les matrices Bhl (cp), Bhz (0); c 'est
pourquoi
(bhh (q,)) 2 + 2 (bhl (<p)} 2 + {bu (q,)) 2 = (bh1i) 2 + 2 (b11z) 2 + (bu) 2 , (5)
En additionnant (5) et
(bqq (q,)) 2 = (bqq) 2 , q ;:j=: k, l,
§ 151 DTHODE DES ROTATIONS 387

il vient
m m
~ (bqq (cp))2 +2 (bkz (q>))2 = ~ (bqq)a+ 2 (b,iz) 2~
q=1 q=1
Retranchons cette derniere egalite de (3) :
~ (biJ (cp)) 2 -2 (b1iz (cp)) 2 = ~ (bij) 2 -2 (bkz)2 • (6)
i=l:i i:i=i.
Les relations (4) entraînent immediatement
bkz (q>) =bu cos 2q>- ! (bkk-bzz) sin 2q>.

Soit
i 2bkl
2 arctg bh.k- bll
q>o=-
alors bkl {q>o) = O et (6) deviant
~ (biJ (q>o))2= ~ (bi;)2-2 (bkz)a.
i=l=i . i=l=i • .
La somme ~ bf; se compose de m (m-1) termes b~;; comme (bkzl~ =
i=/=i
max (bu) 9 , on a
i=l=i

D'ou l 'estimation demandee


~ (bu (q>o)) 2 ~ ( 1
i=l=i
Le lemme est demontre.
Formons une suite de matrices V n et Am>= [aif>] d'apres la rigle
A <u = V 1AVf, ••• , A<n> = V nAm-uv:.
La matrice V n = Bkz (q, 0) est construite, conformement au lemme„
en fonction de A m-u de telle facon que

~ (atf>)2 ~ ( 1 m c:-1)) ~ (aui-1>) 2


• (7)
i:/=i i=l=i
En exprimant chaque matrice A<P> par la precedente, il vient
A<»>= V n ••• V 1AVt ••• v:, .
ou hien A<m= WnAW: avec Wn=Vn • .• V1• Conformement a l'esti-
mation (7), on a
~ (~1>)2~ ( 1- m(;-i})n ~ (au)2.
i-q=j i=ti
25*
388 METHODES NUMERIQUES DE L' ALG:8BRE [CH. VI

Soit Acn, une matrice obtenue de A cn> en rem pia~ant tous Ies
eiements extradiagonaux par zeros. Comme Ies matrices A<n> et
A <n> sont voisines pour n grands, il en est de meme des coefficients
de leurs polynomes caracteristiques. On sait que Ies racines d 'un
polynome sont fonction continue des coefficients dans le domaine ou
le coefficient dominant est different de zero; le coefficient dominant
,du poiynome caracteristique vaut 1 ; aussi Ies vaieurs propres de
.A<n> et A cn> sont-elles voisines. Les vaieurs propres de A<n> sont
-elements diagonaux de A cn, et celles des matrices sembiabies A cn,
·et A coincident. De sorte que Ies quantites a\fl> approchent Ies va-
leurs propres de la matrice A.
Donnons une autre demonstration en appreciant cette fois l'erreur commise.
L'application A deux reprises de l'inegalite

fournit
J(Dx, x)
'
l=I ~i (~ diJxJ) xd<~i I~; diJXJ !-I.xii,<'.
j

<~V(~ ldiil 1x1P lxt I= V~ lx1l


2
) (~ V:2 ldi1l [xi I)<
1
)
2
(}]
2

i ir-=____ j i j j

<V~ I 1 -V(~(~ I dtj 1 ~ I xil = vr-21=-,-d-iJ-1 (x, x) (8)


Xj 2 2 )) 2 2
j i i i ij
pour n'im.porte quelle matrice D.
Rappelons-nous la formulation de la ~oprietă minimaxim.ale des valeurs
propres. Supposons que A est spnetrique et , ... , Âm sont ses valeurs propres
ordonnees dans l'ordre de decroissance. A ors
(Ax, x)
Âk= inf sup
Ytt ... , yk_ 1(x, y 1)=,.,=(x, yh_ 1)=0, x::f-,0 (x, x) •

Quel que soit x, on a selon (8)


l(A<11>x, x)-(A<n>x, x)j=l((A<11>-ACn>)x,x)I< V~ la~j>1 2 (x, x). (9)
i::j=j

Soient Â.1i. Ies valeurs propres de A et, partant, de A<n> numerotees dans l'ordre
decroissant et Âkn> celles de la matrice A<n>, i.e. ses elements diagonaux, nume-
rotes de fa~on identique. :conformement A (9), on a

I
(A<n>x, x)
(x, x)
(A<n>x, x)
(x, x)
l~ =-,/ ~
~
<J
n LJ
I a(~)
11
12 •
i=/=i
Si deux fonctions different de s au plus, la difference de leurs bornes supe-
rieures (resp. inferieures) prises sur un certain ensemble vaut egalement s au
plus. D'ou Ies inegalites successives

j (A<n>x, x) (A<n>x, x) I
(X, Y1)= .•. =&'!ţk-1)=0, X:/=0 (x, x) (X, Yt)= .•• =(~~ţk-1)=0, x::1=0 (x, x) <
< <Jn quels que soient y, ... , Yk-t
§ 15] MgTHODE DES ROTATIONS 389

et
I 1in> -111 I < CJn q uel que soit k.
Les coloimes de la matrice :Wn sont Ies approximations des vecteurs
propres de la matrice A.
Toutes Ies colonnes du produit des matrices V kl (cp 0} et A <n>t
a I' exception de la k-ieme et de la l-ieme, coincident avec Ies colon-
nes correspondantes de A cn, ; Ies k-ieme et l-ieme colonnes de la
nouvelle matrice sont combinaisons lineaires des memes colonnes
de la matrice A. La muitiplication ulterieure par V,t1(cp) qui change
la k-ieme et la l-ieme ligne exige le meme nombre d'operations. Le
nombre total d'operations arithmetiques necessaires pour obtenir
chaque A<n> suivante est en gros m. e .
L'algorithme propose presante !'inconvenient de recommander de choisir
a chaque pas I' element de plus grand module de A (n)' ce qui equivaut a X m1
operations. Or, cette condition n'est pas obligatoire.
Dans certaines mises en ceuvre de l' algorithme on charge en memoire les
sommes si = ~ I aii 11 et on c~o.isit !'element de plus grand module dans
j;:/:i
la ligne contenant la valeur maximale de si ; l' estimation (7) reste en vigueur.
Dans d' autres cas, les transformations analogues correspondant aux clivers
elements de la matrice a\r>, j > i, sont effectuees de fa~on cyclique.~Certains
algorithmes sont · a convergence quadratique. Apres · un cycle de m (m - 1)/2
pas on obtient une matrice A <n+Cm(m-1)/ 2 )) telle que
~ J ajj+<m(m-1)/2))12 < c(~ I a\~;> 12)2•
i,:j::j i=p.j

Avec une approximation assez honne, ceci garantit une amelioration rapide
du resultat.
Le probleme global de valeurs propres d 'une matrice non syme-
trique se resout par des algorithmes plus compliques, mais d 'une
structura toujours homogene.
Bibliographie du chapitre VI
I [1, 2, 9, 12), II [5, 17, 46]; §§ 4, 5: I [41, li [6) *); §7: II[~. 5, 17,
27, 28); § 10: III [30]; § 11: II [2, 18); § 12: II [5]; III (26); § t3: 11 [15),
III [46]; §§ 14, 15: I [2], II (46].

*) Voir egalement V. Riabenki « A propos de la stabilite des algorithmes


iteratifs de resolution d'equations aux differences non auto-adjointes ». Comptes
rendus de !'Academie des Sciences de l'U.R.S.S., 1970, 193, n° 3 (ed. russe).
CHAPITRE VII

MSOLUTION DES SYSTtMES D'EQUATIONS


NON L~AIRES ET DES PROB~MES
D'OPTIMISATION

La resolution des problemes d'optimisation, qu'il s'agisse de la


production ou de !'economie en general, de constructions ou
d'algorithmes numeriques, se ramene mathematiquement a la recher-
che des extrema de certaines fonctionnelles.
Dans Ies cas Ies plus typiques, on a a minimiser une fonction de
plusieurs variables dans un domaine G donne par de nombreuses
contraintes de type inegalite ou egalite: on desire trouver
inf <D (x1 1 ••• , Xm)
Xt, •.• ,xm

dans Ies conditions


<J>i (x1, ••. , Xm) ~ O, i = 1, ... , l.
'$i (x1, .•• , Xm) = O„ i = 1, ••• , q.
Le mâme probleme se pose lorsqu' on utilise Ies methodes varia-
tionnelles en physique mathematique et dans d' autres branches des
mathematiques appliquees. De nombreux types de problemes indi-
ques donnent lieu aux systemes
F (x) = O: /, (x1 , • • • 1 Xm) = O_, i = 1, •••., m;
ainsi, dans le chapitre IX on considerera de tels systemes lorsqu'on
aura A resoudre des problemes aux limites.
11 y a parfois interât a ramener un probleme a un autre.
Si 'I' (y1 , • . • , Ym) > O avec (y1 , . . • , Ym) -=!= (O, ... , O),
'I' (O, ... , O) = O, resoudre le systeme F (x) = O equivaut a mini-
miser la fonction
'I' (/1 (x1, • • •, Xm), • • •., Im (x1, • • ., Xm)).
D'autre part, supposons que inf <I> (x1 , • • • , xm) soit realisee
G
en un point X interieur a Get que la fonction <I> soit derivable en ce
point. Alors le point de minimum.est solution du systeme d'equations
<D~, = O, i = 1, ... , m.
La possibilite de ramener un probleme a tel autre ne veut nul-
lement dire que nous pouvons nous borner a l'un d'eux; la parente
·. r

§ i] dTHODE IT:8RATIVE SIMPLE ET PROBLll:MES CONNEXES 891

de ces problemes souligne plutot qu 'ils sont egalement ardus. Car


ils sont tres difficiles. Vous ne trouverez en effet dans ce chapitre
aucun algorithme universel de resolution dans le cas d 'un m grand.
On effectue une << mise au point >> theorique et experimentale des
methodes en vue de Ies adapter a chaque classe type quant a ses
a pplications.
Si l'on ramene un probleme a un autre, c'est pour reduire l'effort
qu'exige sa resolution.
Dans le cas des systemes d'equations non lineaires, on peut par
exemple proceder comme suit. On construit une fonctionnelle dont
. le minimum est atteint sur la solution du systeme. On se donne ensui-
te un~ approximation initiale de ce point et on realise Ies iterations
par une technique -de descente (cf. § 4) jusqu'a obtenir une approxi-
mation satisfaisante de la solution. Avec cette approximation au
depart, on ameliore la precision moyennant une methode iterative
speciale au probleme propose, par exemple la methode de Newton
(cf. § 2).
Expliquons le pourquoi d 'une pareille combinaison de procedes.
Appelons domaine de convergence d'une methode l 'ensemble de condi-
tions initiales pour lesquelles les iterations de la methode consideree
convergent vers la solution du problemo. Nous avons commence
par appliquer Ies methodes de descente parce que leur domaine de
convergence est en general plus vaste que celui des techniques pro-
pres a la resolution de systemes d 'equations. Le fait que ces dernieres
convergent en general plus rapidement avec une approximation ini-
tiale suffisamment bonne explique leur utilisation a l'etape finale
du processus iteratif.
D'ailleurs, en resolvant des systemes d'equations lineaires nous
avons egalement constate que la reduction d 'un probleme a un autre
exige l'elaboration de nouvelles methodes de resolution du probleme
initial.
§ 1. Methode iterative simple
et problemes connexes
Comme dans le cas d 'equations lineaires, commen~ons p~r la
methode iterative simple.
Voici son idee. On met le systeme sous la forme
X = g (x), (f)
ou encore
Xi=gi(X1, •• • , Xm), Î= 1, ... , m,
et on effectue Ies iterations a l'aide de la formule
xn+1 = g (xn), (2)
ou encore
n+1_ g ( n n) i= 1, ... , m.
Xi - i X1 ' • • • ' Xm '
392 :eQUATIONS NON LIN:eAIRES ET PROBL'8MES. D'OPTIMISATION [CH. VII

Passons du concret au general et supposons que !'C est un espace


metrique complet et que y = g (x) est un operateur de !C dans
lui-mâme.
Considerons le processus iteratif
xn+1 = g (xn) (3)
permettant de resoudre
g (x).
X= (4)
Si pour un certain q < 1 l 'application y = g (x) verifie la conditi.on
p (g (.r.1), g (x2)) ~qp (x1, x2) (5)
quels que soient X1, x 2 , on l'appelle application contractante.
TH~ORBME. Si l'application y= g (x) est contractante, l'equation
x = g (x) possede une solution X et
n qna
p (X, x )~1-q,
a= p (x1, x 0).
D:8MONSTRATION.Selon (5), on a
P (xn+1, xn) = P (g (x"), g (x"-i))~qp (xn, xn-1),
aussi p (xn+ 1 , xn)~qnp lX1 , x 0) = qna. Si p > n, on a la · chaîne
d'inegalites
P (xP, xn) ~ P (xP, xP-1) + ... + p (xn+1, xn) ~
00

/
~q P-1
a + •.. + qa~qa.LJq=
n ,,.,,,, n ~ i qna
1 _g• (6)
i=O
Conformement au critere de Cauchy, la suite xn tend vers une
limite X. Le passage a la limite dans (6), p-+ oo, fournit
n qna
p(X, x )~-1-q
-.
Evidemment
p(X, g(X))~p (X, xn+1)+p{xn+1, g{X))=
. qn+ta
=p(X, xn+1)+p(g(xn), g(X))~p(X, x"+1)+qp(x'1, X)~2 i-g ;
n etant quelconque, p (X, g {X))= O, i.e. X= g (X), c.q.f.d.
REMARQUE. Avec n=O, (6) entraîne p (xP, x0) ~a- • Touteslesapproxi-
1-g
mations appartiennent donc au domaine
a
Q (xO, a, q) : p (x, xO) < - - - .
1 -q
Dans la demonstration du theoreme g (x) ne s'applique qu'aux elements de
1' ensemble Q (x0 , a, q) et la condition de contraction est relative a un seul
§ 1) ~THODE IT~RATIVE SIMPLE ET PROBL:E:MES CONNEXES 393

couple d'elements de cet ensemble. Il suffit donc de supposer dans l'enonce


que l'application g (x) est definie sur Ies elements de Q (x0 , a, q) et satisfait
a la condition (5) pour xi, x2 E Q (x0 , a, q).
Dans le cas d 'une equation scalaire, la methode iterative simple
admet une interpretation geometrique simple. Representons dans
le plan (x, y) la position relative de la courbe y = g (x) et de la
g y

;c2 ,r3

. b)
!I

11
11
I I
I I
I I
I I
I I
I I
I I
·O

Fig. 7.1.1

droite y = x. Leurs points d 'intersection correspondent a la solu-


tion cherchee. Si par le point (x'I, xn+1) = (xn, g (xn)) on mene la
droite y = xn+i jusqu'a ce qu'elle rencontre la droite y = x,
puis la droite x = xn+1 qui va couper la courhe y = g (x), on ohtient
le point (xn+1, xn+2). La fig. 7.1.1. represente le comportament des
approximations successives si a) O < g' (x) < 1, b} -1 < g' (x) <
< O, c) 1 < g' (x), d) g' (x) < -1. Le fait que x1' est monotone
pour g' > O et oscillante lorsque g' < O est egalement aise a etablir
394 aQUATIONS NON LIN!AIRES ET PROBL:8MES D'OPTIMISATION [CH. VII

A l'aide de
xn+1 - X = g (xn) - g (X)_, g' (X) (xn - X).
Le systcme d 'equations non lineaires F (x) = O se resout par un
analogue de la methode de Seidel dans lequel Ies composantes d'ap-
proximations sont donnees par Ies relations
/ 1 (x~+t, x:, ... ' x;h) = O,
/ 2 ( -11+1
~f t
xn+1
2 t
.-n
;.(;3, ... ' x~) == O, (7)

Im (Xsn+t ' n+t) _


• •• , Xm -
O•

Pour trouver chaque xf+ 1 il faut en general resoudre l'equation non


lineaire
n+t n+t n+t n n}
/ ; ( Xs ' ••• ' xi-f' Xi ' Xi+tt ••. ' Xm =Q
a une inconnuo.
Entre Ies procedes par iterations (2) et (7) se situe une methode
dans laquelle Ies composantes d'approximations se determinent par
x~+i = g 1 (x~, •.. , x~),
n+l _ ( n+t n n)
X2 - K2 Xs , X2, • • •, Xm ,
(8)

x~+1 == Km (x~+i, ••. , x~:\ , x~).

Les methodes (7) et (8) sont d 'un usage particulierement frequent


lors des traitements sur calculateurs analogiques.
Dans un voţsinage relativement restreint de la solution X du
systeme on a en approximant par la methode iterative simple:
(9)
oii

B= [ ::; JIx·
Ainsi, Ies approximations se trouvant dans un petit voisinage de la
solution, Ies erreurs sur Ies iteres du processus (2) (et sur ceux de
(7) et (8)) sont regies par des lois sensiblement identiques a celles
gouvernant Ies orreurs commises dans Ies methodes iteratives de
resolution des systemes lineaires. On montre par consequent que
pour une approximation initiaie suffisamment bonne, le processus (2)
converge dans Ies memes conditions imposees a la matrice B que
la methode iterative simple. La validite de (9) permet egalement
d 'aceelerer la con vergence.
§ 1) . DTHODE IT:eRATIVE SIMPLE ET PROBLUES CONNEXES 395

Examinons le eas m, = 1 et -eonstruisons l'analogue du procede


62 • Etant donne :if', introduisons Ies notations xn, 1 = g (xn),
zn, 2 = g (xn, 1). Conformement A (9),

xn, 1-X ~ g'(X} (zn-X),


xn, 2 -X ~ g' (X) (xn, 1 -X).
11 en deeoule

Prenons pour l 'approximation suivante


zn+ 1 = :,;n, 2xn - (xn, 1 )2 = :,;ng (g (:,;n))- (g (:,;n))2 •
:,;n, 2_2zn, t+zn g(g(:,;n))-2g(:,;n)+zn (10)

Pour caraeteriser Ies methodes de resolution d 'equations on


introduit la notion d'ordre de la methode. On dit qu'une methode est
d'ordre k s'il existe c1 > O, c2 < oo tels que
p (xn+i, X)~c2 (p (xn, X))"

sous l'hypothese p (xn, X) ~ c1 • 11 est clair que plus k est grand et


plus vite converge le processus iteratif pour p (xn, X) faihles.
Les caleulateurs recourent le plus volontiers aux methodes du premier
ordre (p. ex. la methode iterative simple) et du deuxieme (p. ex. la
methode de Newton qui sera examinee au paragraphe suivant).

PROBL:81\fE. Demontrer que pourg (:,;) reguliere la methode (10) est du de~i~-
me ordre.
NoTE. 11 existe une autre definition de l'ordre d'une methode: on dit de
la methode de resolution du systeme F ~x) = O qu'elle est d'ordre k si sa reali-
sation suppose le calcul des derivees d ordre k - 1 inclusivement de la fonc-
tion ft•
Dans le § 12 du chapitre precedent nous avons traite des methodes itera-
tives de resolution des systemes lineaires a l'aide d'operateurs spectralement
equivalents. Des procedes analogues existent pour Ies systemes non lineaires.
On choisit un operateur G (x) tel que x = O soit l'unique solution de G (x) = O.
Les approximations xn+i de la solution du systeme F (x) = O se determinant
A partir de la relation
G (xn+ 1 -xn)=F (xn). (U)
396 :slQUATIONS NON LIN:8AIRES ET PROBL:li:MES D'OPTIMISATION [CH • .VII

Le cas le plus repandu est celui ou G est un operateur lineaire. La relation (11)
s'ecrit alors
A(xn+1-xn)=F (xn); (12)
si Ies vecteurs x sont de dimension m finie, A est une matrice. On prend souvent
un G qui soit fonction de net de l'approximationxn. Leschema(12) joue alors
pour la methode de Newton ci-dessous.

§ 2. Methode de Newton pour des systemes


d'equations non lineaires
Si l'on connaît une approximation initiale suffisamment bonne
de la solution de
F (x) = O, (1)
on ameliore efficacement la precision par la methode de Newton.
Sans compliquer Ies raisonnements, bornons-nous a un cas plus
general, a savoir la resolution d 'une equation fonctionnelle non
lineaira.
·soit F (x) un operateur qui applique un aspace vectorial norme !I
sur un espace vectorial norme ay qui se confond peut-etre avec ~.
Notons li llx et li lly leurs normes respectives. L'operateur lineaire
P de !% dans ay s'appelle derivee de l'operateur F (x) au point x si
li F (x + 11) - F (x) - P11 1121 = o ( Uri IIr) (2)

pour 1111 llx-+O.


Dans la sui te nous designerons cet operateur P par F' (x). Soit,
par exemple,
X= (Xt, ... , Xm)T, F= (/1, . • •, fmf•
Si Ies fonctions fi sont continilment derivables au voisinage du point
x donne, il vient
fi (x1 +111, • • ., Xm+11m) =
m

= Ii (Xt, • ••' Xm) + ~ 8/i (z1, ••• , Xm)


LJ ax 11J + O ( li 11 li) •
i=1 J

L'ensemble de ces relations se met sous la forme (2) a condition de


prandre pour P l'operateur de multiplication a gauche par la matrice

F' (x) = [!f.J_]


az1
.
Pour m = 1, cas le plus simple, P est l'operataur de multiplication
par la deri vee f~.
-§ 2) DTHODE DE NEWTON 397

Soient X solution de F (X) = O et xn une approximation de X.


Dans l 'hypothese que F' existe, on a, en conformite avec (2),
11 F (X-)F (x )-F' (xn) (X-x li~= o ( 11 X-x llx-).
11 11
) (3) 11

Si la quantite li X-x llx- est petite, on ecrit l'egalite approchee


11

+
F (xn) F' (xn) (X - xn) ~ F (X).
Comme F (X)= O, on a
F (x11) +F' (xn) (X-xn) ~ O.
Prenons pour approximation suivante la solution (si elle existe)
de l 'equation
F (x71) + F' (x71) (x1Hl - X71) = O
qui est de la forme (1.12). En supposant F' inversible, cette solution
s'ecrit
(4)
Ce processus i teratif porte le nom- de methode de Newton.
Soit Oa= {x: li x-X 11 < a}. Supposons qu'on a pour certains
a, a1, a 2 , O< a, 0-<a1, a 2 < oo,
1. li (F' (x)t1 ll-<a1 avec x EQa. (5)
2. li F (U1 -F (U2)-F' (U2) (U1 - U2 ll~-<a2 li U2 - U1 li} (6)
avec Ut, 0 2 EQa• Notons c· a 1 •a 2 , b= min (a, c-1).
Tu:moR1ln1,rn (sur la convergence de la methode de Newton). Sous
l'hypothese 1, 2 et x 0 EQb, le processus iteratif de Newton (4) con-
verge et l' erreur commise est evaluee par
li x 71
-X llx-<c-1 (c li x 0 -X llx) 2 n. (7)
NoTE. Si, dans !'exemple ci-dessus, les fonctions fi ont leurs derivees secon-
des bomees, on a, en vertu de la formule de Taylor,
n
y âfi (Xt, • • •, Xn)
ft(y) = fi (x) + LJ âx ·
1
(YJ-Xj) +O (li y-x fl 2
},
3=1
et la condition 2 est donc remplie.
D:mMoNSTRATION. Soit x 0 EQb• Demontrons par recurrence sur n
que tous les xn appartiennent a Qb. Supposons que c 'est vrai pour
un certain n; comme b-<a, x71 EQa• Substituons 0 1 = X et U 2 = xn
dans (6), il vient
li F(X)-F(x )-F' (x (X-x
11 71
)
11
) ll~-<a21lx11 -X li~-
398 'SQUATIONS NON LIN:8AIRES ET PROBL8MES D'OPTIMISATION [CH. Vll

Puisque F (xn) = -F' (xn) (xn+i _xn) et F (X)= O, eette relation se


recrit comme suit:
11 F' (xn) (xn+i_X) ll'!Y<a2 li xn-x li}.
En se rappelant la condition (5), il en resulte
-11 xn+l_X llx~c II xn-x 11}- (8)
D'ou
li xn+l _ X llx < cb2= (cb) b<b
et xn+i appartient lui aussi a Qb. Ainsi, si x0 EQb, il en est de
tous Ies xn qui verifient donc l'inegalite (8).
Soit qn = c li xn-x llx• L'inegalite (8) multipliee par c donne
qn+t<q!.
Par recurrence sur n demontrons la validite de
. / 2n
qn~qo •
Lorsque n =0, cette inegalite est evidente. Supposons qu'elle l'est
pour n = k et obtenons
. / 2 . / ( 2k)2 21Hi
q11.+t~q"~ qo ==qo •
Donc, qn <qf avec n quelconque, ce qui signifie que
C li xn-x llx<(c li x0 -X llx) 2n;
i1 en decoule (7). D'apres la definition de c et b
c li x 0 -X llx < cb<1,
c'est pourquoi Xn-+ X. Le theoreme est demontre.
L'estimation (7) de la vitesse de convergence de la methode de Newton
est une consequence de l'inegalite (8) vraie pour toute methode d'ordre 2. Ainsi,
l'estimation (7) avec une certaine constante c a lieu dans toute methode du
deuxieme ordre.
On a parfois, au lieu de (6), une _estimation plus faible
li F (U1)-F (U2)-F' (U2) (U1- U2) IJ'!Y < as li U2-U1 li~,
ou 1 < p < 2. (7) est alors remplacee par
n
li xn-x llx < c;1 (c1 li xO-X llx>p •
L'inversion de l'operateur F' (x") s'avere souvent plus delicate
que le calcul de F (xn). C'est pourquoi la methode de Newton se
prâte, dans de nombreux cas, a une modification sttivante. En cal-
culant on choisit ou bien on se donne d'avance une certaine suite
§ 21 M~THODE DE NEWTON 399

croissante de nombres n 0 = O, n1 , n 2 , • • • Si n1i ~ n < n1i+ 1 ,


on effectue Ies iterations selon la formule
xn+t = xn - (F' (xnk) r1 F (xn).
L'augmentation du nombre d'iterations qu'entraîne souvent cette
variante de la methode de Newton est contrebalancee par le faible
cout d'un pas d'iteration. On choisit la suite {nk} en prenant en
consideration tous ces facteurs.
Envisageons l'image geometrique de la methode de Newton dans
le cas de l'equation scalaire / (x) = O. La formule de calcul (4)
s'ecrit alors
xn+1 = xn - I (zn) (9)
/' (zn) •

xn+i s'obtient geometriquement comme l'abscisse du point d'inter-


section de !'axe des x et de la tangente a la courbe y = f (x) au point
(x11 , f (xn)) (fig. 7.2.1). Si / (x) est un polynome du troisieme degre
et pour une approximation de depart mediocre il se peut que la suite
{xn} ne converge pas vers la racine. Ainsi, dans le cas de la fig. 7.2.2,
toutes Ies approximations paires coincident avec a et Ies impaires
avec b: la methode cycle. Dans des problemes plus compliques l'allu-
re reelle des :J!I pour une mauvaise approximation initiale deviant
beaucoup plus embrouillee et se prete difficilement a une analyse
quelconque.
Comparons la vitesse asymptotique de convergence de la methode
de Newton a celle de la methode iterative simple. L'erreur resultant
de celle-ci a ete evaluee par
li xn-x ll~qn li x 0 -X li, q< 1.
Pour qu'elle devienne inferieure a e, il suffit, d'apres cette estima-
tion, de prendre

Quant a la methode de Newton, le deuxieme membre de (7) est


plus petit que e si
. . . . - l og 2 log2 (c1Jx (0 -XII)
n .~ I l 1
,_ og2 og2 -8 • (10)
1Ogz CB )
Ainsi, pour e ~ O, la methode de Newton exige moins d'iterations.
On remarquera que ce mâme procede mis sous la forme (4) est
une variante de la methode iterative simple. L'examen de l 'equa- .
tion scalaire / (x) = O revele une autre particularite de la methode
de Newton. La derivee par rapport ax du deuxieme membre de (9)
g (x) = X - /(x) est egale a f(z)f"(z) Donc g' (X) = o si /' (X) _,_
/' (x) (/' {z))2 • -r-
-=/= O et la fig. 7.1.1 devient la fig. 7.2.3.
Fig. 7.2.1

Fig. 7.2.2

Fig. 7.2.3
§ 3) AUTRES l\l~THODES DE Rf!SOLUTION D'UNE tQUATION :· 401

La methode de Newton s'avere fort interessante pour l 'extraction de raci-


nes p-iemes avec p entier. Extraire la racine ~a, p entier, equivaut a resoudre
l'equation .xP - a= O. La formule de calcul de la methode de Newton deviant
alors • ·
p_:_1 a
Xn+1=--.xn+--1 ·
p p~- ..

Pour approximation initiale de ~aon peut prendre la valeur d'un polynome


approchant cette fonction. , ·
PROBLi!:ME. Soit l'algorithme de calcul de l{a pour 1 ~a~ 4, Xo etant
supposee egale a lavaleur du polynome de meilleure approximation uniforme
de -Vă sur [1, 4]: .Xo = Pi (a)= !~ +-:-. Verifier que Ix, - Val'~ 0,5-10-26 •

§ 3. Autres methodes de resolution


d'une equation
Si l'on possede une bonne approximation de la racine X de l'equa-
tion / (x) . O, on emploie, a cote de la methode de Newton, la metho-
de de la secante.
Considerons sa variante la plus simple. On fixe, da:ns le processus
iteratif, un certain point x 0 • L'itere xn+ 1 s'obtient comme abscisse

Fig. 7.3.t Fig. 7.3.2

du point d'intersection de la droite passant par (x 0 , f (x0)) et


(xn, f (xn)) avec l'axe des x (fig. 7.3.1).
La methode est plus efficace si l'on prend pour xn+i l'abscisse
du point en lequel l'axe des x coupe la droite passant par (xn-1 , /(xn-1))
et (xn, f (xn)) (fig. 7.3.2). Cette droite a pour equation
Yn (x) = f (xn) + (x-xn) I (x;~=!~=~-i)
26-01007
402 ~QUATIONS NON LIN~AIRES ET PROBL-aMES D'OPTIMISATION [CH. VII

· La condition Yn (xn+i) = O fournit


= .Xn _ f~.....;..,.-'--..,......-.--
(.xn) (xn-zn-1)
.zn+l
J (xn)-- f (xn-1)
• (1)

L'evaluation du nombre requis d'iterations se fait moyennant la relation


qu'il faut etablir entre les erreurs rn = xn - X sur Ies approximations consecu-
tives. On a l'egalite (developpement de Taylor):

0=/(X)=f (.xn)+ J' (xn) (X-xn}+ f" ţn> (X-.zn)2+O ((X-xn)3).

D'ou

De meme
J (xn-1)-J(xn)=f' (xn) (xn-1-xn)+ /" (.xn) (.xn-1_.xn)~+o ((xn-l-xn)3).
2
11 en resul te
f(xn)-f (xn-1) = i' (xn) (rn-Tn-1) f" ţn> (rn -Tn-d 2 +o ((rn -Tn-t) 3).
En retranchant X de (1) il vient
( f' (xn) Tn - f" ~n) r! + O (r;) ) (rn - rn-1)
Tn+1=rn

Supposons f' (x) =f::. O et divisons le numerateur et le denominateur par


f' (.xn) (rn -rn-1); on a
Tn-Âr! +O (r!)
Tn+t=Tn
avec

Compte tenu de

il en decoule
Tn+t =rn-(rn-Âr;+o (r;)) (1 +i (rn-rn-1)+0 ((rn-rn-1) 2 ))
ou encore
(2)
Nous nous abstiendrons d'evaluer strictement la vitesse de convergence
du processus en nous limitant a des raisonnements vraisemblables. La rela-
tion (2) im_pţiqu~ tout naturellement que l' erreur rn diminue assez rapidement au
cours des 1terat1ons:
Tn-1 ~ 7n > rn+l; (3)
...
§ 3] AUTRES M~THODES DE R~SOLUTION D'UNE ~QUATION 403

on n'a pourtant aucune raison d'esperer que, pour n-+ 00, rn+i sera d'un ordre
de grandeur inferieur a celui de 'n'n-i• Puisque rn-i )> rn, on a 'n-irn > r~;
cette inegalite et (2) entraînent rn+i ~ r;i· En diminuant n d'une unite, on
obtient Tn ~ ri-1; par consequent, dl-1 ~ rnrn-1· Cette derniere inegalite
et (3) determinant rfi ~ rnrn-l• Aussi, pour n grand, (2} s'ecrit
rn+l - Ârnrn-1•

La substitution I Ârn I= Rn donne


IR~+l - RnRn-1·
En en prenant le logarithme il vient
ln Rn+l - ln Rn +
ln Rn-l•
On est fonde de supposer que ln Rn (n grand} se comporte comme la solution
de l'equation aux differences finiesj
Un+l =Un+ Un-1;
l'equation caracteristiquei correspondante
µ2 - µ -1 =o
a Ies racines
1+-vs 1--Vs avec I µ 2 I < 1.
2 2

Donc Un = c1µf +. c2 µ:, - c1 µ.f pour n tendant vers l'infini. Sous l'hypothese
ln Rn - Un on_ ecrit l'egalite asymptotique
log2 I ln Rn I - log2 I c1µf I - n log2µ1 •
Les inegalites I r n I ~ e, R ~ I Â I e et· 1ln Rn I ~ I ln ( I Â I e) I sont equi-
valentes lorsque I Â I e ~ 1. C' est pourquoi on a log2 I ln ( I Â I e I -
- n log2 µ 1 ou n est le plus petit nombre pour lequel est realisee la precision s
demandee; et doncl
1 1
n ~·[ log2 log2t- .9
1og2µ1 e
La comparaison avec (2.10) montre que dans la methode de la secante le
nombre necessaire d'iterations est, pour e petit, d'environ log111 2 ~ 1,44 fois
superieur a celui qu'exige la methode de Newton. Si d1 est le volume de calcul
de la valeur d'une fonction en un point et d 2~le volume ae calcul supplementaire
de la derivee en ce point, le cout total de la premiere methode est dans notre
1
cas de l'ordre de 1,44di log2 log2 -et celui de la deuxieme de l'ordre de
8

(di +dJ log2 log2 8i .


Examinons un probleme type: soit une fonction concrete f (x, a 1 , • • • , an) ;
on demande d'elaborer un programme qui, d'apres des valeurs donnees de
cti, ... , ctn, fournit la racine de l'equation f (x, ai, . . . , an) = O. 11 arrive
souvent que Ies programmes de calcul des fonctions f et f x :possedent de nomhreux
blocs en commun, ce qui fait que d 2 < 0,44di. Conformement aux evaluations
ci-dessus et en presence d'une bonne approximation au depart, on preferera la
methode de Newton a celle de la secante.
Lorsqu'on a a resoudre le systeme
F (x) = O,~
26*
404 gQUATIONS NON I..INeAIRES "ET PROBL:tMES D'OPTIMISATION [CH. VII

on fait appel a un analogue de la methode de la secante. Supposons definies


Ies approximations xn-m, ••• , xn et connues les valeurs
Îi (xn-m), ... , fi (xn).
Soit y = L,. (x) l'equation du plan passant par les points
(xn-m, ft (x'-'-m)), • •• , (xn, ft (x")};
adoptons pour approximation suivante xn+i la solution du systeme d'~quations
Li (x) = O, i = 1, ••• , m. I
Lorsque m = 1, on reconnaît la methode de la secante que nous venons de con•
siderer. Si m > 1, ce procede n' est utilise que rarement et cela dans les cas ou
la precision exigee est faible.
En fait, lorsque n tend vers l'infini, cette methode se caracterise par
un « aplatissement » du simplexe ,n-dimensionnel de sommets aux points
xn-m, ••• , xn;. la consequence en est une deterioration rapide du condition-
nement du systeme Li (x) = O. L'algorithme de calcul devient sensible a l'erreur
~e calcul• et ne converge plus.
A part les modes operatoires decrits, il en existe de nombreux
autres ou la fonction / (x) est approchee au voisinage de la racine
par une fonction g (x) pour laquelle l 'equation g (x) = O se resout
sous forme explicite. Ces metl1odes ne deînarrent cependant qu 'a
condition de posseder une approximation satisfaisante de la solution.
Pour obtenir celle-la on recourt parfois a la methode d' encadrement. On
determine d'abord a0 et b0 tels que / (x) soit continue.sur [a0 , b0 ) et / (a0 ) / (b0 ) <
< O. Dans le cas 'de l'equation ·1 (x, cx.1 , ••• , CX.n) = O on reussit souvent ă.
expliciter de pareils a0 , b0 : a0 (cx.1 , • • • , cx.n), b0 (cx.1, ••• , cx.n); on les trouve
egalement en formant un tableau des valeurs de / (x} en des points aleatoires
ou ordonnes. Une fois le segment [a0 , b0 ] trouve, on choisit un certain point
c0 E (a0 , bO). Apres avoir compare Ies signes de f (a0 ), f (c0 ) et / (b0 ) ·on prend
pour [a1 , b1] celui des segments [a0 , c0], [c0 , b0 ] aux extremites duquel f (x)
est de signes contraires. Ensuite, on choisit un point c1 E (a1, b1 ), et ainsi de
suite. On obtient finalement une suite de segments emboîtes [a0 , b0} ::, [a1 , b1 ] ::::,
::::, . . • tels que / (an) f (bn) < O.
On peut adopter la strategie suivante pour choisir cn. Au depart, ori prend
cn = (an + bn)/2; on calcule / (cn) et on etablit si Ies points
(an, f (an)), (cn, f (c")), (b", f (bn)) (4)
sont alignes.
S'il en est ainsi, alors
f (an)-2/ (cn)+ f (bn) =O;
aussi la condition d'appartenance de ces points a une· mâme droite. est
I/ (an}-2/ (cn) + f (b") I<'\' I f (bn)-f (an) I
avec y choisi experimentalement.
Si la condition est satisfaite, on prend immediatement pour cn+i le point
d'intersection de la1 secante passant par
(an+i, f (an+i)), (bn+i, / (bn+i))
et de l 1axe des x ; sinon, on pose
cn+i = (an+i + bn+l)/2
§ .u.· , MtTHODES DE DESCENT~ 405

et on voit si Ies points


(an+t, I (an+t)), J (cn+t, f (cn+1)), (bn+i, f {bn+1))
se placent sur une mâme droite, et ainsi de suite. i

· Dans certa.ins cas on prendra toujours pour cn+1 1'abscisse•du point de l'inter-
valle (tin, bn) en lequel la parabole passant par Ies points (4) coupe l'axe des x.
Un probleme important est l'elaboration de methodes efficaces
de resolution d'equations de diverses classes typiques. Telle est
en particulier la methode d,es paritboles qui permet de trouver Ies racines
du polyn6me P (z) = a0 zm + ... +am a coefficients quelconques
(reels ou complexes). Etant donnees Ies approximations Zn-2, Zn-1, Zn
de la ~acine, l'approximation suivante est recherchee comme suit~
On construit un polynome d 'interpolation du deuxieme degre · qui
coincide avec p (z) en Zn-2, Zn-1, Zn. On prend en qualite de Zn+l
la racine de ce polynome la plus proche de Zn. L'analyse de I'c:!-pplica-
tion de la methode a conditionne une certaine modificati.on de ce
schema dans les programmes standard. Bien que la convergence de
ce procede n'ait pas ete demontree pour un polynome et des condi-
tions initiales arbitraires, on ne connaît pas de cas ou il ne converge
pas ou converge lentement. En ,xecherchant plusieurs racines d 'un
polynome on procede a une elimtnation_: apres avoir trouve une racine
z de P (z) on cherche les raci~es du polyn6me P (zl_ •
z-z

§ 4. Methodes de descente
Le probleme de minimisation d 'une fonctionnelle se resout le
plus souvent par une methode d,e d,escente. On determine, pour une
approximation donnee, un sens de decroissance de -la fonctionnelle
et on deplace l'approximation dans ce sens. Sila grandeur du depla-
cement n'est pas ,tres grande, la valeur de la fonctionnelle diminue
necessairement. Considerons plusieurs techniques de descente.
En etudiant la convergence de la methode de Seidel pour le syste-
me d'equations Ax = b, A> O, nous avons decrit la methode cy-
clique de descente sequentielle qui permettait de minimiser la fonction
<1> (x1 , . • • , xm). On s'est donne une approximation <ll (x1, ..• , x~),
puis on a recherche une valeur x 1 = ~ qui realise inf <I> (xs, x~, ..•
Xi
. . . , x~), ensui te on a cherche une valeur x 2 = ~ qui rea lise
inf (t) (x}, x 2 , x~, ... x~), ete.; le processus se repete cycliquement.
:t2
Soit Pkx l'approximation obtenue en se depla~ant a partir de x
suivant la coordonnee xk. En numerotant Ies approximations dans
l'ordre selon lequel elles s'obtiennent par deplacement suivant Ies
coordonnees successives, on ecrit
x1 = P 1x. x2 = PaP 1x, •.. ,
Xm= Pm ••• P1x, xm+l= P1Pm ••• P1x,
406 EQUATIONS NON LINEAIRES ET PROBL'S:MES D'OPTll\HSATION [CH. VII

La mise en oouvre de cette methode implique la minimisation de


fonctions d 'une variable. Considerons le probleme de minimisation
de la fonetion d 1 une variable <I> (x), x = x 0 etant l'approximation
initiale du point de minimum. La solution exacte etant en gener_!l
impossible, on procede comme suit: on prend des valeurs 0 , 0 x x
et on construit une parabole y = P 2 (x) verifiant
p 2 (xO) = cf) (xO)., p 2 (xO) = CI> (xO), p 2 (,) = cf) (~O).
L'abscisse x du point de minimum P 2 (x) est acceptee comme l'ap-
proximation x1 • La suite de points obtenus par le procede decrit ne
converge pas necessairement vers le point d' extremum cherehe de
cfJ (x).
On comprendra mieux les divers cas qui peuvent se presenter a la lumiere
des exemples suivants. Soient xn les approximations obtenues avec cet algorithme.

Fig. 7.4.1 Fig. 7.4.2

Le choix a chaque pas d'iteration des points -;n, ;;n peut s'effectuer de diverses
mani eres.
On les choisit de fa~on que
a)

11 en resulte, par exemple,· le cas de la fig. 7.4.1. Les points zO, zO, ;o se trouvent
dans le voisinage immediat du point d'extremum local x*, les points suivants
xn, -;n, ~n s'y trouvent egalement et xn-+ :c*; nous obtenons x* au lieu du
point d'ex.tremum absolu X qui nous interesse.
b) 1"zn - .xnl +I~ - znl ~O; on choisit sans peine une fonction <I> (x)
satisfaisant aux conditions ci-dessous (fig. 7 .4.2)!:
1) il existe des points x*, xi>, :O tels que la parabole coincidant en ces
points avec <I> (x) admette un extremum en x*;
2) si xn=~, xn=xO, I xn-.v* I< l), 11 > o, alors xn+ 1 -x* I< q I xn-x*I,
avec q< 1.
§ 4) MtTHODES DE DESCENTE 407

Avec une approximation au depart x 0 telle que I :z;O - x* I ~ 11, on peut


s'illusionner sur la convergence du processus iteratif vers x* alors que celui-ci
n' est meme p,as un point d' extremum local.
PROBL"BME. Etablir une formule explicite pour une telle fonction (1) (x).

Meme si I' on recherche a chaque pas I' extremţJ.m absolu de


<I> (x1, ••• , Xm) pour la <;oordonnee correspondante, o~ peut, des

Fig. 7.4.3 Fig. 7.4.4

m = 2, construire un process1J5 iteratif qui converge, pour une cer-


taine approximation initiale, non pas vers le point d'extremum abso-
lu cherche, mais vers un point d'extremum local. La fig. 7.4.3 visua-
lise Ies courbes de niveau d'une telle fonction et Ies approximations
obtenues.
Le deplacement n'est pas forcement cyclique. Si l'on sait, Ies
resultats de calculs anterieurs aidant, que le deplacement dans un
tel sens entraîne la plus grande diminution possible de CI> (x), on
se deplace plus souvent suivant ces coordonnees.
11 se peut egalement qu'apres avoir obtenu l'approximation xn
on choisisse, pour chaque n, un jeu de coordonnees
xi<n,lu, .•. ,. xim, q cn»
et qu'on avance de fa9on independante suivant Ies coordonnees
de ce groupe a partir de xn, i.e. on recherche Ies points P,m, k>xn.
On calcule ensuite
min <D (Pim, k,xn)
1~h~q(n)

et le point P i<n, llo> xn correspondant au minimum est pris pour xn+i.


408 :8QUATIONS NON LIN:8AIRES ET PROBL:8MES D'OPTIMJSATJON [CH. Vil

Les procedes que nous venons de decrire sont Ies methodes de


descente sequentielle optimale.
11 y a parfois indetermination dans le choix du numero de la
-coordonnee, ce qui permet de parler d'une descente aleatoire.
Une autre technique de descente est donnee par la methode de la
plus grande pente (ou methode du gradient). L'approximation sui-
vante ·est cherchee sous la forme
xn+t = xn -An grad <I> (xn)
(fig. 7.4.4) et la valeur de An se definit par la condition
min <D {xn - ~n grad <D (xn)),
An

c'est-a-dire que l'algorithme consiste lui aussi a minimiser de proche


en proche des fonctions d 'une variable ~n. :
Notons que la<< descente sequentielle >> et la << plus grande pente >>
ne necessitent pas une resolution complete des problemes de; mini-
misation. Parfois, il est raisonnable, apres avoir effectue un ţiepla­
cement vers le minimum de Ia fonction auxiliaire d 'une variable,
de passer au pas suivant du processus iteratif. Au voisinage de son
point de minimum la fonction auxiliaire ne varie guere, c' est pour-
quoi une localisation trop exacte de ce point ne conduit pas a une
diminution sensible des valeurs considerees.
S'agissant de la methode de la plus grande pente, le volume de
calcul exige par la ·minimisation des fonctions auxiliaires d 'une
variable est un probleme qui se resout compte tenu du cout relatif
de recherche des valeurs de Cl) (x) et de son gradient. Si le ·calcul
des premieres est essentiellement plus simple que celui du gradient,
il n'est que legitime de mieux localiser Ie minimum a chaque pas
d 'it~ration ; sinon, on ferait mieux de menager ses efforts.
Ilhistrons le choix d'une methode sur !'exemple type suivant:
soit un probleme aux limites non lineaire pour un systeme d'equa-
tions differentielles ordinaires. Nous montrerons plus bas (chap. IX)
que ce probleme se ramene ă. resoudre le systeme non lineaire d 'equa-
ti ons F (x) = O:
lt (x) = li (x1, .•. , Xm) = o_, t = 1, ... , m,
jouissant des proprietes suivantes.
La recherche d'une seule valeur li (x) et celle de toutes: Ies
ft (x), i = 1, ... , m, a la fois au meme point demandent un meme
volume de calcul (designons-le par A). II en est de meme du calcul
d 'une 81 1(x) et de celui de toutes Ies 0/i(x) , i = 1, ... , m; notons
8Xj 8Xj
B l'effort depense dans ce cas. D'une faţon generale ces couts A et B
sont tres eleves et B ~ A.
§&l M~THODES DE DESCENTE · 409

Donc il est plus logique de calculer


8/i (x)
---, j=1, ... , m,
OXJ;

a l 'aide de la formule approcbee


8/; (Xt, • • ., Xm)
OXj ~
~ fi (xt, ••• , XJ-t, x;+â, XJ+t, ••• , xi-fi (x1, ••• , Xj-t, Xj, XJ+h ••• , Xm) • (f)

La recherche de ces derivees coute alors 2A, i.e. autant que celle de deux jeux
de valeurs ·

et
ft (x1 , ••• , XJ-l, Xj + A, Xj+i, ••• , :tm)
(abstraction faite de la soustraction .et de la division · par A). ·
En presence d'une bonne approximation de la solution on peut dans cer-
tains cas utiliser la methode de Newton qui .est rapidement convergente.
Le domaine de convergence de la' metbode de Newton n'etant pas tras
vaste, ii serait peut-âtre opportun, au moins au debut du processus ·iteratif,
de ramener le probleme a la minimisation d'une certaine fonctionnelle et de le:
resoudre par . une tech'niqtie de descente. · · · ·
Examinons le cas simple de la fonctionnelle
. m
<I> (x) = 2J (Âd dx))2'
i=1
Ies Â.i = const =/=: O sont appeles facteurs ·d' echelle; en geneml on peut Ies choisir·
convenablement a partir des conditions de cbaque probleme concret.
Soit xn = (x~, • •• , x;:.) l'approximation obtenue a pa~tir de laquelle on
va avancer en .x1 • Il faut ~lprs calculer h (xn), i = 1, ... , m (si cela n'a pas
ete fait), et
h (xn, .â), i= 1, ... , m,
avec
Xn, A-(xn-1--'
-
xn . X0).
1 I u, 2• • • •• m '

ensm'te, on trouve par (i) 1es approx1mat1ons


· · l il des der1vees
•· • of8.dx) •
Xt
Au voisinage du point xn, on a sur la droite passant par ce point paralle-
lement a l' axe des x 1 :
/dx) ~ t, (x11) +lu (x1-x~);
aussi la coordonnee .x1 de l 'approximation suivante
. - ( x n+
Xn+i- 1
n ••• , Xm
1, X2, n)

se determine a partir de la condition


m
min ~ {Ât (/1, (x")+lu (x1-x1))) 2 •
. Xf i=1
La mise en oouvre d'un algorithme reel tiendra compte de plusieurs consi-
derations complementaires telles qu'un choix raisonnable de A par exemple:
lorsque /l est grand, la formule (1) donne lieu a une erreur d'approximation
-410 ~QUATIONS NON LIN~AIRES ET PROBLBMES D'OPTIMISATION [CH. VII

importante, et, pour /1 petit, l'erreur dans cette formule s'avere egalement
-elevee puisque Ies erreurs sur fi sont divisees par /1.
Supposons que nous avons opte pour la methode du gradient. Le calcul
-de grad CI> (xn) ne se fait qu'en connaissant toutes les derivees âf,· (xn)•; en utilisant
0Xj
.la formule (1) on aura un volume de calcul egal a (m + 1) A;
pour m grands,
le travail (m +. 1) A qu'exige le calcul de grad <I>(x) depasse sensiblement
.le cofi.t A de celui de CI> (x). Conse~uence: îl faut choisir plus scrupuleusement
le point de minimum dans la.Amethode de la plus grande pente

§ 5. Autres procedes de reduction


de la dimension des problemes
. On trou ve parfois interet a considerer le procede formei sui vant
-de reduction des problemes multidimensionnels a des problemes de
.dimension 1.
Soit a chercher le minimum CI>* de la fonction
<J) (x1, • •. , Xm)
•dans le domaine
<pi (x1 , • • • , Xm) ~ O, i = 1,: ••. , l,
(1)
'i'J (xi, ... , Xm) = O, j = 1.,: ••• ,; q.
II est possible d '«forire
Cl>*= min ' ... Xm
.avec
min <I> (xi, .•. , Xm);
xi, ... , Xm-1

chaque fois la fonction est minimisee sur son domaine de definition


•compte tenu des conditions (1). On a donc, au lieu du probleme ini-
tial de minimisation d 'une fonction de m variables, le probleme de
minimisation d 'une fonction d 'une variable dont chaque valeur se
-determine en realisant un minimum d 'une fonction de m - 1 varia-
bles. D'autre part, ramenons la minimisation de la fonction Cl>m (xm)
a la minimisation d 'une fonction d 'une variable telle que chacune de
ses valeurs est determinee en minimisant une fonction de m - 2 va-
riables, et ainsi de suite. On aboutit a la chaîne de relations
<D* = min Cl>m (xm),
xm
<Dm (xm) = min <I>m-1 (Xm-t, Xm),
Xm-1

<1>3 (x3 , ••• , Xm) = min <1>2 (x 2 , ••• , ·xm),


X2
<1> 2'(x 2, ••• , Xm)=min<l>(x1, ••• , Xm)•
Xi
!§ 5] AUTRES PROC:8D~S DE R:8DUCTION DE LA DIMENSION DES PROBLl!:MES 411

Cette methode si simple a premiere vuel est cependant tres labo-


·rieuse. Supposons que chaque minimisation de fonctions d 'une
variable exige le calcul des valeurs de la fonction a minimiser. La
minimisation de <Pm (xm) exige qu'on minimise min <Pm-i (.xm-l, Xm),
Xm-1
pour s valeurs du parametre Xm, c'est-a-dire s2 calculs de
•(f)m-i (.xm-i, Xm)- Cela demande a son tour la recherche de s3 valeurs
,de
<Dm-2 (Xm-2, Xm-1, Xm),
etc. Finalement, il faut trouve1· sm valeurs de la fonction <I>. Des
.set m moyens, disons s = 10, m = 10, le volume de calcul est inex-
tricable. Par contre, avec un m
petit, le procede considere admet
plusieurs mises en amvre interes- ~~~x~
:Santes. On se donne par exemple
une approximation au depart
{x1, . . . , x~) et on realise
1' algorithme indique pour une
valeur s pas tres im portante

Fig. 7.5.1 Fig. 7.5.2

(s = 3 ou s = 4). Les valeurs de la fonction sont recherchees


.aux points d 'un cube :
I X1 - x1 I, • • •, I Xm - X~ I ~ Ao.
Le point de minimum (x!, ... , x}n) obtenu sert d 'approximation
:suivante; l'approximation (x~, ... , x~) s'obtient de fa~on analogue,
mais Ies valeurs de <D sont calculees aux points du cube · 1.x1 - x} I, •.•
. . ., I Xm - Xfu I ~ A1, Ao > A1 > A2 > ...
Et voici une autre methode de structure semblable au procede
precedent.
Si Ies courbes de ni veau de la fonction <D ressemblent a des spheres,
Ies techniques de descente determinent un rapide deplacement
vers le minimum (fig. 7.5.1). Un cas plus typique est celui ou
412 llQUATIONS NON LI?IBAIRES ET PROB~MES D'OPTIMISATION [C.H. Vlli

ces courbes ressemblent a des ellipsoides dont Ies demi-axes accusent


une grande dispersion. Si l'on suit le gradient, on se deplace-
assez lentement dans la direction du minimum (fig. 7.5.2).
Supposons que Ies axes deces << ellipsoides >> se divisent naturelle~
ment en deux groupes dont le premier renferme m1 axes relative-

Fig. 7.5.3 Fig. 7.5.4

ment petits et d'un meme ordre de grandeur et le deuxieme m 2 axes


relativement grands et d 'un meme ordre de grandeur.
Dans certains problemes de ce genre on utilise avec bonhem: la
methode dite des ravins. On se donne des approximations x0 et x1
et on effectue a partir de chacune d'elles plusieurs pas par la tech-
nique de descente. Les approximations obtenues se notent X0 et X1 •
La fig. 7 .5.3 revele qu 'elles appartiennent a une variete situee au
voisinage des axes du deuxieme groupe. Le processus iteratif con-
siste a rechercher de proche en proche X0 , X1 , • • • appartenant au
voisinage de cette variete. Si m 2 = 1, xz+i s'obtient comme suit.
On mene une droite par xz-1 et X 1 et on determine l'approximation
x1+ 1 du point de minimum de <I> (x) sur cette droite. Cette approxi-
'§ 5] AUTRES PRO~D:8S DE·RiDUCTION DE LA DIMENSION DES PROBL~ES 41.3

mation se recherche donc sous la forme


x'+i= xz+a(X1 -xz-1).
Ensuite, avec au depart x 1+1 , effectuons plusieurs iterations, ce qui
,nous donne I' approximation xz+i, qui est situee elle aussi dans le
ravin. Si m 2 > 1, on recherche parfois x1+1 sous la forme
+
xl+l_= X 1 ~ (X 1 - x1- 1) +~grad (J> (X1).
La fţg. 7.5.4 montre que la methode decrite reste efficace .dans cer-
tains cas ou Ies courhes de niveau de CI) ont une forme plus compli-
quee.
La reso}ution du systeme d'equations
li (x1 , • • • , Xm) = O, i = 1, ... , m, (2)
se reduit formellement elle aussi a une resolution successive. d'equa-
tions a une inconnue. Considerons le systeme d'equations
li (x1 , • • • , Xm) = O, i = 2, •.. , m, . (3)
par rapport a x 2 , ••• , Xm, et soit x 2 (x1), • • • ,. Xm (x1) sa solution.
Portons Ies expressions de x 2 (x1 ), • • • , Xm (x1 ) dans la premiere
equation (2) ; nous obtenons- I' equation en x1
F 1 (x1 ) = 11 (x1 , x 2 (x1 ), • . • , Xm (x1 )) = O. (4)
La recherche des valeurs x 2 (x1 ), • • • , Xm (x1} et la resolution
de (4) peuvent se faire par un procede numerique: on choisit une
methode de resolution de (4) d'apres)es valeurs de F 1 (x1). En resol-
vant (3), pour chaque x1 cherche, on trouve Ies valeurs x 2 (x1}, • • •
• • • , Xm (x1 ) que l'on porte ensuite dans le deuxieme membre de
(4). La resolution du systeme (3) fait appel pour chaque valeur de x1
.-au ineme mode operatoire.
Soit X3 (x1, X2), ... , Xm (x1, X2) la solution du systeme d'equa-
tions
li (x1 , • • • , Xm) = O, i = 3, .. ~, m, (5)
relativement aux inconnues x 3 , • • • , Xm. En .portant cette solution
dans la deuxieme equation du systeme on. obtient
F 2 (:t1 , x 2) = I2 (xi, x 2 , x 3 (x1 , x 2), • • • , Xm (x1 , x 2 )) = O.
Elle se resout par rappo~t a x 2 pour tout x1 • Sa solution x 2 (x1 ) et
x 3 (x1 , x 2 (x1 )), • • • , Xm (x1 , x 2 (x1}} forment la solution du syste-
me (3). On resout le systeme (5) pour chaque valeur de x1 et x 2 en
se ramenant a un systeme dont le nombre d 'inconnues est inferieur
d'une unite, et ainsi de suite.
Si la recherche de chaque equation auxiliaire a une inconnue exige
s calculs de fonctions, cet algorithme conte en tout s + ...+ sm
calculs des deuxiemes membres des equations du systeme.
414 ~QUATIONS NON LINli:AIRES ET PROBL"BMES D'OPTIMISATION (CH. VII'

De meme que la methode de minimisation decrite au debut de ce-


paragraphe, l'algorithme en question est d'un emploi assez rare et.
ii s'applique d'habitude dans le cas de m faible et pour une position
relative compliquee des surfaces li (x1 , • . • , xm) = O.
PROBWME. Que devient la methode decrite pour un systeme (2) lineaire?'

§ 6. Methodes de stationnarisation
On resout tres souvent Ies problemes du type considere par une·
methode de stationnarisation, i.e. on construit un processus non
stationnaire dont la solution tend a la limite, pour t -), oo, vers la
solution du probleme initial. Soit un systeme d'equations diffe--
rentielles
!; +grad<I>=0. (1}

Le vecteur !:
est proportionnel au gradient de <I>, i.e. orthogonal a
ses courbes de niveau et dirige dans le sens des <l> decroissants. Ainsi„
lors du deplacement sur la trajectoire du systeme (1) la valeur de <I>
ne croit pas. Cette affirmation est formellement legitimee par l 'ine-
galite
d<D (x) ( dx )
-d-t- = grad CD, Tt = -(grad <I>, grad <I>), (2}
qui signifie que d~~x) est inferieure a zero partout sauf aux points
stationnaires de la fonction Cl> (x).
Un autre processus non stationnaire dont la solution tend a la,
limite, sous des hypotheses tres generales, vers un point de minimum
de F (x) est gouverne par le systeme differentiel
d2 x dx O
dt2 +YTt+ grad <D= ' y>0. (3),

On a pour ce systeme

:t (! (!; , !: )+ <I> (x)} = ( !: , :! )+ (grad <I>, !: )=


= -y ( :; , :: ) < o, (4)
a condition que !: O. Dans Ies deux cas, on peut identifier Ies
=fo

fonctions Cl> (x) et !(:, ~~) + <l> (x) a !'energie d'un systeme mate-
riei dont le mouvement est gouverne par Ies systemes d'equations (1)
et (3). Les relations (2) et (4) montrent que Ies processus non station-
naires eonsideres se caracterisent par une dissipation d 'energie.
§ 6] M~THODES DE STATIONNARISATION /415-

Pour nous guider dans le choix de y considerons un modele ele-


2
mentaire: x scalaire, <I> (x) = a~.x ; l'egalite (3) se recrit alors.
x" yx' a2x = O + +
et l'equation caracteristique correspondante
Â2 + y + a2 = O;

ses racines sont Â1 , 2 = - ~ ± - y"~ 2


a 2 et sa solution general&
c1 exp ("-it) +
c2 exp (Â 2t) pour "-i =I= Â2 , i.e. y -=I= 2a.
Les solutions de l'equation analysee decroissent avec une vitesse
determinee par

Si y-<2a, on a l - a -<0,
2
2 donc

ReÂ1 =ReÂ2=0'(y)= - ~ >-a.


Si '\' > 2a, Â1 et Â2 sont reels et evidemment

Re Â1 = - 2'Y + -./y2 „ Re Â. 2 =
y 4 - a-> - 2y - -
V- ~2
4- a •
Alors

O' (y)= Re "-1 = - 2


'\'
+,
y 4~
-a2 =

a2 a2
= ---~-::;:::==>-->-a
'\' ,/y2 '\'
.
2+V T-a2 2
Ainsi, le graphique de u (y) est de la forme representee sur la
fig. 7.6.1 et mina (y) = u (2a) = -a. Ce probleme modele auto-
v
rise Ies conclusions suivantes.
6

______ ,
(2a,-o)
Fig. 7.6.1
1. Si le coefficient de frottement y est insignifiant (y ~ 2a.
dans notre cas), la solution du systeme (3) tend lentement vers la
416 8QUATIONS NON LINl!lAIRES ET PROBL:E:l\1ES D'OPTIMISATION [CH. VII

position d 'equilibre; ceci etant (vu la condition Im Âi_, Im Â. 2


elle oscille pres du. point d'equilibre. .
O),, *
2. Si y est fort (y ~ 2a), la solution s'equilibre toujours lente-
ment; la cause en est l 'impossibilite, pour le mouvement, de devenir
suffisamment rapide lorsque le coefficient de frottement y est impor-
tant.
3. La valeur optimale de y est situee quelque part au milieu et
depend des proprietes de chaque fonction <l> (x) concrete.
La methode de stationnaristion a l'aide du systeme (3) est quel-
quefois appelee methode!de la boule pesante.
Considerons, en effet, le mouvement d'un point materie! sur la
surface y = <I> (x) dans le champ de pesanteur orienta dans le sens
des y negatifs et supposons que le frottement est proportionnel a la
vitesse et que le point ne peut quitter la surface. Son mouvement
est alors decrit par le systeme d'equations
d2x dx grad <I> •
dt2 + y dt + 1 + li grad <I> 11 2 O.
11 est clair que la solution de ce systeme tend a la limite ·vers un
-certain point stationnaire de la fonction <I> (x). Au voisinage des
points stationnaires li grad <DII ~ 1 et notre systeme est proche du
systeme (3).
La plupart des methodes de stationnarisation connues sont gouvernees par
.des equations de la forme

A0 ( x, ~~ ) !~ + A1 ( x, ~~ , grad <I>) = O,
ou

.ou
A 0 {X, O) #= O, A1 {X, O, O) = O,
B 0 {X, O) #= O, B1 (X, O, O) = O
,et sont realisees Ies conditions de dissipation qui garantissent la convergence
vers le point d'extremum. Formellement, on peut inverser Ies operateurs Ao
et B 0 et transformer ces fequations de faţon que A 0 et B 0 soient identiques.
-Cependant, l'ecriture initiale s'avere souvent plus commode.
On croirait que la construction de tels processus non stationnai-
res tendant a la limite vers la solution resout completement le
probleme de recherche du minimum et qu 'il ne reste << plus >> qu 'a
integrer le systeme obtenu d' equations differentielles a l' aide d 'un
programme standard approprie.
En realite, ce probleme n'est pas toujours rasolu de faţon satis-
faisante par la reduction d 'un probleme stationnaire a un probleme
qui ne l'est pas. 11 reste une question importante en suspans, celle
-du choix de la longueur des pas d 'integration. Supposons que la
§ 6] MgTHODES DE STATIONNARISATION 4f7

stationnarisation a lieu avec la -precision demandee pendant un inter-


valle de temps T. Sile pas d'integration A est petit, Ies points obte-
nus avoisinent la trajectoire consideree et on peut esperer tomber
dans un voisinage restreint du point de minimum. Cependant, le
nombre de pas TIA peut s'averer inadmissible (fig. 7.6.2). Si, au

Fig. 7.6.2 Fig. 7.6.3

contraire, on integre avec un pas tres important, on risque de voir


Ies points s'ecarter fortement de la solution consideree et ne jamais
penetrer dans le voisinage cherche du point de minimum (fig. 7.6.3).
Pour comprendre ce mecanisme adressons-nous a la fonctionnelle
1
(l)O (x) = 2 {Ax, x) -{b, x), (5)

dont le minimum est realise, pour A > O„ sur la solution du systeme


Ax = b. Le systeme (1) s'ecrit alors
dx
7t+(Ax-h)=0.

En rempla9ant la derivee :: par un rapport aux differ~nces simple,


il vient
x (tn+tl-x (tn) +Ax (tn)-h ~O;
tn+1-tn
la formule de calcul correspondante est
xn+t = x"- An (Ax" - b), An= tn+t -tn.
Soit le cas An ==A= const -=I= O. On a alors
xn+1 =xn-A (Ax"-b).
Mettons cette relation sous la forme xn+i = Bxn c, ou B = +
= E - AA, c = Ah ; soient Â1 ~ • • • ~ Âm Ies valeurs propres
27-01007
418 SQUATIONS NON LINSAIRES ET PROBIB~ D'OPTIMISATION [CH. VII

de A, Âml'Ă1 ~ 1. Les valeurs propres de la matrice B sont 1 - â'A1•


Si â est tres petit, la valeur propre 1 - A'Ai est proche de l'unite,
et le nombre d 'iterations est grand. Pour un â notable, la valeur
propre 1 - â'Am a un module superieur a 1 et le processus iteratif
diverge. Plus haut nous avons defini la valeur optimale â =
+
= 2/(M µ) du pas dans un processus pareil pour une matrice A
dont Ies valeurs propres sont corn prises entre des bornes M, µ con-
nues. Si la valeur ân est definie a chaque pas par la condition
min <1> 0 (xn - ân grad CI> 0 (xn)), la methode de stationnarisation
ân
coincide dans le cas considere avec le procede de la plus grande pente
(pour Ies particulari tas de l'integration de tels systemes, voir § 11 t
chap. VIII).
Donnons-nous un pas constant An = tn+i - tn == â et ecrivons
l'une des approximations Ies plus elementaires de l'equation (3):
xn+1-2xn+xn-1
A2
+ y xn+f_
2A
xn-t
+ grad IT\ (
',LI
n
X )
O
= .
En se pla~ant dans le cas de la fonctionnelle (5) cette egalite
devient

En choisissant A et y de fa~on appropriee, cette relation se met sous


la forme (6.7.21) et on obtient un processus iteratif qui ne differe
g~ere du processus lineaire optimal (6. 7 .16). Nous a vons vu ( § 7,
chap. VI) que celui-ci permet d 'obtenir la solution avec une precision
donnee au bout d 'un nombre d 'iterations sensiblement moins grand
que celui qu'exige la methode iterative simple. C'est pourquoi la
stationnarisation par integration numerique du systeme (3) est
generalement plus efficace que celle correspondant a l'integration
du systeme (1:).
A present, donnons-nous une suite t0 , t 1 , • • • d 'intervalles de
temps et rempla~ons Ies derivees de (3) par des differences divisees.
Avec l 'hypothese de y dependant de tn, il vient
xn+i-xn xn-xn-1
2 tn+1-tn tn-tn-1 +Yn xn+i_ xn-1 +(Axn-h)= O.
tn+1-tn-i tn+1-tn-i

A condition de choisir convenablement Ies parametres Yn et tn, ces


relations peuvent decrire le processus lineaire optimal (6. 7.15) de
mâme que la methode du gradient conjugue.
L'analogue de cette derniere methode dans le cas de la recherche
du minimum d 'une fonctionnelle de forme generale CI> (x) peut âtre
§ 6) M~THODES DE STATIONNARISATION 419

la technique suivante: les approximations consecutives sont cher-


chees comme
+
xn+i = xn an (:x."-xn-1) + ~n grad (l) (x")
avec an et ~n definis a partir de la condition min (l) (xn).
a.n, Bn
Cette correspondance entre Ies methodes de resoiution des pro-
blemes stationnaires par stationnarisation et Ies procedes par ite-
rations ordinaires permet de decouvrir des methodes iteratives et
des processus de stationnarisation inedits.
Considerons, par exemple, Ies formules de Newton
xn+l_xn= -(F' (xn)rt F (xn) (6)
de resolution du systeme non lineaire F (x) = O. Elles s'interpretent
comme suit: introduisons un. t continu et prenons xn pour valeurs
d 'une cerţaine fonction aux instants tn = n. La reiation (6)· se
recrit alors :
xn+1 xn
-t-n+-1-tn- = -(F' (x.n))-1 F (xn),
et est estime( âtre le resultat de l 'approximation du systeme

:: = - (F' (x)t1 F (x). (7)


La soiution du probleme initial est un point stationnaire de ce
systeme. Pour x =X+ 1) on a
(F' (x)t1 = (F' (X))-1 + O (li 1) li),
F (x) = F (X)+ F' (X) 11+0 ( 111111 2) = F' (X) 11 +o ( 111111 2),
donc
~~ = :: = -((F' (X)t1 +0 (1111 li)) (F' (X) ~+o (111111 2))=
= -11+0 (1111112).
Il en decoule que x = X est une solution asymptotiquement stabie
de (7).
En substituant a la derivee !:
le rapport aux differences relati-
vement aux valeurs de laJonction en certains points t 0 = O, ţh .. ·:t
il vient

ou encore
(8)
La construction d 'un processus non stationnaire correspondant a
la methode de Newton a donc eu pour resultat le processus iteratif (8)
d 'une forme plus generale.:
27*
420 '8QUATIONS NON LINiAIRES ET PROBLBMES D'OPTIMISATION (CH VII
A •·

Cet exemple montre que le passage d'un algorithme d'iteration


au processus non stationnaire cor~espondant a beaucoup de commun
avec la construction de la fermeture d 'un algorithin.e de calcul (la
notion de fermeture d 'un algorithme sera introduite au§ 4, ehap. IX).
Nous n'avons demontre la eonvergence de la methode de Newton
que pour une approximation initiale assez bonne de la solution.
Pour elargir le domaine de convergence on utilise parfois la variante
suivante de la methode de Newton.
On 88 don ne une fonctionnelle <I> (x), disons li F (x) 11 2 , dont la borne infe-
rieure est realisee par la solution du probleme. On recherche Ies approximations
successives sous la forme (8), An etant defini A partir de la condition
min <I> (xn-An (F' (xn))-l F (xn)).
6.n
11 s'agit alnrs de trouver la valeur de An realisant ce minimum.
Voici l'une des procedures repandues. On se donne Â. E (O, 1), 8 E (O, 1]
et l > O entier, on calcule de proche en proche, pour chaque n,
xn+l, i=xn-Â.i(F' (xn))-1 F (xn), . t=O, ... , l,

et qn+t, i =- <I> (xn+t, i). Si, avec un k < l, on a qn+t, k ~ 8<1> (xn), on arrete
le calcul et on pose xn+t = xn+t, k ; dans d 'autres procedures, on trouve
min qn+t, i = qn+t, m et on, pose xn+t = xn+t, m.
O<~l
Si
qn+t, o, , •• , qn+t, i > 8<1> (x"),
ii en resuite, salon le programme,
1) un eassage momentane A une autre methode,
2) l'arret,
3) une variation des parametres l, Â, 8.
Notons en guise de conclusion que les methodes de stationnarisation s'appli-
quent egalernent lorsqu'il s'agit de minimiser une fonction dans des domaines
avec contraintes. On complete alors (1 ), (3) par des equations regissant la trajec-
toire du point tombant sur la frontiere.

§ 7. Que faut-il optimiser ?


Nous venons d'examiner plusieurs procedes de minimisation de
fonctions et de resolution de systemes d'equations non lineaires.
Bien que la liste des methodes soit a peine entamee, passons ad 'autres
questions aussi importantes.
De nombreux problemes de gestion industrielle et agricole, de
transports, de repartition de ressources, etc., se ramenent, nous
f avons deja dit, a minimiser des fonctionnelles (fonctions). Dans ces
cas il est d 'usage d 'appeler ces problemes de minimisation problemes
d'optimisation etant donne que le but qu'on s'assigne en premier
lieu est de realiser un regime de travail optimal. La·· fonction A
minimiser est alors appelee objectif ou fonction economique.
§ 7] ·.. QUE 'FAUT·IL OPTIMISER? 421

La resolution des problemes d.'optimisation comprend l 'elabora-


tion du modele mathematique du pbenomene, la definition de l'ob-
jectif et des parametres les plus importants a optimiser, la minimisa-
tion directe d 'une fonction (dependant en general d 'un grand nombre
de variables), la mise en pratique des resultats de l'etude.
11 est naturel que Ies deux premieres et la derniere question soient
examinees par Ies mathematiciens de concert avec Ies representants
de la branche interessee.
...:,;-~

Considerons un'exemplerreel de choix dtun modele. Pour produire du sucre


on doit cultiver la betterave sucriere, la transporter jusqutaux usines et lui
faire ·subir un traitement approprie. Les mathlmaticiens qui se sont propose
d'optimiser la production en question ont entrepris en premier lieu de minimiser
Ies frais de transport, probleme qui a ete resolu avec succes a l'aide des machines
a calculer. Les responsables ont cependant decline le programme ainsi obtenu,
car, selon eux, il ferait empirer dans une certaine mesure Ies conditions de trans-
port d'autres cultures agricoles et compliquerait l'organisation du traitement:
certaines sucreries seront surchargees de travail tandis que d'autres ne fonction-
neront pas A plein rendement. ·
Voyons le bien fonde de ces objections.
Le prix de revient du sucre se compose (Ies cbiffres sont conventionnels):
du cout de la betterave A sucre (80 %),
des frais de trans~ort (5 %), -
des frais de transformation (15 %).
La minimisation des frais de transport reduit ces derniers de 10 %, soit
0,5 % du prix de revient du sucre. Par contre, ce remaniement demande de
gros efforts et l'on ne sait pas trop si d'autres pertes plus grandes encore ne
viendront pas se greffer A cause de certains facteurs qui auront ete negliges.
La structure ci-dessus du prix de revient montre que l'optimisation des
frais de transyort et de transformation ne permet pas une augmentation sensible
de l'efficacite de la production. En approfondissant le probleme on a constate
que le rendement en sucre par tonne de betterave est proportionnel A la teneur
en sucre de la plante; or, le parametre teneur en sucre varie selon une loi deter-
minee durant la maturation et diminue avec le stockage. En particulier, une
recolte tardive est cause de _pertes importantes du fait que de grandes quantites
de betterave arrivent simultanement dans Ies sucreries qui Ies mettent pour
longtemps en magasin. On a donc defini une nouvelle fonction economique -
l'optimisation du rendement en sucre (pour un materiei donne), et construit
un modele mathematique tenant compte de la variation de la teneur en sucre
de la betterave durant le ramaf:sage et l'emmagasinage.
Une analyse ulterieure a revele un defaut de ce modele. Pour un boraire
optimal (selon ce modele) de travail, le ramassa_ge dev_ait commencer des la
periode de croissance active de la· plante, ce qui desavantageait ecnomiguement
Ies cultivateurs. II fallait donc que le modele J)renne en consideration l'interet
de ces demiers. En resolvant un probleme d'optimisation on doit viser par
consequent non seulement un plan de production, mais aussi~ un systeme de
paye optimal.I

DaEs Ies prob1emesr·mathematiques on s'interroge"e(!'alement sur


l'objet de l'optimisation. Voici un exemple typique. Une fonction
est donnee par une expression analytique compliquee ou par un
tableau; on demande de l'approcher avec une~, precision donnee
par une expression simple.
422 :8QUATIONS NON LIN.8AIRES ET PROBL&MES D'OPTIMISATION [CHe VII

Etudionsj ce probleme pour la fonction


2k-1
8 oo exp ( 2 :nq )
f(q)=i-"ii° ~ (2k-1)211 , O~q~oo.
k=t

Effectuons pour simplifier le changement de variables

:,; = exp ( - :ni ) ,


t.e. considerons le probleme d'approximation de la fonction
00
. 8 :,;Sk-1
. g (z) = 1-ni" ~ (2k-f)Z sur [O, 1].
1'=1

Les tentatives d' ap,l!rocher par des polyn6mes ont ete infructueuses, car, 1' analyse
l'a montre, g'(z) n etait pas bornee au voisinage de z = 1. L'etude de la singu-
larite de la derivee dans ce voisinage a suggere de chercher l' approximation sous
la forme
k (z)=(i-z) (ao+a1z+a2z 2) ln !+: +z(as+a,x)+t.

Grâce a un choix heureux des parametres ai on a reussi a approcher la fonction


A 10""' pres.:
D'autres essais ont montre que pour z ~ to""' g (z) pouvait âtre approchee
ă. 5-10""' pres par une expression de la forme
(1-z) (1+ x (a1 +a2x))
+
1 a3x+ a6x 2 a 5x3 +
Une fois qu'on a choisi la classe d'objets dans laquelle on cherche
la solution du probleme, il faut parametriser convenablement cette
classe. Ainsi, le polynome
n
Q(x)= ~ aixi,
i=0
qui approche / (x) sur le segment [ -1, 1], s'ecrit
n
Q (x) = ; 2 + ~ b1Ti (x).
0

i=t

La premiere ecriture est, nous l'avons deja dit, a bannir a cause d 'une
erreur de calcul eventuellement importante. La deuxieme ecriture
presante un autre avantage. Supposons que le polynome approxi-
·mant est defini a partir de la condition
1
min <I>, ou a>= r '(f(x)-Q (z))I dx.
Q J
-1
v1-z2
§ 7) QUE FAUT-IL OPTIMISER? .423

En acceptant la premiere ecriture, Ies surfaees de niveau de


<I> (a 0 , • • • , an) = eonst sont des ellipsoides dont Ies axes sont
tres disperses ; aussi Ies methodes iteratives de minimisation de eette
fonction sont-elles lentement convergentes. Avec la deuxieme eeri-
ture ·on a
1 . 1
(I) (bo, ••• , bn)=
Jr ~
-1
1.-z2
.
dx-V2bo Jr ✓1-
-1
(z) dx-
:,:2

n 1 n
-2 ~ b
LJ i
r
J
f(z) Ti{~)
1/1-z2
dx+ ~ ~ lb~-
2 L.J I i,
i=1 -1 i=O

Ies surfaces de niveau de <I> (b 0 , • • • , bn) sont des spheres et Ies


procedes de minimisation par iterations garantissent une rapide
eonvergence vers le point de minimum (ee point est connu en l'oceur-
renee).
Un bon choix des parametres et des eriteres de leur definition est
particulierement important lors du traitement des resultats d'obser-
vation.
Prenons pour modele unidimensionnel du mouvement d'une avalancbe
de neige le systeme d'equations aux derivees partielles
~+
ât
{Jh,v =0
os '
âv âv g 8h11 cos ,i, . vs •
Tt+vas+ 2k os g(sm,J>-µcos,i,)-kŢ' (1)

Ies conditions aux limites au front avant de l'avalanche s'ecrivent


1
k (w-v) = hd1', h(j,Dv= gh2 cos ,i,-ah,
2
ou k est l' epaisseur de la neige, ~ la vitesse de l' avalanche, 11> la pente, w la vitesse
du front avant et µ, k, a des parametres inconnus.
On a essaye de determiner ces derniers parametres en observant le front
avant de l'avalanche qui se depla~ait sur un versant de pente constante ,i, =
= const.
On a essaye de determiner ces param.etres a partir de la condition de mi-
nimum de
«l> (µ, k, a}=~ (• (µ, k, a, ti)-s,>B;
i

<t, k, a, t1}
s1 designent Ies positions observees du front avant aux. instants tţ et s
les positions ohtenues par integration oumerique du systeme t1l· L ap\>licatţon
directe d'un nombre important de metbodes de minimisation n a revele aucune
tendance a la stabilisation de la part des valeurs calculees de µ, k,· a. Une
analyse du probleme a permis d'en decouvrir la cause. C'est que pour ,i, =
= const l'egalite approcheeJ s (µ, k, a, t) ~ '1.t est remplie avec un degre
~=
312
d'exactitude eleve; dans cetteegalite 1 = ( 1 + ; ~) , tg ;_ µ. Aussi
424 :mQUATIONS NON LINi;_:AIRES ET' PRQBLl;:MF.S D'OPTIMISATION (CH. VII

la fonction CI> (µ, k, a) est tres voisine d'une fonction Cl> 0 (Â). En minimisant <1>
en µ, k, a, on peut donc esperer obtenir non pas les valeurs de tous les parametres
µ, k, a correspondant au point de minimum, mais seulement la valeur· Â cor-
respondant a ce point. Supposons que Cl> 0 (Â) est atteinte pour  = "-o· La sur-
face  = Â0 est bidimensionnelle, et, dans notre cas, c'est une surface cylin-
drique dans l'espace des variables µ, k, a. Sur cette surface la fonction
CI> (µ, k, a) est approximativement constante et sa minimisation numerique
determine un deplacement en apparence chaotique des points (µ, k, a) sur
 = "-o• La veritable raison de notre echec n'est donc pas dans Ies defeuts des
procedes de minimisation, mais dans l 'tnsufftsance de l'information par rapport
au but fixe.
Mais passons du concret au general.
Quand on construit le modele d 'un probleme, on a envie d 'elaborer
un modele mathematique detaille qui prenne en consideration de
nombreux elements du probleme, puis d 'optimiser celui-ci complete-
ment en choisissant au mieux tous Ies parametres. Cette voie est riche
en ecueils.
Les premi~res difficultes apparaissent des qu'on se met a deerire
le modele; en voulant prendre en consideration trop de choses a la
fois on risque de passer des faits importants et de nuire ainsi a la
qualite du modele. Lorsqu'on procede a une optimisation relative-
menta un grand nombre de parametres, on a a minimiserune.fonetion
de nombreuses variables. Or, en resolvant numeriquement ce pro-
bleme on se heurte parfois a des obstacles insurmontables.
Supposons que nous avons tout de meme reussi a minimiser une
telle fonction. Le probleme suivant est de communiquer l 'informa-
tion re~me au client afin de mettre en reuvre Ies resultats de l'analyse
mathematique du modele. En prenant la decision le client se guide
generalement sur ses criteres qualitatifs personnels sans s'interesser
aux detaila du modele. Si bien que si l'information qui lui parvient
porte sur un nombre trop grand de parametres, îl n'est pas en mesure
de se faire une opinion sur Ies recommandations et il y a de fortes
chances qu'il Ies refuse purement et simplement. ;,
Aussi, dans Ies premieres phases d'optimisation, il importe sur-
tout de construire un modele elementaire refletant Ies parametres
principaux, determinants. Cette tactique a egalement une autre
raison d'etre. Au debut le client eprouve generalement de l'appre-
hension a l'egard des mathematiciens qui abordent en novices le
domaine qui leur est propose. Ce n'est qu'apres avoir gagne sa con-
fiance en obtenant de bons resultats dans l'optimisation des para-
metres essentiels, qu 'il vaut la peine de tenir compte de l'influence
des parametres negliges parmi Ies plus importants. 11 ne faut pas non
plus perdre de vue que la construction meme d 'un modele ameliora
du phenomene ne devient d'ordinaire possible qu'apres que le client
et l'utilisateur analysent en commun Ies resultats du calcul du modele
simplifie.
11 importe egalement que Ies resultats des recherches, lors-
qu' on a a Ies discuter de concert. avec des non-mathematiciens, soient
§ 8) . COMMENT OPTIMISER ? 425

suffisamment suggestifs et presentes avec un appareil mathematique


reduit a sa plus simple expression. Un recours injustifie a des notions
mathematiques abstraites s'avere rarement d'une utilite quelcon-
que.
§ 8. Comment optimiser ?
Une fois que le modele et la fonction economique sont choisis
et le probleme parametrise, on · doit minimiser une fonction (d 'ordi-
naire de plusieurs variables) dans un domaine avec de nombreuses
contraintes - egalites ou inegalites. La presence de contraintes
complique singulierement le probleme de minimisation: il arrive
generalement que le point d'extremum est un point frontiere du
domaine. Vu !'extreme complexite du probleme et l'existence d'une
litterature speciale abondante nous passerons outre aux divers raffi-
nements relatifs a la minimisation dans un domaine avec contraintes
et nous nous bornerons a des questions d 'ordre general.
Les problemes d 'optimisation jouant un grand role dans Ies
domaines d'activites Ies plus varies, on dispose actuellement d'un
arsenal fourni de methodes et de programmes standard correspon-
dants. C'est pourquoi un probleme concret isole fait le plus souvent
appel a I 'un des programmes usuels disponibles.
Lorsqu'on aborde un probleme nouveau, il est utile de prendre
en consideration Ies faits suivants. En ce qui concerne Ies methodes
examinees dans le presant chapitre la convergenee des approxima-
tions a toujours ete demontree sous l 'hypothese d 'une approximation
initiale suffisamment bonne. Cette eontrainte imposee a la methode
est intrinseque; ainsi, la surface de niveau d'un polynome de degre n
en m variables peut renfermer environ n"' composantes independan-
tes dont la position relative est assez compliquee, et ii est donc pra-
tiquement impossible de construire un a]gorithme permettant de
trouver rapidement le minimum d·'un polynome quelconque du
huitieme degre en dix variables.
On en tiendra compte en utilisant des programmes standard dont
la description stipule la possibilite de minimiser des fonctions d'un
tres grand nombre de variables. Dans ce meilleur des cas il se peut que
a) le programme resolve efficacement des problemes de minimisa-
tion appartenant a une classe que l'auteur du programme a l'habi-
tude de manier ou que
b) formellement parlant, le programme soit apte a aborder tout
probleme de minimisation mais le temps de resolution est prohibitif
dans la p]upart des cas.
Lorsqu 'on est confronte a un nouveau probleme, on est souvent
oblige d'elaborer des methodes de recherche de l'approximation
initiale qui sont specifiques a Ia classe etudiee. L'exempJe ci-dessous
vous montrera que Ia recherche d 'une approximation initiale accepta-
ble est un probleme ardu. _,
426 ~QUATIONS NON LIN~AIRES ET PROBLl!lMES D'OPTIMISATION [CH. VII

11 existe plusieurs programmes usuels de meilleure approximation de fonc-


tions par le rapport
Pm{x)
{i)
Qn {:z:)
de polynomes de degres m et n donnes. En elaborant un programme standard
de calcul des integrales de Fresnel on s' est livre aux experiences suivantes.
Chacun des program.mas a ete misa l'essai en vue d'approcher la fonction con-
+
sideree sur un segment pour tous Ies m et n compris dans Ies limites O < m n ~
~ 12. Dans 3 cas au moins sur 90 chaque programme renvoyait a l'etiquette
IMPOSSIBLE; dans certains programmes on avait plus de 50 % de refus.
D'autre part, pour tous ces J_>rogrammes, on a demontre des theoremes de con-
vergence sous l 'h1pothese d une approximation initiale assez bonne. On peut
donc dire qu'il n existe pas encore de programme standard. efficace et univer-
sal, de recherche de la meilleure approximation d'une fonction par des fractions
rationnelles de la forme (1.).
Afin de ne pas faire accroire que la resolution de problemes d'opti-
misation tant soit peu compliques est une entreprise desesperee,
voyons fa meme question d 'un reil plus optimiste.
Vus sous cet angle, nos arguments a l'appui de la complexite
de la minimisation des polynomes paraissent peu convaincants.
En effet, on ne nous demandera jamais de minimiser un polynome
arbitraire. Certains pensent que Ies problemes de minimisation de
fonctions possedant des courbes de ni veau d 'une structura tres com-
pliquee sont rares.
Considerons un e~emple de probleme ou la necessite mâme de sa
resolution peut âtre mise en doute.
L'impossibilite d'obtenir une bonne approximation initiale peut
s'expliquer par le comportement de la fonction consideree: le point
de minimum se trouve dans un << puits >> tres etroit et en s'en eloignant
dans toutes Ies directions la fonction s' accroît brusquement, puis
commence a decroître (fig. 7.8.1). Supposons que ce minimum est
realise en se depla~ant le long de grad <I>, en d 'autres termes en
integrant le systeme
dx
dt+grad <I>= O• (2)

L'ensemble des conditions initiales a partir desquelles on arrive


a ce point de minimum est contenu dans un petit voisinage de ce
dernier. On peut dire qu'en adoptant pour le voisinage du point
de minimum une echelle microscopique ce point s'avere un point
attractif des solutions du systeme (2); pour une echelle plus grande,
c'est un point repulsif (fig. 7.8.2). Ce comportament des approxi-
mations successives du point de minimum est egalement propre
aux autres methodes iteratives.
Si le << puits » dont nous avons paria est tres etroit, il ne vaut
parfois pas la peine de chercher le point de minimum. En effet,
supposons que Ies parametres x, correspondent a un systeme de
§ 81 COMMENT OPTIMISER ? 427

eommande reel ; le fonctionnement de ce systeme sera perturba par


certaines variations de ces parametres. Si le point de minimum de la
fonction ct>i se trouve dans un tel << puits >> etroit, de faibles varia-
tions des parametres sont susceptibles de deteriorer sensiblement

Fig. 7.8.1 Fig. 7.8.2


les performances du systeme. A la lumiere de ces faits, le choix. du
point d'extremum dans le cas represente par la figure 7.8.3 demande
un examen com plementaire. Les chercheurs qui ont l' experience

Fig. 7.8.3

des problemes d 'optimisation affirment que Ies fonctions economi-


ques presentant des << puits >> etroits sont le resultat d 'une mauvaise
.construction du modele mathematique.
Mais nous avons des raisons plus serieuses d'âtre optimistes.
Dans de nombreux cas la creation d 'un modele mathematique et
son optimisation ont pour but d'ameliorer le fonctionnement d'un
systeme existant. Les parametres de celui-ci sont souvent une bonne
approximation pour demarrer l'optimisation.
428 :8QUATIONS NON LIN:8AIRES ET PROBLEMES D'OPTIMISATION [CH. VII

L'elaboration.d'un nouveau systeme diete d'ordinaire la tactique


suivante. On commence par construire et optimiser un modele tres
simple refletant Ies facteurs essentiels. Le modele se complique pro-
gressivement par adjonction de nouveaux facteurs. II nous faut
donc considerer de nouveaux problemes de minimisation de fonc-
tions dependant d 'un nombre toujours croissant de parametres.
Si Ies modeles auxiliaires sont construits convenablement, la solu-
tion de chaque probleme d 'optimisation constitue en general une
bonne approximation initiale pour un autre probleme plus compli-
que. .
Cette circonstance est souvent mise a profit de la maniere sui-
vante. Soit a minimiser une fonction dependant d 'un grand nombre
de parametres x1 , • • • , Xn· Formons une fonction dependant d'un
nombre moindre de parametres X 1 , • . • , Xm, m < n, qui approche
la premiere, autrement dit construisons un modele simplifie avec
Ies parametres essentiels X 1 , • • • , Xm. Optimisons le modele et
prenons l'approximation obtenuo pour approximation premiere de
l'optimisation ulterieure. Cette simplification du modele et l'intro-
duction de nouveaux parametres sont parfois effectuees a plusieurs
reprises.
L'optimisation de fonctions (modeles) dependant d'un nombre
moindre de parametres est une operation plus facile : Ies courbes de
niveau de la fonction a minimiser sont de structure plus simple et la
recherche de chaque valeur de la fonction exige un volume de calcul
moindre.
EXEMPLE.I On cherche min cI> (xu x 2 , x 8):
xs, x2, xa
cI> (zi, z 2, z 8) = 1,1zf - 2z1z2 + + +Z§ zj exp (x1x8).
La fonction cI>i(x1, lzs, z 3) est proche de

Evidemment
+ +
Cl>1 (z1 ~ z 2, z 8) = (z1 - z 9)2 zi exp (z1z1).
min Cl>1 (zt, •2, zs)=Cl>2 (zt, xa)~z3+exp (z1za).
:IC~

La recherche de l'appro:ximation initiale s'est ramenee a minimiser une fonction


de deu:x variables.
La construction d'un modele simplifie n'implique pas ohliga-
toirement la diminution du nombre de parametres.
Qu 'entend-on par facteurs ou parametres principaux? On peut
dire que ce sont ceux dont la fonction depend fortement; en termes
des mathematiques, cela signifie que Ies derivees de la fonction par
rapport a ces parametres sont relativement grandes. Les parametres
secondaires sont ceux dont la fonction en question depend faihle-
ment, i. e. tels que Ies derivees par rapport a ces parametres sont
petites. Si la derivee de cJ> (x1, ... , Xn) par rapport 8 Xn est petite,
cela veut dire que celle-ci est proche de la fonction Cl> (x1 , • • •
• • . , Xn-i, xn), Xn = const„ qui depend d'un nombre moindre de
§ 8) COMMENT OPTIMISER ? 429

parametres. On definit formellement l'importance des parametres


en appreciant Ies derivees de la fonction. Cette evaluation est cepen-
dant laborieuse pour des problemes compliques; une caracterisa-
tion des parametres selon le critere plus concret qu'est leur impor-
tance permet au responsable ou au chercheur de suggerer au mathe-
maticien ceux qu'il faut choisir en premier lieu.
On aboutit parfois a une methode d'optimisation acceptable
ou a un procede de recherche d 'une bonne a pproximation initiale
en etudiant Ies prineipes dont s'inspirent un praticien ou un diri-
geant experimentes, ou bien leurs methodes de travail.
L'exemple suivant prouve combien ii est utile de profiter de
l'experience des praticiens.
Une usine gui venait a peine d'entrer en service souffrait de mauvaises
cadences de production par la faute d'operateurs peu experimentes. On a essaye
en vain d'elaborer un modele de processus de production qui soit suffisamment
exact et se prâte a une analyse mathematique sur calculateurs. On a donc aban-
donne momentanement l'espoir de creer un modele et accepte un autre moyen
d'automatiser et d'optimiser la production. On a stocke en memoire de la machi-
ne les regimes de travail des meilleurs operateurs des entreprises connexes.
Puis, selon les conditions presentes, la machine choisissait le regime de travail
le plus proche de celui d'un des meilleurs operateurs. Cette mesure a permis de
lever Ies difficultes mentionnees.
Les procedes de recherche de l'approximation initiale et Ies
methodes iteratives memes presentent souvent une analogie avec
un processus reel dans le cadre d 'un phenomene different·.
Nous avons evoque plus haut la methode de la boule pasante et d'autres
procedes de stationnarisation. L'activite du cerveau et de l'appareil optique en
quâte d 'un objet quelconque suit probablement le schema suivant. On procede
d'abord A un survol du champ visuel a une grande echelle, puis on selectionne
a l'aide de l 'information recue le secteur concerne a la mâme echelle et ainsi
de suite. Cette facou d' agir fait penser aux methodes des §§ 17, 18 du chap. III
et a celles du cinquieme paragraphe du presant chapitre.
Lorsque la decision est prise de poursuivre l'etude de tels pro-
blemes nouveaux ardus, l'organisation de la recherche est d'une
grande importance. Si l'on sait dans quelle direction prospecter,
l'on concentre tous ses efforts en consequence. Si, par contre, on
hesite sur la voie a prendre, il faut alors doubler Ies recherches, i. e.
confier le probleme a plusieurs organisations qui chercheront chacune
de leur cote et a leur maniere, sans parfois echanger systematique-
ment d'information. Car s'il semble de prime abord que l'echange
d 'information est utile, un echange constant risque par contre
d'empâcher la gestation et le developpement de toute solution
originale.
Selon une hypothese (qui n'est pas universellement admise),
c'est egalement la fa~on dont fonctionne ·10 cerveau quand îl a a
resoudre un probleme: l 'information obtenue se fixe a vec une cer-
taine indetermination dans differentes zones du cerveau; d'autre
430 1BQUATIONS NON Ll~AIRES ET PROBLll~F.S D'OPTIMISATION (CH. Vll

part, a chaque instant, cette information est fournie par un secteur


localise du cerveau en activite.
Par analogie avec ce que nous avons dit plus haut, si l'on a un
probleme d 'optimisation (et en general un probleme quelconque)
A resoudre d 'urgence, on procedera comme suit. On essaie successive-
ment ou simultanement plusieurs methodes de resolution de proble-
mes analogues. Qu 'ils soient utilises a tour de role ou tous a la fois,
Ies algorithmes Ap, p = 1, ... , l, travaillent par cycles (l'inter-
valle de temps tpq durant lequel l'algorithme Ap s'applique la
q-ieme fois est donne par l'utilisateur ou se definit en cours de tra-
vail). Dans une utilisation a tour de role chaque algorithme demarre
A partir de I' approximation obtenue par son predecesseur; dans une
utilisation simultanee chaque algorithme commence la minimisation
a partir de la valeur approchee trouvee par ce meme algorithme au
bout du cycle precedent (on dirait dans ce cas que Ies algorithmes
travaillent << a qui mieux mieux >>).
L 'utilisation independante des algorithmes est I' analogie d 'un
travail en parallele sans echange d 'information. Quant a l' analogue
de la recherche avec echange· d 'information aux instants discrets,
cela peut etre le regime de travail suivant. Au debut de chaque inter-
valle tpq l'algorithme Ap examina un certain lot d'approximations
realisees par tous Ies algorithmes et en choisit celle qui lui paraît
âtre la meilleure. Ce lot peut âtre forme de toutes Ies approximations
du cycle precedent ou d'approximations obtenues ·aux extremites
de tous Ies t 11 •
Le regime suivant peut s'averer rentable: une fois que Apa obtenu
une approximation qui est tres bonne pour As, on alloue le temps
a ce dernier. On ne doit certes pas penser qu'une imitation pure et
simple de systemes reels permet toujours de bien resoudre le
probleme d 'optimisation propose.
Faisons un bref bilan. Les problemes d'optimisation des fonc-
tions d 'un grand nombre de variables sont generalement tres ardus;
dans le cas d 'un probleme nouveau on se depense, et parfois en vain,
a tester des algorithmes connus ou nouveaux. Pourtant si l'on garde
un contact permanent avec Ies praticiens et si l'on a la possibilite
d'etudier en detail Ies modeles simplifies, on peut etre sur d'aboutir.
A l 'heure actuelle on note un progres sensible dans la resolution
des problemes d'optimisation grâce a l'emploi des systemes conver-
sationnels (oii l'homme, mathematicien ou responsable, dialogue
avec la machine) fonctionnant en regime partage.
Bibliographie du chapitre VII
II [10, 21, 25, 42, 47]; § 2: III (29]; §§ 3, 4: I [2], II (21,132];
§ 5: II [32] *), III [19]; §§ ·7, 8: II [21, 40, 41, 43], III [47].
•) Voir egalement F. Vassiliev, «Conferences sur Ies methodes de resolution
des problemes integraux », ed. Universite de Moscou, 1974 (ed. russe).
TROISIEME PARTIE

METHODES DE RESOLUTION NUMfRIQUE


DES EQUATIONS DIFFERE.NTlE.LLES ORDINAIRES

CHAPITRE VIII

MtTHODES DE RESOLUTTON NUMERIQUE DU PROBLEME


DE CAUCHY

La resolution des equations differentielles ordinaires est plus dif-


ficile que le calcul d 'integrales simples, et la part des problemes
integres- explicitement est ici sensiblement moindre.
. En parlant de l'integrabilite sous forme explicite on sous-entend generale-
ment que la solution s'obtient au bout d'un nombre fini d'operations « ele-
mentaires »: addition, soustraction, multiplication, division, exponentiation,
logarithmes et operation inverse, calcul du sinus et du cosinus. La notion d'op&-
ration et de fonction « elementaires » a change des avant l'avenement des machi-
nes a calculer electroniques. On a eu si souvent affaire dans Ies applications aux
solutions de certains prohlemes _particuliers qu'on a form~ Ies tableaux de
leurs valeurs, par exemple Ies tableaux des integrales de Fresnel
:X:

j e:x:p {it 2 ) dt,


o

Jr -sint -
:X:
t
du sinus integral dt, des solutions de l'equation differentielle
o
:r2 y" + :ry' + (:r v2) y = O,
2
-

appelees fonctions de Bessel, et de plusieurs autres fonctions. Ces fonctions


sont dites speciales. Avec de tels tableaux, en principe ii n'y a plus aucune
difference entre la recherche de sin :r, ln :r, ••• et celle des fonction~ speciales.
Les unes et Ies autres se calculent a l'aide des tableaux, sont approximee~par
des polynomes, des fonctions rationnelles, etc. Ainsi, dans la classe de pr9blemes
integrables explicitement sont entres des problemes dont Ies solutions s'expriment
par des fonctions speciales. Cependant, meme ainsi elargie, cette classe ne repre-
sente qu'une partie relativement faible de problemes proposes. L'elaboration
des methodes numeriiues et la _generalisation des ordinateurs ont determine
une large extension de a classe d'equations differentielles reelles et donc de la
sphere d'application des mathematiques.
A l'heure actuelle, le travail preparatoire necessaire pour resoudre sur
machine une equation differentielle n est pas tellement superieur a l'effort
de mise en equation mâme. On obtient avoloute a la sortie de la machine soit
un graphique imprima de la solution, soit une courbe representative vhmalisee
sur un ecran. On n'a plus besoin d'etudier de nombreux procedes particuliers
d'integration sous ţorme explicite.
432 DTHODES DE R~SOLUTION DU PROBLBHE DE CAUCHY [CH. VIII

Le presant ehapitre traite de diverses questions relatives a la


theorie des methodes numeriques pour Ies equations differentielles,
methodes qui ont ete en particulier mises a la base des programmes
standard de resolution des equations differentielles ordinaires.

§ t. Developpement de la solution
en serie de Taylor
La methode par la serie de Taylor est l 'une des plus aneiennes
techniques de resolution d 'equations differentielles.
On desire trouver sur le segment [x0 , x 0 +
X] la solution de
y' = I (x, y) (1)
avec la condition initiale y (x0 ) = y 0 ; f (x, y) est analytique au
point (x0 , y0). La derivation de (1) par rapport ax fournit
y" = t~ (x, Y) +fu (x, Y) y',
= + +
y"' = f (x, Y) +2/:x:y (x1 Y) y' f uu (x, y);y' 2 f 11 (x, Y) y", • • •
En substituant x = x 0 et y = y0 , on obtient Ies valeurs consecutives
y' (x0 ), y" (x0 ) 1 y"' (x0 ) 1 •••

On peut donc acrire l'egalite approchee


n
y(x)~~
n
y\r) (x-xi. (2)
i=O
Si Ix-x I
0 est plus grand que le rayon de eonvergence de la serie
"1 y<i> (zo) (x-x )i
O
LJ tI '
i
l'erreur (2) ne tend pas vers zero lorsque n ~ oo. Un procede plus
rentable consiste a partager [x0 , x 0 +
XJ en segmenta partiels
lx1-u- x1] 1 j = 11 • • ·• N;
on trouve de proche en proche Ies approximations y 1 de la solution
y (x1), j = 1, ... , N,~ d'apres la regle suivante: supposons YJ
deja calcule ; calculons Ies valeurs que prennent en x 1 Ies deri vees
y} 0 de la solution del l'equation differentielle initiale_,; qui passe par
{xJ, Y1); posons •
n (i)
"1 Y, .
y (x) ~ ZJ (x) ~ LJ 7T (x -x1)' (3)
i=O
sur le segment [x1, x1+i1 et, partant1
YJ+i = ZJ (x1+V• (4)
§ 1) D:8VELOPPEMENT DE LA SOLUTION EN S:8RIE DE TAYLOR 433

Plus loin nous discuterons en detail l'evaluation de l'erreur dans


Ies methodes d 'integration a pas separes dont fait partie le procede
considere. Pour !'instant nous nous contenterons d'expliquer pour-
quoi celui-ci peut donner lieu a une erreur faible. Considerons le
cas xi+i - XJ == h; si YJ coincidait avec la valeur exacte y (xl),
l'erreur commise en rempla~ant YJ+i par z1 (xi+i) serait en O (hn+ ).
Puisque l'erreur est introduite sur O (h-1 ) segments, le fractionne-
ment du pas du reseau entraînera visiblement

Nous avons la un exemple typique de raisonnements vraisemblables


visant a legitimer telle ou telle methode numerique; or, i1 arrive
souvent que la convergence de la methode est prouvee par de pareils
raisonnements alors que la solution approche~ ne converge pas en
realite vers la solution exacte. Aussi est-il important, sur le plan
theorique comme sur le plan pratique, de justifier rigoureusement
la convergence d'une methode avec fractionnement du pas et d'eva-
luer l' erreur.
Voila deja plus de cent ans qu'on a ab~ndonne le procede decrit d'integra-
tion des equations differentielles pour n > 1. En effet, dans ce procede on
calcule Ies valeurs de la fonction / et de toutes ses derivees / X ;'lim-i pour m < n,
i.e. on trouve n (n t .

i) fonctions differentes. A part certaines autres consequences


fâcheuses, cela a pour effet, en calcul manuel, de disperserl'attention et d'aug-
menter la probabilite d'erreur. En calcul automatique, la methode exige l'ecri-
ture de nombreux blocs de calcul des derivees, ce qui contredit la tendance
fondamentale ·a simplifier Ies relations entre la machine et Ies utilisateurs.
11 existe des systemes de pro~ammes qui realisent une derivation sur for-
mules; pour un programme donne de calcul de / {x, y) ce systeme detaille
les programmes de calcul de ses derivees et on n'a donc· pas besoin de Ies rediger.
En ce qui concerne le coO.t en temps machine, ces algorithmes le cedent beau-
coup aux methodes de Runge-Kutta qui seront examinees plus bas et aux
methodes des differences finies.
Nous ne voulons cependant pas que le lecteur prenne nos raisonnements
pour une invitation expresse a proscrire Ies methodes utilisant le developpement
taylorien. Dans certains cas on resout sur ordinateur des equations differentielles
d'un type strictement determine. Le calcul des trajectoires des corps celestes,
par exemple, se fait par une integration multiple de systemes d'equations diffe-
rentielles d 'une forme determinee avec diverses conditions initiales et Ies parame-
tres differents des seconds membres. Le fait d'avoir affaire a un mâme şysteme
presante souvent un certain avantage, a savoir les formules concretes donnant
Ies derivees des seconds membres ont d'ordinaire de nombreux termes. en com-
mun, et il _peut arriver, pour telle ou telle classe de systemes, que le calcul
simultane de toutes ces derivees demande des operations arithm.etiques en
nombre relativement faible et que le mode operatoire considere soit plus efficace
que d'autres procedes d'integration numerique. Dans la suite, nous nous bor:..
nerons essentiellement a des methodes qui necessitent uniquement le calcul
des valeurs du second membre; ces methodes sont generalement a la base des
programmes standard de resolution de vastes classes de problemes types.
2Ş-01007
434 M:8THODES DE R:8SOLUTION DU PROBL°BME DE CAUCHY [CH. VIII

§ 2. Methodes de Runge-Kutta
Dansle cas particulier n = 1, la formule (1.3) s'ecrit
YJ+i = YJ + hf (x;, Y1),x 1• h = (1)
XJ+i -
C'est la methode d'Euler. On peut construire une autre classe de for-
mules de calcul renfermant cette methode. Citons d'ahord Ies pro-
cedes Ies plus'simples de cette classe qu'on ohtient intuitivement.
Supposons que l'on connaisse une valeur de la solution y (x) et qu'on
veuille trouver la valeur y (x + h). Considerons l'egalite
h
y(x+h)=y(x)+ Jy'(x+t)dt.
o
(2)

En rempla~ant I 'integrale a droite par hy' (x}, on commet une erreur


en O (h2), i.e.
y (x + h) = y (x) + hy' (x) + O (h2);
vu que y' (x) = f (x, y (x)), il en decoule
y (x + h) = y (x) + hf (x, y (x)) + O (h 2).

On aboutit a la formule d'Euler (1) en rejetant le terme en O (h2)


et en notant x = x 1, x +
h = XJ+i· On obtient une formule plus
exacte en approchant mieux !'integrale dans le second membre
de (2). La formule des trapezes donne

y(x+h)=y(x)+ ! (y' (x)+y' (x+h))+O (h 3


),

ou encore
. h
y(x+h)=y(x)+ 2 (f(x, y(x))+f(x+h, y(x+h)))+O(h3). (3)

La formule de calcul correspondante a la forme :


h,
YJ+s = YJ +2 (/ (x1, YJ) + f (xJ+h Y1+1)). (4)
En general, cette equation n'admet pas de solution explicite par
rapport a YJ+i· Continuons done de transformer l'algorithme. La
substitution de
y* = y (x h) O (h2) + + (5)
a y (x + h) a droite dans (3) fait que le seeond membre varie de
h h -
2 (t(x +h, y*)-f (x+h, y (x+h))) = 2 / 11 (x+h, y) (y*-y (x+h)),
§ 2) M~THODES DE RUNGE-KUTTA 435

avec y compris entre y* et y (x + h); sous l'hypothese (5) cette


quantite est de l'ordre de O {h3). On a donc
y (x +h) = y (x) + 2k (/ (x, y (x)) + f (x+h, y*))+O (h 3);

la condi.tion (5) verifie le resultat des calculs selon la formule d 'Euler:


y* = y (x) + hf (x, y (x)).
Les dernieres relations determinent un couple de formules de calcul

Yf+t = YJ +hf (x1, YJ),


k (6)
Y1+1 = Y1+ 2 (/ (XJ, YJ) + f (XJ+1, Yi+1)).
Construisons un autre couple de formules avec une erreur par
pas du meme ordre de grandeur. Rempla~ons !'integrale dans le
second membre de (2) selon la formule des rectangles

y(x+h)=y(x)+hy' (x+;) +O(h 3


)

ou, ce qui revient au meme,

y (x +h) = y (x) + hf ( x + ! , y ( x + ~ ) ) + 0 (h 3
).

Si
y• = y ( x + ~ ) + 0 (h 2
),

on a, comme dans le cas precedent,

-y(x+h)=y(x)+hf (x+ ~, y*)+O(h 3


).

On prend en qualite de y* le resultat obtenu a l'aide de la formule


d'Euler avec le pas 2 : y* = y (x) + 2 f (x, y (x)). A ces relations
h k

correspond le couple de formules


h
Y +..!. = Y1+ 2 I (xi, Y;),
3 2
(7)
Yi+1 = Yi + hf ( XJ + ; , yi+ ..!.) .
2

Les procedes obtenus se rapportent aux methodes de Runge-


Kutta du type suivant. En eour~ de calcul on fixe eertains nombres.

28*
436 MnTHODES DE R8SOLUTION DU PROBL'tME DE CAUCHY [CH. VIII

on trouve successivement
k1 (h) = hf (x, y),
k2 (h) = hf (x+ a.2h, y +~21k1 (h)),

kq (h)= hf (x+ a.qh, Y+~q. 1k1 (h) + ••• +~q. q-tkq-t (h))
et on pose
q
y (x +h) ~ z (h) = y (x) + ~ Pik1 (h).
i=t
Passons au choix des parametres a.it Pi, ~ii• Notons cp (h) =
=y(x+h)-z(h). Si / (x, y) est une fonction suffisamment regu-
liere de ses arguments, alors k1 (h), •.• , kq (h) et cp (h) sont des
fonctions regulieres du parametre h. Supposons que
cp (O) = cp' (O) = ... = cp<1> (O) = O
pour / (x, y) arbitraires suffisamment regulieres et que cp<s+t> (O) =fo O
pour une certaine fonction reguliere / (x, y). Selon la formule de
Taylor,
- ~ cpCi) (O) i q>(a+t) (8h) a+t _ q><s+t) (8h) ha+t
cp (h)- LI i I h + (s+1) ! h - (s+1) I (8)

ou O< 8 < 1. La quantite cp (h) est appelee erreur de methode sur


un pas et s son ordre de grandeur. Lorsque q = 1, on a
cp (h~ = y (x + 4) - Y - P1hf (x,. y),
cp (O) = O, cp' (O) = (y' (x + h) - pJ (x, y)) lh=o =
= I (x_, y) (1 - P1), cp" (h) = y ~ (x + h) ;
ici et dans la suite y = y (x). L 'egalite cp' (O) = O est evidemment
vraie pour toutes Ies / (x, y) dans le seul cas p 1 = 1. La methode
d'Euler correspond a cette derniere valeur. Conformement a (8),
l' erreur par pas dans cette methode s' ecrit
1
cp (h) = y" (z~8k) h •

Soit q = 2; alors
cp (h)=Y (x+h)-y-p,hf (x, y)-p2hf (x, y)
ou X= x + a. 2 h, y= y + ~21hf (x, y).
Calculons Ies derivees de cp (h):
cp' (h) = y' (x + h) - Pd (x, y) - pJ (x, y) -
- P2h (~,:c (x, y) + ~21/li (x, y) f (x, y)) 1
I 21 M:8THODES DE RUNGE-KUTTA 437

<p" (h) = y" (x + h)-2P2 (a.2/x (x, Y) +


+ P21fy (x, Y) f (x, y))- P2h (a.!fxx (x, y) +
+ 2a2~21fxu (x, i) I (x, y) + P~ uY (x, y) (f(x,
1/ y)) 2),
<p"' (h) = y'" (x + h)- 3p2 (a.!fXX (x, y) +
+ 2a.2~21fX1J (x, il) f (x, y) + ~!1f yy (x, y) (f (x, y)) 2) + o (h).
En conformite avec l'equation differentielle initiale,

y' = f' y" =IX+ I y/' y"' = f XX+ 2/~yf + I 111112 f yy".
+
Portons h= O dans les expressions de <p (h), cp' (h), <p" (h), cp'" (h)
et u tilisons Ies relations precedentes ; il vient
cp (O) = y - y = O,
cp' (O) = (1 - P1 - P2) I (x, y),
cp" (O) = (1 - +
2p 2a. 2 ) f x (x, y) (1 - 2p 2 ~ 21 ) I 11 (x, Y) I (x, y),
cp "' (O) = (1 - +
3p 2a.!) / xx (x, y) (2 - 6p2a.2~21)/xu (x, y) I (x, y) +
+ (1 - +
3p 2 ~! 1) f uu (x, y) (/ (x, y))2 f 11 (x, y) y" (x). (9)
.<p' (O) = O quel que soit / si
1 - P1 - P2 = O, (10)
cp" (O) = O si
1 - 2p 2a. 2 = O et 1 - 2p 2 ~ 21 = O. (11)
Ainsi, cp (O) = cp' (O) = cp" (O) = O pour n'importe quelle / (x, y)
si sont realisees Ies trois conditions ((10)-(11)). En se donnant de
fa~on arbitraire I 'un des quatres parametres, on aboutit a une metho-
de de Runge-Kutta avec une erreur d'ordre infinitesimal 2 en h.
Par exemple, lorsque p 1 = 1/2, on obtient p 2 = 1/2, a. 2 = 1, ~21 =.
= 1, ce qui correspond au couple (6). Lorsque p 1 = O, on a p 2 = 1,
a. 2 = 1/2, ~21 = 1/2, ce qui correspond a (7). Dans le cas y' = y,
il vient, en conformite avec (9), cp "' (O) = y quels que soient p 1 , p 2 ,
a 2 , fţ 21 • II en resulte qu'il n'existe pas· de formules de Runge-Kutta
avec q = 2 et s = 3.

Vu (8), la partie principale de l' erreur par pas dans les methodes ou q = s = 2
est q>"~ (O) h3 • En se servant de l' expression explicite de q>"' (O) on arrive souvent
a reduire cettequantite par un choix convenable des parametres. Si fuy" est
faible pour la classe consideree d'equations, on choisira Ies param.etres de
maniere que Ies trois premiers termes de la derniere formule (9) s'annulent.
On verifie aisement que lorsque p1 = 1/4, p 2 = 3/4, a 9 = Pn = 2/3, on
438 M8THODES DE Rl!:SOLUTION DU PROBLQE DE CAUCHY [CH. VIII

a (10) et (H) et q>"' (O) = /y (z, y) y" (z}. A cet ensemble de parametres corres-
pondent les formules de calcul
k1=hf (z, y),

k2 = hf ( z +; h, y +: k1) , (12)
1
Ay=z (h)-y=
4 (k1+3k2).
Des raisonnements analogues pour q = 3 aboutissent aux resul-
tats suivants. Comme il n'existe pas de formules de calcul corres-
pondant as = 4, pour q~e s vaille 3„ il faut que
a2 = ~21, a3 = ~31 + ~a2, as (aa - a2) - ~a2a2 (2 -3a2) = O,
1
Ps~a2a2 = 6 , ~P2a2 + Paaa = 211 , Pt + P2 + Pa = 1.
Ce systeme de six equations a huit inconnues admet une infinite
de solutions. Le jeu de formules de calcul le plus usite est

k1 = hf (x, Y), k2 = hf ( x + ~ , y + ~1 ) ,
1
k 3 =hf (x+h, y-k1 +2k2), ~y= 6 (k1 +4k2 +ka)-
Si 1(z, y) ne depend pas de y, i.e. fu= O, on retrouve la formule de Simpson
y (z+h)-y (z}:~ : ( /(z)+4/ ( z+;) + f(z+h)}. (13)

Salon l'estim.ation de l'erreur dans la formule de Simpson, cette egalite approchee


est entachee d'une erreur en O (k6}. Aussi, de mâme que (12), cette formule
est surtout indiquee pour fu petits.
· Si q =r4, 5, on ne reussit pas a construire des formules ~vec
q
s = 5; si = 4, on a un ensemble biparametrique de formules cor-
respondant as = 4. Citons a titre d'exemple une famille a un para-
metre:
1
k1=hf(x, y), k2=hf (x+ ~, Y+ ~ ),

k 3 = hf ( x + ~ , y+ ( !- it )!k1 + it k2) ,
+ h, y + (1 - t) k + tk
k 4 = hf (x 2 3 ),

~y = lf (k1 + (4-2t) k + 2tk + k


1
2 3 4 ).

L'ensemble de formules le plus usite de cette famille correspond


a la valeur t= 1:
k1 = hf (x, Y), k2 = hf ( x + ; ., y + ţ1 ) ,
§ 2] M~THODES DE RUNGE-KUTTA 439

k 3 = hf ( x+;, Y+ ~), k,.= hj (x+ h, y+k3), (14)


1
lly= 6
(k 1 +2k2 +2k3 +k4).

lndiquons un au tre jeu de formules avec q = s = 4 :

k1 = hf (x, y), + : , y + ~1 ) ,
k2 = hf ( x

k3 = hf ( x + 2: , y ~ ţt + k 2 ),
(15)
k,. = hf (x+ h, Y+ k 1 -k + k 2 3 ),
1
8y= 8 (k1 +3k2 +3k3 + k,.).

En disant d'un ensemble de formules qu'il est « le plus] usite ,, nous


avons suivi une tradition ancienne en analyse numerique. 11 nous semble cepen-
dant qu'au lieu de refleter une tendance, un manual de calcul numerique devrait
plutot indiquer la meilleure formule d'une famille donnee. Or, ce n'est pas si
simple que cela.
Prenons pour commencer le probleme de calcul d'une integrale qui se
prâte le mieux a une comparaison des modes o_peratoires. Pour un mâme ordre
de grandeur, Ies erreurs sur Ies formules de quadrature ont toujours leurs parties
1
principales proportionnelles. Ainsi, en calculant ) f (z) dx avec partage de
o
[O, 1) en segments partiels de longueur h on commet une erreur

(/' (1)- /' (0)) h,2 + O (k3)


12
avec la formule des trapezes, ot
- (f' (1)- J' (O)) h2 + O (h3)
24

avec celle des rectangles; Io nombre de points en lesquels on calcule f (x) est
sensiblement identique, soit 1+h-1 et h- respectivement. La comparaison des
parties principales des erreurs incite a donner la preference a la formule des
rectangles. Cette conclusion n' est cependant pas definitive. En effet, l' estimation
du reste comprend un terme infiniment petit d'ordre superieur, et l'information
dont nous disposons ne nous autorise a preferer la formule des rectangles que
pour h tres faibles. On a compare plus haut ces methodes en Ies mettant en
muvre une seule fois. Or, pour trouver une integrale, il arrive souvent qu'on
change de pas. Les points de base de la formule des trapezes avec le pas h' =
= hq- 1, q entier, le restant pour un pas h, et l'integration avec le pas hq-1
utilisera donc Ies resultats obtenus avec le pas h. Quant a la formule des rectan-
gles, elle ne le permet que pour le _pas h' = kq- 1 , q impair. Vu que la valeur
q = i presente certaines commodites, I' avantage de la formule des rectangles
n'est deja plus si evident.
L'etude des equations differentielles fait apparaître plusieurs circonstances
supplementaires. Dans les formules exactes a un meme ordre relativement a h,
440 M:8THODES DE R:8SOLUTION DU PROBLtME DE CAUCHY [CH. VIIJ

Ies parties principales de l'erreur sur un pas s'averent souvent non proportion-
nelles. Ainsi, par suite de (8), (9), la partie principale de l'erreur sur (6) vaut
(B - A) h3 , avec B = ! fyY",

Â= ; Uxx+2fxyY' +!yy (y') 2 ),


1
et elle est ( B + 1) h3 pour la formule (7). Par consequent, on choisira la
methode ((6) ou (7)) selon l'equation proposee.
Considerons un exemple. On demande d'integrer y' = yq, q > O, lorsque
y (O) > 1. Les parties principales des erreurs dues a (6) et (7) sont respectivement
q (q+ 1) ysq-2h3 q (3g+ 1) ysq-2ha.
12 et 24 '
si q > 1, la deuxieme est superieure a la premiere et vice versa si q < f.
C' est le libre arbitra qui decide alors de la methode, compte tenu des tra-
ditions et de la statistique des proprietes des problemes proposes.
Voici un exem_ple de caracterisation comparative des methodes. Soit a resou-
dre des equations differentielles aleatoires d'un certain ensemble. Supposons que
61 = fxx + 2fxyY' + fyy (y') 2
et 62 = fyY"
sont des variables aleatoires independantes telles que Es1 = Es 2 = O. L' espe-
rance mathematique du carre de la partie principale de l' erreur par pas est
alors respectivement

( 1~ Esl +315 Esl) h,6, (5;6 Esf +315 EM) h,8.

Ici la formule (7) l'emporte sur (6). Mais la meilleure est la formule (12) ou
l' esperance mathematique correspondante vaut ~ Esih6 • Nous avons raisonne
3
s
dans l'hypothese de s 1 et 2 aleatoires et independants, une hypothese, a vrai
dire, douteuse. On doit donc faire preuve d'une grande prudence en discutant
Ies conclusions ohtenues.
Reprenons Ies formules (14) et (15). Dans le cas de y' = f (x) l'erreur resul-
tant de (14) s'ecrit
Pt=Y (x+h)-y (x)-: ( f (x)+:4t ( z+ ~) +Hx+h)).
Le developpement en serie de Taylor donne
/<4> (x) h,5
Pt = - 2880 +o (hB).
Et pour la formule (15)

P2=Y (x+h)-y (x)-; { / (x)+3J { z+:) +


+3/ { x+ ! h) +J (x+ h)) = f<'~;t 1,,s +o (h&).
La comparaison des parties principales de p1 et p2 montre. que dans notre cas,
c'est-a-dire pour des equations oii fy = O, il faut donner la r,reference a la
formule (15). Elle est donc a preferer egalement dans le cas d equations avee
fu proche de zero.
§ 2] M:8THODES DE RUNGE-KUTTA 441

D'ordinaire, on donne la preference a la formule (14). Les traditions en


calcul numeri~e appellent A vrai dire une attitude double. En effet, si une
methode de la classe consideree convient a une certaine epoque, les utilisateurs
s'y habituent avec le temps, si bien que l'abandonner pour une autre, ffit-elle
plus efficace, exige une « reeducation psychologique » et un certain temps pour
« se faire >> a la technique nouvelle. Pour que cette technique soit acce:ptee
parJa majorite, il faut qu'elle presante des avantages serieux pour une caracteris-
tique quelconque. Nous en avons deja parle dans le chapitre VII, lorsCJlle nous
avons discute la mise en pratique des methodes mathematiques de resolution
des problemes economiques.
La refonte indiquee s'echelonne parfois sur une longue periode. Les metho-
des numeriques, ainsi que les procedes de fabrication, tendent A la perfection
•et on peut parler de leur raffinement en moyenne et par unite de temps (:Rar
an, par exemple). Si la refonte envisagee fournit un effet mineur et qu'elle
entrave la mise en service de methodes et de pi:ocedes de fabrication nouveaux,
il est preferable de s'en abstenir. Tout comme dans la planification, le passage
a des techniques nouvelles peut etre cause de difficultes absentes de l'analyse
theorique primitive. 11 se peut que la methode combine une erreur par pas
moindre avec une erreur globale plus grosse ou avec une sensibilite plus grande
a .l'erreur de calcul. Entre Ies procedes (6), (7), (12), nous aurions cboisi le
dernier en nous appuyant sur Ies considerations ci-dessus (douteuses A vrai
dire) sur l'esperance mathematique du carre de l'erreur dans ces formules.
Or, lorsqu'il s'agit de J>rocedes d'integration exacts au second ordre, l'usage
accorde la preference a la methode (6) oii l'esperance mathematique du carre
de la partie principale de l'erreur est plus importante.
En comparant les deux formules exactes au quatrieme ordre, on opte pour
la formule (15) avec h/11 f~ible. D'aucuns estiment que celle-ci n'est avantageuse
que pour hfy tres petits et que si l'integration est effectuee avec une precision
moderee, on choisit la formule (14). La notion de pratique du calcul numeriCJ.ue
est en fait assez floue. Le nomhre de classes d'equations differentielles reelles
est sensiblement su:perieur a celui des problemes sur lesquels on compare les
methodes d'integrat1on numerique; aussi Ies jugements bases sur la « pratique »
ne sont-ils pas toujours objectifs. Le critere de pratique a pourtant beau âtre
va~e, il renferme souvent une information positive impossible a formaliser ·
et a justifier a une etape donnee du developpement de la science. On a certaines
raisons mathematiques d'opter pour les formules (14) avec fy < O et des solu-
tions regulieres du moment qu'elles permettent d'effectuer une integration avec
un pas plus grand encore que la methode reste peu sensible a l' erreur de calcul ;
notons neanmoins que ces raisons ont ete decouvertes apres que la pratique de
l'integration numerique d'equations differentielles ordinaires a arrâte son
choix sur Ies formules (14).
Dans une situation analogue a celle que nous venons d'examiner on n'arrive
generalement pas a proposer une solution completement justifiee (du· point
de vue mathematique) du probleme. Dans notre cas s'y ajoute ancore l'impossi-
hilite de decrire de fa~on satisfaisante la classe d'equations differentielles
a resoudre.
11 sera fondamental pour l'expose ulterieur que l'erreur de
methode par pas <p (h} possede une partie principale, i. e.
cp (h} = lf, (x, y} hs+f + O (ha+2). (16)
Esquissons Ies grandes lignes de la demonstration. Supposons
que le deuxieme membre et toutes ses derivees jusqu'a l'ordre s 1 +
compris sont uniformement bornes dans un domaine G:
x0 ~ x ~ x0 +
X, I y I < oo.
442 METHODES DE RESOLUTION DU PROBLlllME DE CAUCHY [CH. VIII

11 en sera alors de meme des derivees jusqu'a l'ordre s + 2 inclusi-


vement de toutes Ies solutions de l'equation. D'apres la formule de
Taylor, l'egalite (8) se met sous une forme plus precise
cp (h) = cp<s+u (O) hs+l + cp<s+2> (0k) ka+2
(s+1) ! (s+2) I •
On a
cp<a+u (O) = y<s+u {O) - z<a+1> (O).
On s'assure sans peine que y<s+t> (O) et z<a+ 1> (O) s'explicitent en
fonction des valeurs en (x, y) de la fonction / et de ses derivees d 'ordre
s au plus (nous avons deja obtenu de telles expressions explicites).
Comme le deuxieme membre est s +
1 fois derivable, ii en decoule
que la fonction lJ, (x, y) est derivable dans le domaine Get que ses
derivees 'i'x et lfy sont uniformement bornees dans G. On etablit de
fa~on analogue que cp<s+ 2> (0h) est uniformement borne pour x 0 ~
~ x < x + h ~ x 0 + X. Certains cas particuliers de cette affir-
mation decoulent egalement des relations ecrites plus haut.

§ 3. Methodes avec controle


de l'eneur par pas
L'optimisation d'un algorithme d'integration numer1que exi-
geait (eh. III) que Ies points soient repartis de fa~on que l'integration
sur chaque segment elementaire soit ontachee d 'une erreur sensible-
ment identique; a cette fin on doit avoir une idee de l'ordre de
grandeur de l'erreur sur chaque segment partiel. On retrouve exacte-
ment le meme probleme dans l'integration numerique d'equations
differentielles ordinaires.
Nous allons raisonner de fa~on suivante. La partie principale de
l'erreur sur un pas d'integration est
cp<S+l) (0) kS+l
(s+1) !
Le point (x + h, z (h)) est proche du point (x, y), et l'erreur sur le
pas suivant renfermera la meme partie principale. Au bout de deux
pas on a une approximation y< 1> de y (x + 2h) telle que
ym - y (x
·
+ ?h)
....
,-.J 2 cp<s+u (O) ks+t
(s+ 1) f •

En prenant le point (x, y) pour point de depart et en appliquant la


methode de Runge-Kutta avec le pas 2h on obtient une v~leur appro-
chee y< 2> telle quo
y<2> - y (x + 2h) ,-.J cp<s+u (O) (2h)s+l
(s+ 1) I •
§ ~] lllVALUATION D'ERREUR DANS LES M~THODES A PAS saPAR~S 443

On represente a l' aide de ces relations la partie principale de l' erreur


par pas
y<u -y ( X + 2h) ,_ y<2> - y<i>
2s-f •
On ameliore yco en y ajoutant la valeur de la partie principale de
I' erreur, i. e. on pose
Y (X+ 2h) ~ ym + Yd>-y<2>
2s-1 • (1)
Nous avons donc la possibilite d'obtenir tous les deux pas, en
plus de la valeur approchee y(1), l'expression de la partie principale
de l'erreur qu'elle determine. Si le comportement de la solution
varie brusquement, le calcul de y<O - y< 2> met souvent en evidence
une erreur tres importante par pas, ce qui oblige a rejeter une partie
des res:ultats et a changer de pas.
La recherche du pas d 'integration peut etre plus souple si le pas
et l'evaluation d'erreur exigent un nombre moindre de valeurs des
. seconds membres.
Citons un exemple de formules fournissant Ies mâmes caracteristiques de
precision pour un recours minimal au second membre.
k 1 =hf· (x, y), k2=M ( x+ 2h , Y-l-Ţ
k ) ,

ka=hf (.x+:, u+ ! (k1+k 2) ) , k4=hf(x+h, y-k 2 --l-2ka),

ks=hf ( x+ ~1,, Y+ ; 7 (7k1+10k2-i-k4)), (2)

ka=hf ( .x+:, u+a!5 (28k1-12~~+546ka-l-54k4-378ks)),


1
6y= (k1 -j-4ka-J-k4);
6
la partie principale de l'erreur est
y (z+h)-z {h) = r+O (1,6),
1
r= (42k1 +224k3-{-21k4-162k5 -125k6).
336
La valeur z (k) se calcule par l'une des formules de Runge-Kutta citees
pp. 438-439.
En posant y (z 0 +
h) ~ z (h)+r, on obtient unemethodedu type considere
avec s = 5 et, partant, une erreur par pas de l'ordre de O (h6); l'utilisation
directe (nous l'avons decrite plus haut) de la methode de Runge-Kutta et l'eva-
luation de l' erreur par y< 1 > - y< 2 > demandent non pas 6 mais 11 calculs du
second membre.

§ 4. Evaluation d'erreur dans Ies methodes


a pas separes
Considerons diverses methodes d 'integ1·ation dans lesquelles on
calcule de proche en proche Ies a pproximations y i des valeurs
y (xi), x 0 < x 1 < ... < xN = x 0 +
X. Soit k fixe et supposons
444 M~THODES DE R~SOLU'l'ION DU PROBLlmE DE CAUCHY [CH. VIII

que pour j ~ k Ies valeurs y; se determinent comme Ies valeurs d 'une


fonctionnelle
Yi = F (j; Xj, ••• ' Xj-k; Y1-1, ... ' YJ-k>• (1)
On dit d 'une telle methode d 'integration numerique qu' elle est
a pas lies. Tous Ies procedes d 'integration rencontres plus haut pos-
sedent une propriete commune: la valeur approchee de la solution
en un point est definie uniquement en fonction de la valeur au point
precedent ; Ies formules correspondantes ont par consequent la for-
me (1) avec k = 1. Ce sont Ies methodes a pas separes.
On dirait de prime abord que la formule (3.1) ne se rapporte pas a la classe
(1) avec k +
= 1. En effet, la valeur approcbee de y (.x 2k) est calculee a l'aide
+
des approximations de y (x) et y (.x +. h). Mais la valeur apP.rochee de y (.x h)
est elle-mâme fonction de y (.x), et la formule (3.1) s'ecr1t en fin de compte
+ 2h) ~ <l> (/, .x, 2h, y).
y (.x
Si, lorsque .x1 = .x, onprend .x;+i = .x + 2h, on aboutit a un cas particulier
de la formule (1) avec k = 1.
Considerons une technique speciale d'evaluation de l'erreur qui
n' a cours que dans Ies methodes a pas separes.
Si k = 1, on connaît une ecriture plus commode de (1):
YJ+l = F (f, Xj, Xj+i - Xj, Y1>• (2)
Les valeurs approchees reelles de y (x;) sont reliees non pas par (2),
mais par
(3)
La presence du terme 6;+1 s'explique par Ies causes suivantes:
1) arrondi lors du calcul;
2) erreurs sur Ies valeurs du second membre j (x, y}, car, primo,
j (x, y) est une certaine approximation du second membre d'une
equation differentielle reelle, et, secundo, en calcul automatique
cette fonction est. souvent approchee par des fonctions calculables
moyennant Ies operations elementaires de la machine ;
3) dans certains cas la valeur Yi+i est determinee par une equa-
tion equivalente a (1) mais non resolue explicitement par rapport
a la variable YJ+i; la quantite 6;+1 comprend alors une composante
qui est deduite de la solution approchee de cette equation.
Tres souvent on a l'estimation
I 61+1 I ~ C ( I y; I + 1) 2 -t,
· ou t est la longueur du nombre machine et C une constante pas tres
elevee.
De meme, la condition intiale y 0 differe de la valeur de la solu-
tion cherchee y (x 0) par suite d'une erreur due a la definition des
donnees initiales et a l 'arrondi. Soient y (x) la solution cherchee
§ '1 :8VALUATION D'ERREUR DANS LES M:8THODES A. PAS S:8PA~S 445

de l'equation differentielle et y1 (x) Ies solutions verifiant Yi (x1) =


= Y; (fig. 8.4.1). L'erreur Rn = Yn - y (xn) s'ecrit
+
Rn = Yn (xn) -Yo (xn) Yo (xn) -y (xn) =
n
= ~ (YJ (xn) -Y;-dXn))
i=i
+ (Yo (xn)-y (xn)) • ( 4)

La difference des solutions d 'une equation differentiell~ en un point

Yn fZnJ
v,,_,{:&nJ
!ln-z(t&n}

g,(:&nJ
~-_..,.!lof.:Cn)

:c,
Fig. 8.4.1

peut âtre exprimee par leur difference en un autre. On a le


LEMME. Soient Y1 (x) et Y 2 (x) deux solutions de l'equation diffe-
rentielle y' = f (x, y). Alors

Y 2 (~) - Y t(~) = (Y2 ( a) - Y 1 ( a)) exp ( J/ (:e, y(x)) dx) ,


u (5)

avec y (x) entre Y1 (x) et Y 2 (x).


Retranchons membre a membre Ies egalites
D:8MONSTRATION.

~ Y; = I (x, Y 2), Y; = I (x, Y J.


Selon la formule de Lagrange, la difference / (x, Y 2) - / {x, Y1)
peut se mettre :sous la forme / 11 (x, y) (Y2 - Y1) avec y compris
446 UTHODES DE Rf:SOLUTION DU PROBL'filfE DE CAUCHY [CH. VIII

entre Y 1 et Y 2 • On obtient une equation differentielle lineaire en


Y2 - Y1:
(Y 2 - Y1 )' = /y (x, y) (Y2 - Y1),
d'oii
(ln (Y2 - Y 1 ))' = I u (x, y).
En substituant Ies limites a et ~ et en se debarrassant des logarith-
mes, on trouve la relation (5) cherchee. La fonction
IY (X 'Y~ (x)) = J (x, Y 2 (z))-/ (x,
Y2 (z)--Y 1 (z)
Y1 (x))

est continue si f (x, y) l'est, ce qui legitime toutes Ies transforma-


tions ci-dessus.
Soit a = x1, ~ = ~n,
Y1 (x) = YJ-1 (x), Y 2 (x) = YJ (x),
alors
=n
YJ (xn) -YJ-dXn) = (Yi (x1) -Y1-dx1)) exp () / y (x, YJ (x)) dx) ,
avec Yi (x) entre Yi-t (x) et Yi (x).
De meme
=n
Yo (xn)-y (xn) = (Yo (xo) -y (x0)) exp ( Jf y (x, Yo (x)) dx) .
L'egalite (4) s'ecrit alors
n =n xn

Rn = ~ ©J exp (
~1
J/y (x, YJ (x)) dx) + R exp ( J/y(x, Yo
~
0
~
(x)) d~) ,
.
(6)

ou @1=Y1(x;)-Y1-dx1), j=1, .••


L'egalite (3) entraîne
©J = YJ-Yi-t (x1) = Pi+ 61,
avec
PJ= F (f, x;_1, XJ-Xi-1, Yi-1)-Yi-t (x,).
Voyons ce que represente la quantite p1• F (j, x 1_1 , x 1 - XJ-i,YJ-1 )
est un nombre obtenu a l'aide de la formule (2) et y1_1 (x1) la valeur
en x 1 de la solution exacte de l 'equation differentielle dans la con-.
dition y1 _1 (x1 _1 ) = y1 _1 • Donc, Pi est l'erreur par pas de la methode
consideree si on prend pour point de depart le point (x1_1 , y1_1 ),
s'il n'y a pas d'arrondi et sile pas est x1 - x1_1 •
Supposons que tous Ies j correspondant au segment d'integration
considere Xo < X j ~ Xo +X verifient
I P1l-<C1 (x1-X1-1r1 • (7)
§ 4] :8VALUATION D'ERREUR DANS LES M:8THODES A. PAS S:8PAlIBS 447

Soit
L= sup l/yl<oo
xo~x~xo+X
et
H = max (x1-X1-1)-
0<i~N
Rendant (7) moins precise, il vient
I Pi l-<C1H (x1-XJ-1)·
8
(8)
Lorsque x 0 -<x1-<xn-<x0 +X, on a
:i:n

exp {) fu (x, Y1(x)) dx)-<exp (L (xn -x,))~exp (LX).

Evaluons par cette inegalite le second membre de (6); il ·vient


n
IRnJ-<exp(LX){_2] (IP1l+lcS1l)+IRol)-
,=1
Servons-nous maintenant de l 'estimation (8):
n
I Rn 1-<exp (LX) ( ~ (C1H 8
(x1-XJ-1) + I cSJ I)+ I Ro I)<
. j=i

<exp (LX) (C 1H 8 (xn-Xo) +ncS+I.Ro I)<


<exp (LX) (C1XH 8 + N6 + IRo I); (9)
6= max I 61I• 11 en resulte
;
max IRn I-+- O lorsque H-➔- O,
xo<=n=S:xo+X .
si N6 tend vers zero avec I R 0 I- Nous avons montre qu'avec un pas
d 'integration suffisamment petit et une erreur de calcul faible, la
solution approchee obtenue par la methode de Runge-Kutta avoisine
la solution exacte.
Dans certains cas on recherche la solution de l'equation dans
un intervalle important. Les estimations d'erreur contiennent alors
un tres grand facteur: exp (LX). Aussi, si LX est eleve, ii se peut
que la precision desiree soit atteinte avec des pas si faibles et une
erreur de calcul par pas tellement insignifiante qu' on est fort tente
de refuser la methode en question. II ne suffit donc pas de carac-
teriser Ies methodes d' apres le critere de convergence de la solution
approchee vers la solution exacte avec fractionnement du pas et
une diminution suffisamment rapide de l'erreur.
Si / y (x, y) ~ -b < O, on peut eliminer dans (9) le facteur
croissant hrusquement avec X. Examinons le cas .d ~u1ţ
448 Ml5THODES DE R:8SOLUTION DU PROBIBME DE CAUCHY (CH. VIII

pas constant Xj-XJ-t == h. Alors


Xn

exp ( J/ (x, y(x}) dx) ~exp (-b (xn -xi)) ~exp ( -b (n-
11 j) h);
XJ
soit
ICOJI ~C1hB+l + 6. .
Evaluons le second membre de (6), il vient
n
IRnl~ 11 (C1hs+1 +6)exp(-b(n-j)h)+IR0 lexp(-bnh). (10)
j=t
On a
n oo

~ exp (-b(n-j) h)~ ~ exp (-bkh)= i-ex:(-bh) •


j=1 h=O

L'estimation d'erreur s'ecrit finalement

+ I R Iexp (-bnh).
8
C1h +l+6
I Rn l~ i-exp(-bh) 0 (11}

Puisque 1-exp (-bh) --1 b I h,


I R n I~ C2 ( h 8
+ ~ }+ I Ro Iexp ( - bnh).

Formellement cette estimation ne depend pas de la longueur X de


l'intervalle d'integration, mais celle-ci peut influer de fa~on indi-
recte sur la valeur de C 2 par intermediaire des estimations des deri-
vees (nous en reparlerons au § 12).
PROBL:BME• Supposons qu'une fonctioniet toutes ses derivees jusqu'a l'ordre
s + 1 inclusivement sont uniformement bornees dans un domaine G, et soient
I Ro I=o (h•) et 6= max I 61 I=o (h•).
x 0~x1~x0+x

Demontrer qu'en integrant par la methode de Runge-Kutta exacte a l'ordre


sona
=n Xn
max
xo~xn~xo+X
Rn-h8 I r ,t, (z, y (z)) exp ( Jr lu (t, y (t}) dt) da: I
J
XO X
=O (h 8}; (12)

pour la definition de la fonction ,i, <z, y) voir (2.16). La relation (12) donne
une idee de la partie principale de 1 erreur dans la methode de Runge-Kutta.
§ 5] M:8THODES DES .DlFFtRENCES FINIBS

§ 5. Methodes des differences finies


Parmi Ies methodes a pas lies, Ies plus repandues sont .leţ; metho~
des d 'integration sur un reseau de pas constant x1 - x1_1 == h =
= const moyennant des .relations de la -forme
h h
~ a-,YJ-i -h ~ b_; (x1-t, YJ-i)= O; (1)
i=O i=0
a, est constant et

I âb_,_
âYJ-,
,,<.C pour h,<.ho.
De tous ces procedes on prefere generalement
h h
~ a-,YJ-i -h ~ b_tf (xJ-it YJ-i) = 0, .(~)
i=O i=0 .

qu'on appelle .,methodes_ des differences finies pu schemas aux diffe-


rences f inies. · .
Les methodes (2) qui sont a la fois Ies plus simples et Ies plus
utilisees se deduisent de formules de quadrature ; toute formule
O m
j f (x) dx ~ h ~ b_tf ( -ih), : m>O, .(~)
-ph i=O
engendue une formule correspo:µdante ţi 'integration numerfque d 'equa-
tions differentielles ordinaires. En effet, le report de f (x) =
+
= y' (x1 x) dans (3) donne
O m
J / (x) dx = y (x1)-y (XJ-p) ~ h ~ b_ty' (x1-;),.
-ph i=0
et la substitution de / (x, y (x)) a y' (x)
m
.y (x1) -y (x1-p) ~ h ~ b_tf (xJ-i, y (XJ-i)). (4)
i=0

Le scbema aux differenceţ; finies correspondant s'ecrit


m .
Y1-YJ-p - h ~ b_tf (XJ-it YJ-i) = O. (5)
i=0

Dans la. pratique on se sert des formules (1), (2) .avec a 0 ::/= O,
b0 = O,. appeleesformules d'extrapolation ou explicites, .et des meiµes
formules avec a 0 =fo O, b0 =fo O, dites d'interpolation ou implicites.
Dans ;fa. suite .nous supposerons. toujours a 0 =I=· 0.
29-01007
450 M~THODES DE MSOLUTION DU PROBLru.lE DE CAUCHY [CB. VIII
o

Citons plusieurs .formules (5) et pour abreger designons


fn = f (Xn1 Yn)•
La formule itnplieite
h
YJ-Y1-1= 2U1+ IJ-i) (6)
correspond A la formule des trapezcs
o
j f(x)dx~; U(O)+/(-h));
-h
de meme on a
h
YJ-YJ-2=3U1+4f1-1 +11-2) (7)
pour la formule de Simpson
o
J f(x) dx ~ : (I {O)+ 4/( -h)+ /(-2h))
-2h
et
h
YJ-YJ-s= 8 (311+ 9/H +9/1-2+3/J-a) (8)
pour
o
J1(x)dx~: (3/(0)+9/(-h)+9/(-2h)+3/(-3h)).
-3h

La formule des reetangles
o
j 1(x) dx ~ hf ( - ~)
-h
differe de (3). Cependant, en remplacant h par 2h, on obtient la
formule de quadrature
o
5 I (x) d:i ~ 2hf (-h)
-2h
et la formule explicite correspondante
YJ - YJ-2 = 2hfi-1• (9)
Si le resta de (3) est evaluă par D (q) niax I /<t> (x) I hq+i, l'erreur
răsJiltant de l'egalite (4) l'est par D (q) max I y<q+t> (x) I hq+i.
Parmi Ies formules (5) Ies plus usitees sont celles qui eorrespon-
dent a p = 1. On Ies appelle 1ormules d'Adams. Construisons-les
§ 5] M~THODES DES DIFF~RENCES FINIES 45t

et evaluons leur reste. Selon 1a formule de Newton,


f (x) = Om (x) + Tm (x),
ou Om (x) est le polynome d'interpolation base sur Ies points
(O; .•• 1 -mh)
m
"'1 Vi/ (O}
Qm (x) = LJ - - ,- Cl>hi (x), Cl>ho = 1, (10)
i=O h

roh, = x (.x+h) ... i(.x+(i-1}


I
h}
pour i> O,
Tm (z) = f (O), -h, ... , -mh, x)(m + 1) ! roh, m+1•

Correlativement, on a
h h h
j f(x)dx= JQm(x)dx+ Jrm(x)dx. (11)
o
o o
La fonction roh, m+t (x) garde son signe sur le segment [0, h]. Le
theoreme de la moyenne nous autorise donc a ecrire
h h
JTm(x)dx=f(0; -h; ... ; -mh; ~)(m+1) ! Jo roh,m+dx)dx
o
h
avee 0~t~h. Le ehangement de variable X= ht dans Jrohi(x) dz
o
fournit
h
Jrohi(x) dx= y 1hi+t, (12)
o
ou
t
'\'i = ) t (t+1). ·i)t+i-f) dt.
o
Vu ces relations l'egalite (11) se recrit:
h m
j f(x) dx= h ~ '\'tVif (O)+
O i=O
+Ym+1hm+2 (m+1) I/ (O; -h; ... ; -mh; t).
+
En ecrivant au lieu de (m 1) I / (O ; -h; ... ; - mh; t) la valeur
de la derivee au point median, on trouve, conformement a (2.5.4),,
h m
Jf(x) dx= h ~ '\'tVif(O) +Ym.+1km+ pm+u (TJ) 2
(13)
O i=O
29~
4.52 M~THODES DE RtSOLUTION DU PROBL'tmE DE CAUCHY [CH. VIII

avec -mh<. f}~h. 11 en ,răsnlte, ·apres la .suhstitution ij,(x) .:_


=y'(x1+x-h) et l'eUmination.du reste, la formule de calcul
eorrespondante
m
Y1-Y1-1=h ~ y,,;i/1-1• .(14)
i=O

Pour obtenir Ies formules d 'Adams implicites prenons un support


d 'interpolation forme des points h; O; ... ; -(m-1) h ; il vient

f (x) = Qm (x) +rm (x),


ou
m
- ~ Vi/ (h,) -
Qm(X)= ~-,,,-i-rohi (x),
190

- . ( ) - (z-h):,; (x-f-h) ... (z+H-2) h.)


(J)h t X - i! . '
Tm (x) = f(h ;'O; •.• ; -(m--1) h; x)(m+ 1)161h, m+d:t). ·
Moyen.nant d~s transformations analogues, on a
h m
) / (x~ dx = h ~ Y;Vif (h) + Ym+1hm+ pm+u (1'J),
2
(15)
O . i=O
avec
1
-(m-1)h<.1'J<.h, Yt= J (t-i)t(t+1~1···<t+i-2) dt.
o

La formule de calcul correspondante a la forme
m
YJ-Yi-1 ~ Ytî:l/J.
= h i=O (16)

Voyons le comportement des coefficients Yt et li·


Evidemment, '\'o, YQ > O et 'Yt > O, Yi < O, lorsque,i > O. Avec le change-
ment de variable t = 1 - u las coefficients '\'t s'ecrivent · · .
1. . 1 i
. - ţ (1.-u) · · · (i-u) d - ţ
'\' i - J t' l . u- J
IJ (1-~) d
k . u. .
.O O, k=i , . ·
On a
. u
·. 1· --;;=exp· ( l n ( 1 -k
u )!) ·=exp_
' ' (-ku ·+· ) ,i_,,
EJi . I
§ 5), M~THODF.S DES DIFP~RENCES FINIES 453

ou

Donc,
i i i
II (1-:) =exp(-s(t) u) exp ( ~ Ek),
k=i k=i
s(i)= ~
k=i
!.
On a evidemment

On a f inalement l'estimation •
Vf (u) < n (
i

k=i
f-: }<exp (:;)Vi (u},

v1 (u) =exp (-s (i) u) et, par consequent,


1 1
j vi (u) du <Yi <exp ( :; } ) Vt (u) du. (17)
o o
Du fait que. s (i) -- ln t,
1
j vi (u) du 1-exp (-s {i))
s (i)
1
-- ln i •
o
Cette derniere relation et (17) e~traînent que 'Vi est de l'ordre de
1
i • !
On a l 'identite evidente
(t - 1) t ... (t +t- 2) + it (t + 1) •· •·. (t +t- 2) =
= t ... (t +t- 1).
Divisons-la par i I et integrons par rapport a e- entre O et 1; il vient
'Vt + 'Vi-l = 'Vi;
comme tous Ies Yi >
O et -=j1 < O Iorsque i > O, on en conciut que Ies 'Vi decrois-
sent de faţon monotone et tous Ies I Yt I < Yt·
Ainsi, le facteur constant dans l'estimation de l'erreur par pas est toujours
plus petit dans Ies methodes d'Adams implicites que dans Ies methodes expli-
cites exactes au mâm.e ordre.
Citons quelques valeurs a titre d'exemple
1 5 3 251 - 1 1 1
{yp)=i, 2' 12' 8' 720' ••. , {'Vp}=i, -2' -12' - 24' •.•
const - const .
PROBL~ME. Montrer que. 'Vi - - -nl-
. - , Yt -- -.- - . , i ~ oo.
g 1ni
1
454 l\ltTHODES DE RSSOLUTION DU PROBLil:ME DE CAUCHY [CH. VIII

§ 6. Methode des coefficients indetermines


On construit egalement Ies formules d 'integration numerique
par la methode des coefficients indetermines. Approchons la derivee
y' (x,) par

et f (x;, y (x,)) par


k
~ b_tf (XJ-h y (Xj-t))
f=O
(a-t et b_i sont supposes incijpendants deh). D'ou l'egalită approchee
k k
'1 a_iy (XJ-i) "
L.J h ~ LJ b_,f (xJ-h y (x,_,)) (1)
i=O i=O
a laquelle correspond le schema aux differences finies

L," b_tf,_, = O. (2)


i=O
La quantite
k
~ b_,f (XJ-i, Y (XJ-1))

s'appelle l'erreur d'approximation de l'equation dijjerentielle initiale


par le schema {2).
D~FINITION. On dit qu'un probleme aux differences approxime
un probleme dif ferentiel sur le segment [x 0 , x 0 X] si +
max Ir, I-+ O pour h-+ O.
Xo~Xf~Xo+X
En se rappelant que f (XJ-t, y (x,_ 1)) = y' (x1-t) et XJ-l = x, - ih, on
obtient
k a-iY (:tJ- iii) k ' •
r1= ~ h - ~ b_1y (x1-ih).
i=O i=O
Supposons que toutes Ies derivees de la solution jusqu'a l'ordre q
inclus sont bornees:
ly<P>(x)l~Mp<oo pour x 0 ~x~x0 +X, p=O, ••• , q.
Representons toutes Ies quantites
y (x, -ih) et y' (x1-ih)
§ 6] MtTHODE DES COEFFICIENTS IND:STERMIN:SS 455

a l'aide de la formule de Taylor:


q-t
. ~ (-ik)P A.i
y(x1-ih)= .L..I y<P>(x1) pi +1-1;,
p=O
q-1
~ (-ih)P-1
y' (x1-ih) = .L.J yCP> (x1) (p-1) 1 + '\';;i
p=1

en eonformite ave~ l'evaluation du reste de la serie tayiorienne, on a


I ~l 1~Mq (ih)q/q !,
I'\'j l~Mq (ih)q-1/(q-1) 1
Portons Ies expressions de y (x1 -ih) et y' (xJ-ih) dans le second
membre de la representation de TJ et regroupons Ies coeffieients de
y(P> (x1) ; nous trouvons
r,= EJ,,-1y (xi) +E1y' (x,) + ... + Eq_ h"- y<q-u (x1) +e;,
1
2
(3)
avec

~"· b_, (-i)P-1


(4)
....1 (p-1) 1
i=O
lorsque p > O, et

Evidemment,
!e, l~DqMqhq-i,
ou

Dans certains cas (Ies methodes d'Adams du § 5 par exemple),


on reussit a reduire la valeur de la constante D rl. dans l'estimation
I BJ I• Si E 0 = ... = Em = O, alors r1 = O (hm) et on dit que (2)
est un schema approche a l'ordre m. On con~oit que tout schema
approche a l'ordre m est approche a l'ordre q si q < m. Si E 0 = ...
. . . = Em = O et Em+i =fo O, alors l'ordre d'approximation est stric-
tement egal a m. Lorsque (2) est multiplie par une constante arbi-
traire, r1 se multiplie par cette mâme constante. Aussi la definition
456 M~THODES DE R~SOLUTION DU PROBLEME DE CAUCHY [CH. VIII

de l'erreur d'approximation que nous avons adoptee n'est pas uni-


voque. Elle le deviendra sous Ies conditions supplementaires sui-
vantes : quelle que soit y (x) ţeguli~re,
k
. ~
11m a_;y (x- iii)
y' (x),
LI h
h➔ Oi=O
(5)
k
lim ~ b_,f(x-ih, y(x-ih))=f (x, y(x)).
h➔ O i=O

LEMME. Les conditions (5) sont verifiees· si et seulement si


E0 =E1 = O, bo+ .•. +b-k = 1. (6)
Developpons Ies expressions sous le signe limite en sepie de
Taylor au point x en retenant dans le premier cas Ies- te:rmes de
l'ordre de, 1 et ceux en h dans le deuxieme. On a
k k
lim ( (~ a;,,' y(x)) +~a_, (-i)y' (.i) +o (h)) =y' (x),
h➔ O i=O i=O •
k
lim (( ~ b_1) f (x, .y (x)) + O (h)) = f (x, y (x)).
h➔ oo i=O

Pour que ces relations soient satisfaites, il faut et il suffit que


h k k
~ a_,= O, - ~ ia_i = 1, ~ b_, = 1.
i=O ·. i=O i=O

Le premier membre de la premiere egalite vaut E 0 , la difference des


membres homologues de la deuxieme et de la troisieme est E 1 • D 'ou
le lemme.
Si E 0 = E 1 = O, ro = b0 + ... + b_k -=I=- O, 1, une multiplica-
tion de (2) par ro-1 fournit un schema aux differences qui verifie
Ies conditions (6) et donc Ies conditions de normalisation (5). Dans
la suite on supposera que Ies conditions (5), (6) sont realisees. L'.etude
de schemas avec· ro = O ne presente aucun interet pratique.
PROBLtME. Demontrer que la condition E 0 = E1 = O est necessaire pour
que la solution du probleme discret converge vers celle du probleme differentiel.
Les equations E 0 = ... = Em = O forment un systeme lineaire
homogene d'equations algebriques par rapport a 2k + 2 inconnues.
Si l'on a plus d'inconnues que d'equations: 2k .+ 2 > m + 1 (ou,
ce qui revient au meme, 2k ~ m), le systeme admet une solution non
nulle. En resolvant le systeme d 'equations E 0 = ... = E 2 h. = O,
on aboutit donc a un schema approche a l'ordre 2k. On a parfois
§ gJ1 . M:8TiiODE DES OOEFFICIENTS' IND:tiTERMI~S · 457

besoin d'approximations avec b0 = O. Le systeme d'equations b0 =


= O, E 0 = ... = E 2 k-i = O renferme plus d'inconnues que d'egua-
tions; il a par consequent une solution non triviale a laquelle cor-
resporid. un schema approche a l'ordre 2k - 1.
ExEMPLE.S. Lorsque k = 2, la solution generale du systeme d'equa-
tions Eo = ... = E,. = 0 s'ecrit ao = c, a_l = o, a_2 = -c,
b0 = b_ 2 = ; , b_1 = { c. La condition de normalisation (6) donne-
c = ! ;le schem~ de calcui revet la forme
YJ-;:1- ! /1+ i f + ¼:fJ-2) = 0.
2
- ( 1-1

Notons· que nous l'avons deja obtenu a partir de la formule de-


Simpson.
Sous Ies conditions b0 = E 0 = E1 = E 2 = E 3 = O, on a le schema·
YJ+4YJ-1-5YJ-2
6h
· (.!3 f J-i +.!.f
3 J- 2
) -- 0

(7),
Si Ies egalites
k
y' (x1) ~ ~ a_,Y. f J-1>
i=O .. (8)·
k
I (x1, y (x1)) ~ ~ b_d (XJ-h Y (x,_,))
(=O
.sont exactes aux termes en O (hm) pres, la quantite rJt difference des.
erreurs sur ces relations, est de l'ordre de O (hm) et donc, selon (3),.
E 0 = ... = Em = O. Cependant, pour que la condition r1 = O (hm),
soit remplie il n'est pas necessaire d'exiger que l'erreur sur ces rela-
tions approchees soit de l'ordre de O (hm). Ainsi, dans notre dernier-
schema r1 = O (h3) et I' erreur sur (8) est en O (h).
A part Ies methodes de Runge-Kutta et les.schemas aux differences finies.
il convient de mentionner les methodes de Butcher dans lesguelles chaque Yn-
est recherche a l'aide de quelques valeurs precedcntes Yn-i (comme dans les-
methodes des differences finies) et ou on execute a chaque pas plusieurs calculs
du second membre (comme dans les methodes de Runge-Kutta).
Voici plusieurs formules de calcul des methodes de Butcher:
1.

1 · h
y}i= 5 (28Yn-1-23Yn-2) + 15 (32/ _
11
J_ -60/n 7 1-26/n-2),
2
1 h
Yn = 3f (32un-1-Yn;_2) + ga (64/n- ..!..+ 15n + 12/n-1- fn-2)t-
2
458 DTHODES DE R~SOLUTION DU PROBL:E:ME · DE CAUCHY [CH. vn1.

.avee une erreur par pas de l 'ordre de O (Ji6) ; ici /~ = f (zm, Y!:i).
2. .
1 h
=lin-..!_= 128 (-225Yn-t +200Yn-2+153yn-a) + 128 (225fn-t+300/n-2+45fn-s),
2
1.
y}i=31 (540un-t-297un-2-212yn-s)+
h
+ 155 (384/ , 1 -1395/:a-t- 2130/n-2-309/ n-s),
n- T
1
Yn = 617 (783Yn-i -135un-2-31yn-s)+

+ ao"ss (2304/n_..!. +465/:i-135/n-1-495/n-2-39/n-3),


2
.aveo une erreur par pas de l'ordre de O (h8).

§ 7. Etude des proprietes des methodes


des differences finies sur des problemes modeles
Pou.r comprendre que.lles doivent etre Ies conditions pour que Ies
.approximations obtenues par une methode des differences finies
•convergent vers la solution du probleme, etudions quelques modeles
parmi Ies plus simples.
Considerons le comportament de la solution du schema aux dif-
:ferences finies
k k
~ a-tYJ-t -h ~ b-d1-i = O (1)
i=O f=O
:Sur !'exemple de l'equation y' = My, M = const. La relation (1)
:prend alors la forme
k k
~ a-tYJ-1-h ~ b_tMYJ-t = O~
i=O · i=O
-ou ancore,
k
~ (a-1-Mhb_,) Y1-i=0. (2)
i=O
· Supposons ensuite que a 0 =I= O et Mh tellement petit que le coef-
'ficient a0 - Mhb 0 est different de zero.
On sait ( § 7, chap. II) que la solution de l' equation aux diffe-
rences (2) a eoefficients constanta s'exprime a l'aide des racines de
a' equation caracteristique
li
~ (a_, -Mhb_,) µk-i = O.
i=O
§ 71 ~TUDE DES MiTHODES SUR DES PROBLBMES MODBLES 459

L'ecriture plus commode est


k
F (Q, µ) = ~ (a-i-Qb_ 1) µk-i =O (3)
i=O
avec Q = Mh. Les racines du polynome sont des fonctions continues
de ses coefficients dans le domaine oii son coefficient dominant est
non nul. Les coefficients a_i - Qb_i sont egalement des fonctions
continues de Q. Par consequent, Ies racines de (3) dependent de fa~on
continue de Q dans le domaine ou a 0 - Qb 0 =I= O, en particulier
pour Q petit. Nous en concluons que dans cette derniere condition
Ies racines de (3) sont proches de celles de
k
F (O, µ) = F (µ) = ~ a_iµk-i = O, (4)
i=O
appelee equation caracteristique du schema aux differences (1). Desi-
gnons par µ 1 (Q), i = 1, ... , k, Ies racines de (3) et parµ, Ies valeurs
µi (O), i.e. Ies racines de (4).
Dans la condition max I µ,I> 1 le schema aux differences est
. . i
a rejeter. En effet, la solution de l'equation aux differences s'ecrit
k
~
f=O
c, (µ, (Q)t
(on prend le cas ou Ies racines de (3) sont simples). En arrondissant
on perturbe Ies coefficients ci. Si le pas d 'integration est petit,
µi (Q) est voisin de µh et n peut etre important; il y a alors, parmi
Ies (µt (Q)t, des q~antites tres grandes. Ce qui fait que de faibles
perturbatiops de ci peuvent induire une perturbation catastrophique
de la solution. Ci-dessous le raisonnement rigoureux correspondant.
Les quantites reelles 111 obtenues par le calcul ne verifient pas exactement
l'equation (2)Ja cause d'arrondis. Considerons un cas « partiellement idealise •
ou on n'arrondit pas dans l'integration numerique selon la formule (2) mais
ou Yk-l est entachee d'une erreur.
Soient yJ, q = 1, 2 des solutions des (2) qui se confondent pour]
i=O, ••• , k-2, et y:_ 1-y1_1 =6.
Leur difference ZJ =--yJ - yJ est solution de (2) sous Ies conditions initiales
z0 = ... = zk-J = O, Zk-i = a. Notons E l'operateur de translation suivant
les nceuds du reseâu defini par Ey1 = YJ+i• Evidemment, EPy 1 = Yi+P pour
p entiers positifs ou negatifs, et l'equation (2) se recrit
k
~ (a-i-Qb_ 1) E-iyJ=O.
1=0
Soit µz (Q) une racine de (3) ; alors
k k-1
~ (a_,-Qb_,) µk-i=(µ-µz(Q)) ( ~ c_t(Q) µ.k-1-i)
i=O i=O
460 METHODES DE RESOLUTION DU PROB~ME DE CAUCHY [CH. VUI

aveo c0 = a0 - Qb0 • Multiplions cette egalite par µt-k et substituons, a µ I 'expres•


· sion de E ; on a
k h-1
E ~ (a_i~Qb_i) E-i=(E-µz (Q)) ( ~ c_1 (Q) E-i).
i=O i=O
Faisant agir les operateurs. des deux membres sur· la fonction ZJ, on obtient
k-1
O=(E-µz (Q)) ( ~ c_, (Q) E-i) ZJ-
i=O
k-1
Designons ( ~ c_i (Q) E-i) ZJ par v1 ; puisque E-izJ=ZJ-h il vient
i=O
k-1
Vk-1 = ~ C_i (Q) Zk-1-i = CO (Q) Zk-1 = Co (Q) (5.
'i=O
La fonction v1 verifie
(E-µz(Q)) v1=0, ou encore VJ+t=µz(Q) v,.
11 s'ensuit

i.e.
k-1
~ c_, (Q) ZJ-i = (µz (Q))i'-<k- 1> co (Q) «5.
i=O
On a l 'inegalite evidente
k-1 h-1
I i=O
~ c_i (Q} ZJ-i I< { ~ I c_i (Q) I) . max .1 zp J.
i=O 1-h<P~1

C'est· pourquoi la derniere egalite donne l 'estimation

max Iz I> I µz (Q} 1;+1-k I co (Q) I I «5 J.


j-k<p~j p k'iJt I C_i (Q) I
i=O .

Une perturbation- l5 de la condition initiale Yk-t entraîne une perturbţition


proportionnelle de la solution dont le coefficient·.est minore par const lµz (~ 11+1-k.
S'il existe un l tel que I µz I > 1, le facteur I µz (Q) IN = I J-LL (Q) I lh cor-
respondant au point :xN = :x0 +. X augmente brusquement avec la diminution
de k. On obtient une solution tras precise en reduisant l'erreyr d'approximation,
c'est-a.-dire le pas d'integration. Or, en vertu de ce qui precede on constate que
lorsgue le _pas diminue, la metbode deviant rapidement sensible aux perturba-
tions des donnees initiales.
Ainsi, pour le schema (6.7), max I µi I = 5. Supposons qu'en determinant
i
la valeur y1 nous avons commis une erreur c5 = 2-40 • A'lors des N = 18, I µt (Q)IN 6
est d'ordre 1 et l'erreur resultante est comparable a la solution mâme.
11 est egalement a c:r:aindre que pour µ, p-uples, p > 1, la solu-
tion approchee sur le contour du cercle unite ne soit affectee d 'une
_,:S,TUDE DES M8THPDES SUR DES PROBL-gMES MOD:mLES.

erreur proportionnelle a 6NP-1 = 6 (Xh-1)P-1 qui est tres. grande


pour h petits. Cette influence de l'erreur de calcul n'est pas une rai-
son pour rejeter ces schemas etaht donne que pour 6 et N reels une
erreur en IJNP-1 est admissihle. Montrons que ces methodes sont
·inacceptahles.
Soit µ,_ ·urie racine p-uple de l'equation (4) et telle que Iµ,_ I = 1.
Developpons le premier .membre de (3) en serie de Taylor suivant Ies puis-
sances de µ - fLi et Q; puisque F (Q, .µ) est lineaire en Q, ce developpement
s'ecrit - .
00 00

aoo+ ~ aoJ (µ-µ.1);+ ~ auQ (µ-µ1);=0, (5)


i=i i=O
. ou
aii~F'_Qiµi (O, µ.1)/J I.
Si fLi est une racine p-uple de (4), alors 4 00 = ... = 4 0 , p-l = O. C~mpte
tenu de cette circonstance, la relation (5) se met .sous .la forme
aop (µ. -1,ti)P +
a100 +
$ (Q, µ.) = O,
.avec ,i, (Q, µ.) formee de termes de la forme const{~ - µ.;.)P+l ou consţ(µ. - fLi)ZQ,
> O. Admettons _que 410 =fo O; la dernie:re egalite· ·s'ecrit alors · ·
{µ--:-µi)P=AQ+q, (Q, µ.), (6)

_A;= - a~o =I= O, OQ, .


aop . .
.avec q> (Q, µ.) composee de termes de la mâme forme que ceux de q> (Q, µ), i.e.
q> {Q, µ.) = 0 <r I Q I + I µ. - Jlt IP) I Jl - Jl1 I).
. La theor.ie des fonctions .d'une variable complexe apprend que l'equation (6)
~ossede p racines fLi (Q), ••. , µP (Q) .,

µJ (Q)=µ1+~)0 exp ( -;f-·


2nt· )
+o (Vfoji}, . (7)

{VTQ)o. ~tant .une branche fixe de la fonction y'°AQ'.


Cette proposition se demontre comme suit. Considerons l 'equation
µ-µ1 =q>J (Q, µ), .(8)

.avec q>J (Q, µ) une branche de la fonction. ~ AQ+q, (Q, µ) qui se confond·, lors-
·que µ = µ1, avec (~ AQ)o exp (2nij /p). Prenons un a> VA
quelconque et consi-
derons le domaine I µ-µ1· I < a y'"IQÎ; on montre ·que pour I Q I< C1 , C1 >t·O
-ce domaine verifie l 'estimation

I:~ I 11
~Ctl Q 1 P<0,5 •
. Considerons le prooes~s iteratif de resoh,1.tion-. de (8)
µ<m+~> = lfi +_q>J (Q, l'Cffl>),
462 M~THODES DE R~SOLUTION DU PROBLEME DE CAUCHY [CH. VUI

avec, au depart,

montrons que pour j Q j < C3, C3 > o, toutes Ies iterees µ<m) sont situees dans
le domaine lµ<m>-µd,<:a\i1Qj, puis que, quel que soit m, on a.

I µ<m>=µ< 0>I ,a1 ~I Q 12 -


La convergence du processus iteratif sous l'hypotbese

permet de dire que


I I
8q>J
8µ ,<:0,5

JLi (Q) = lim µ<m>


m-co
satisfait a (8) et l 'inegalite
I f:Li (Q)-µ< 0>I< a1 ~ I Q J2 •
D'oii la validite de la relation (7).
Puisque le module d'un nombre complexe ne cbange pas s'il est multiplie
par un nombre de module 1, on a en vertu de (7)

I
I J.LJ (Q) I= Iµ; (Q) Jli'1 I= (1 +~)o JJi.1 exp (
2
;i/ )+s1 f, (Q)
oii
SJ (Q) =0 (~ I Q 12).
t
Par ailleurs, le module d'un nombre complexe est au moins egal a sa partie
reelle. C' est pourquoi li ·
µ; (Q): I > Re ( 1 + (V AQ)o µ 11 exp ( -f
P - 2ni") +s1 (Q) ) =

=1+Re ( (~ AQ)ofJ,i"1 exp


2
;i/) +Ree1 {Q).
En prenant au lieu de y' = My l'equation y' = -My, celle-ci verifie de mâme
l'inegalite
lµJ(Q)l>1+Re (<~ 2
AQ)oµ 11 exp ( ;ii))+Resj(Q).
Considerons 2p nombres complexes
2n'j •
W ±.AQ)oµ1 1 exp ( +), /=1, ... , p.

Les points du plan complexe correspondant a ces nombres se trouvent sur la


circonference I z I = ~/I AQ I qu'ils divisent en 2p arcs egaux (fig. 8.7.1.)
dont chacun est intercepta par un angle au centre de n/p. Comme p ~ 2, cet
angle est au plus n/2. Par consequent, l'un de ces nombres au moins possede
§ 71 . :eTUDE DES M:eTHODES sun D_ES PROBLEMES MODm:.Es 463

un argument egal au plus


1'
a n/4 en valeur absolue. Si :: =r p (cos q> + t sin cp)
et I cp I ~ , alors
4
Re::= p cos q> > p cos ( : ) = -va·/
Et pour I 'un de ces nombres

Re ( W± AQ)o Pi"' exp ( 2~11 ) ) :;,. i;;.,-~ ,


On aura donc, soit pour .y' = M y, soit pour y' = -My,

m;"xll'J(Q)l>t+ ~ +•(Q)
avec
e (Q)=O (f/TQji).
En se rappelant que Q=Mh, il en resuite
~ )X/h
(i+ ţi +s (Q)
1
~ax I P.J (Q) IN> =

_-exp ( ( ~ +oWIQJ ))
1
!)=ex{~ hP~i +tp~z) )·
Avec le fractionnement du pas h la derniere quantite tend vers l'infini plus vit&
que toute puissance de h. Aussi, meme au hout d 'un nomhre faihle de pas, Ies-

p=J
Fig. 8.7.t

perturbations par arrondi s'averent-elles com~arables avec la solution cherchee„


si hien qu'on renoncera egalement A des methodes des differences finies dont
l'equation caracteristique (4) admet des racines multiples de module unite •
.Dans notre raisonnement nous avons admis FQ (O, JJ,i) =fo O. Dans le cas
contraire, le schema a k +
1 valeurs correspond A un schema a Ir valeurs. Ainsi„
on obtient
YJ - 2YJ-i + YJ-2-h UJ-t - f J-.J = O
.'464 D~JiOPES DE R8SOLVTION DU PROBL'E:ME DE. CAUCHY [CH. VIII

.~n retrancha,nt ,membre .a. membre les equations


Yi - Yi-1 - hfJ-1 = 0,
YJ-1 - YJ-2 - h/1-2 = O,
-correspondant au schema d.e la met~ode d'Eulei:.
A la lumiere de .I'expose precedent on comprend l'importance de
ia condition a :
toutes les racines de l'iquation caracteristique (4) sont contenues dans
le cerc le unite ~t aucune raci.ne multiple n' est situee .sur. la circonference
de ce cercle.
On pourrait penşer que n'et;:,.ie]lt-c~ Ies erreur~ d'arrQndi et de
-donnees, la solution du probleme aux differences finies convergerait
vers celle du probleme differ~nţiel. n n:en est rien: quel que soit
le schema aux differences ne ,verifiant pas la condition a, on peut
,construire une equation differentielle possedant un second membre
indefiniment deri vable et telle qµe meme en l' absence de ces erreurs
la solution du probleme aux differences finies soit eloignee de celle
,du probleme differentiel.
Nous nous passerons de formulations et ·demonstrations rigoureuses des
theoremes correspondants. Car si une demonstration rigoureuse des propositions
formulees sans equivoque a le don d'eclaircir le probleme., elle cultive par contre
un certain conservatisme dans l'approche du phenomene etudie. En enon~ant
par exemple qu'il existe,/our tout procede ne satisfaisant pas A la ·condition ex.,
une eq1:1ation avec secon membre re~lier et telle qu'avec le fractionnement
du pas du reseauJa . solution-du problem~ discretise ne coqver11e pas vers celle
-du probleme differentiel dans le c~lcul sans arrondi, on suggere 1 idee de renoncer
une fois .pour toutes a des procedes pareils. Une fois le theoreme demontre,
-c'est cette conclusion qui est retenue. Est-elle juste? Actuellement, le calcul
.mathematique fait. siennes des methodes d'integration negligeant la condition ex.
•.et se servant, pour, definir Ies valeurs y J, d '.une technique differant-completement
de leur calcul par recurrence a l'aide d'un schema aux differences. La resolution
d'une classe de problemes exigeait qu'on trouve la solution entachee d'une
-erreur relative d'environ 20 % , mais au bout d'un nombre de .pas tras faible.
Les mathematiciens ont essaye en vain des methodes verifiant la condition ex..
Les ingenieurs ont alors propose une technique negligeant cette condition mais
,donnant la solution avec la pţecision demandee, pom: ?n pas suffisamment
im_portant. Nous voyons que la cause de !'insucces a ete en l'occurrence une
information •redondante sur Ies. methodes de resolution. On a etabli par la
suite qu'une precision de 20 % -ne verifiait pas Ies nouvelles conditions imposees
.a la solution a.pprochee. Pour ameliorer la precision jusqu'ă. l'ordre de 1 %
il a fallu utiliser tous Ies resultats theoriques et des methodes vcrifiant la con-
oition ex. sur des machines a calculer plus puissantes.
De prime abord Ies schemas (1) de plus grand ordre d'approxima-
tion m semblent Ies plus rentabJes. Or, tous Ies schemas avec m grand
ne satisfont pas a a.
TH:eoR°BMES. Si le schema
est explicite, m > Tţ;
irnplic.ite, k impair,. m > k +
1.,
. ou implicite, k pair, m > k 2, +
il existe, parmi les racines de l'equation caracteristique (4), une racine
superieure a d. en module.,·. . ..
181 :8VALUATION D'ERREUR 465

§ 8. Evaluation d'erreur dans Ies methodes


des differences f inies
Evaluons Ies erreurs sur Ies soiutions approchees obtenues par
des methodes des differences finies du type (5.1) verifiant a. Les
approximations y1 des valeurs y (x1) sont liees non pas par la rela-
tion (6.1), mais par
h k
~ a-iYJ-1-h ~ b_,f(XJ-h Y1-1)=l>1, (1)
i=O i=O
avee 61 eventuellement non nul (I' origine de 61 est eclaircie au § 4).
D'autre part., on a etabli aux §§ 5, 6 que Ies valeurs y (xn) de la
solution exacte du probleme differentiel verifient
k k
~ a_ 1y(x1-1)-h ~ b_,f(XJ-h y(XJ-i))=hr1, (2)
i=O i=O

et on a vu que, pour un ·choix approprie des coefficients et b_1, a_,


r1 = O (hm), m > O. En retranchant (2) de (1) on trouve l'equation
d'erreur R 1 = y1 - y (x1). Selon la formule de Lagrange, on a
I (x1-1m YJ-i) - I (x,_,,_ Y (x,_,)) = z,_, R,_,, (3)
avec
l;-i = I. (x,_,, Y1-1)1
YJ-t etant compris entre YJ-t et y (x1_1). Compte tenu de (3), la
difference de (1) et (2) s' acrit
k k
~ a_tRJ-t-h ~ b_,li-iR1-,= g,, (4)
i=O i=O
ou g1 = 61 - hr1• . .
TB:80R:BME SUR L'l!:VALUATION D'ERREUR. Supposons que le schema aux
differences veri/ie la condition a et I fu I ~ L. p~mr x 0 ~ :x ~ x 0 X. +
Dans la condition 3:0 ~ Xn ~ x 0 +
X, on a alors
n
IRn·l~C(L, X)( max IR,I+ ~ lc,1)- (5)
0~i<k , ;=k

D:err10NsTRATION. Enon~ons un cas partic1.ţlier du lemme du


§ 3, chap. VI: supposoiJ.s que toutes Ies valeurs propres de la matrice
A se trouvent dans le cercle I Â. I~ q et qu'il n'y a pas de racines
multiples sur la circonference; il existe alors une matrice C telle
que HDll1 ~ q, ou
D = C-:1AC.
30-01007
466 MgTHODES DE RgSOLUTION DU PROBLli}ME DE CAUCHY [CH. VIIl

L'evaluation se fera plus aisement si l'on transforme (4) en un&


equation vectorielle a pas separes. Pour fixer Ies idees, nous suppo-
serons partout h tellement petit ·que I hb 0L I ~ le coefficient Ia; I;
a 0 - hb 0 l1 affectant R 1 dans (4) est alors Ia; I
au moins ·en module.,
En reportant a droite dans (4) tous Ies termes sans Ri et en divisant
par le coefficient de Ri, iI vient

(6)

Posons

evidemment,
VfJ = b_c::z:.~~~)i::lj ' IViJ 1-< 2 I b-illo i' ! :st-tbo I L.

Introduisons Ies vecteurs


Z1= (R1, ••• , R1-1&+1)T.
La relation (6) est equivalente a
Z1=AZ1- 1 +hV1Z1+ W1, (7)
oii
a_1 a_2 -a1-k a_k
-a;--~ ... ao ao
1 o ... o o
Â=
o 1 ... o o
o o
V1J •• •VkJ)
V 1=
o ... o
( . .. ,

o ... o
En effet, en egalant Ies premieres composantes des vecteurs a droite
et a gauche dans (7), on aboutit justement a (6) et en egalant Ies
autres composantes a
RJ-i = R1-h i = 1, ...,. k - 1.
§ 8] iVALUATION D'ERRElJR 467

Calculons le polynome caracteristique de la matrice A :


P (Â) = det (A - 'J,.,E) =

1 -Â o o
=det
o 1 o o
o 1 -Â o
A cette fin, il faut multiplier par  la premiere colonne et ajouter
ce produit a la deuxieme, puis multiplier par  la deuxieme colonne
et ajouter ce produit a la troisieme, et ainsi de suite. On a finalement
Pt (Â) P2 (Â) Pk-1 (Â) Pk (Â)
1 O O O
P (Â) = det O 1 O O

o o 1 o
avec
P1 (Â) = - a_ 1 - Â, P2 (Â) = - a_2 + Â. ( - •ct. -Â) , ..•
ao ao ao
p1i(Â)= _ a_h +Â ( - a1-k +Â ( - a2-k + ...
ao ao ao
... +Â( _a;: -Â,) ... ) •
Developpons le determinant suivant Ies elements de la derniere
colonne, îl vient
(-ftp (Â)= -ph (Â)= Âk+ a_1 Âk-1+ ...
ao
+ a_k
ao
=
=~(a
ao 0"-"+a-1Âk-t+ .. . +a_1i)-

L'equation caracteristique de la matrice A est donc proportionnelle


a l'equation caracteristique (7.5) du schema aux differences. En vertu
de la condition a, toutes Ies racines de l'equation caracteristique
de A se situent dans le cercle Iz I ~ 1 etil n'y a pas de racines mul-
tiples sur Ia circonference. En ce qui concerne la matrice A, la con-
dition du lemme est remplie pour q = 1. Par consequent, il existe
une matrice C telle que c-1AC = D et li D 111 ~ 1. Effectuons le
changement de variable Zn = Czn dans (7). La multiplication a
gauche par c-1 reduit (7) a la forme
(8)
ou
30*
468 M~THODES DE R~SOLUTION DU PROB~ME DE CAUCHY [CH. VIIJ .

Les seuls elements non nuls de la matrice V1 appartiennent a la


premiere ligne ; aussi
li
li VJ llt ~ (2 ~ I b-iaol 1:1~"-ibo I } L = vL
•=t
et
li VJ llt ~li C-1 111 li v, ll1 li C llt <vL li c-1 111 li C lls•
Evidemment

l1w;l11~l1C-1llt IIIW1l11=IIC-1ll1I ao-~bolJ 1~211c-1llt :::: •


Apres avoir evalua Ies normes des termes dans le second membre
de (8), on peut ecrire l 'inegalite
llz1IJ1~~1gtl+(1+yLh)llz1-11l1, (9)
ou
~=2"f~? 1 • 1=v11c-1 111IICll1•
Pour e:valuer nZnll1 par li Z1i-1ll1 et I gJ I ecrivons Ies inegalites
(9) avec .j ...:._ n, ... , k; dans le second membre de l'estimation de
li Znll1 â l'aide de li Zn-1 11 1 , evaluons li Zn-1 111 en fonction de li Zn- 2 111 ,
puis li Zn- 2 11 1 par li Zn-sll 1 dans le second membre de l'inegalite
ainsi ~btenue,. et ainsi de suite. Finalement1
..
li Zn ll1~Plgn 1+(1+'\' Lh) (~ lgn-11+(1 +yLh) (~ lgn-2 I+•••
1

. . .. + (1 + ?Lh) (~ I g7i l + (1 + '\'Lh) li Zk-t ll1) ••• )),


. ou, ee qui revient au meme,
ta

i
.li Zn l 1 ~p ,=1a (1 + ?Lh)"-1 Igi I+ (1 + yLh)n-1'H li Zk-tllt• (10)
Simplifions cette estimation en la rendant simultanement moins
precise. Pour .z0 ~ x 1 ~ Xn ~ x 0 +
X, on a (n - j) h ~X; c'est
.pourquoi
(1 +
yLh)ta-l ~ exp (yLh (n - j)) ~ exp (yLX).
U decoule alors de (10)
fl

~ I Ki I +li z,H ll1).


li Zn llt~exp (yLX) (p i=k (11)
Les inegali tes
I Rn (~li Zn ll1~11 C ll1 li Zn l11,
lt z,i-1 N1~II c-t 111 li z,H 111 = li c-11'1 max I Ri I
O~i<k
§ 9] PARTIE PRINCIPALE DE L'ERREUR 469

sont justes, et, partant,


n
IIZnll1~IICll1exp(yLX) (~ ~ lg1l+11c-1ll1IIZ1i-1ll1)- (12)
i=h
On obtient maintenant l 'estimation d 'erreur
n
IRnl~exp(yLX) (Mt ~ lg1l+M1 max IRd),
i=h O~i<1&

ou M 1 = ~li Cll1 , M 2 = li Cll 1 II c- 11i et y sont des constaqtes ne


1
dependant que des coefficients a_"
b_, du schema aux differences
initial. En partieulier, M 1 et M 2 dependent des a_i seuls. Le theo-
reme est demontre.
Portant dans (12) la valeur g1 = 61 - hrJ, on trouve. une esti ...
mation complete de l'erreur
n
I Rn l<exp (yLX) (Ms -~ (I 61 I+h I r1 I) +M2 m~x I R,f). (13)
1=k O~t<ll
11 en resuite que pour que la solution de l' equation aux differences
converge vers celle de l'equation differentielle, il suffit que
n n
~ Ic5 i I -+ O, h ~ I r1 I -+ O, max I Rd -+ O.
i=k i=k O~i<k

§ 9. Partie principale de l'erreur


Nous avons evalua Ies erreurs dans tous Ies schemas aux diffe-
rences finies satisfaisant a ex.. Les estimations etant cependant trop
fortes, la question de la methode a choisir reste ouverte. Les schemas ,
aux differences se prâtent a une caracterisation comparative plus
detaillee si l' on met en evidence la partie principale de l' erreur sur
la solution approchee.
Supposons que l'ordre d'approximation est strietement egal a
m ~ 1 et que
1) le schema aux differences verifie la eondition ex. et est norme,
i. e. b0 + ... + b_k = 1 ;
2) le second membre/ (x, y) est suffisamment regulier, a savoir
lt+l2
I fxlt11l2 (x, Y) l~Lltl 2 < oo
dans le domaine G: x 0 ~ x ~ x 0 + X quels que soient lu l 1 , O ~
~li+ l 2 ~ 2m;
3) l'erreur sur Ies eonditions initiales est d'ordre infinitesimal
plus eleve que l'erreur d'approximation rJt i. e.
I R1 I~ 11 (h) hm pour ; = O, ••• , k - 1,
îJ (h) tendant vers zero avee h;
470 MaTHODES DE R:8SOLUTION DU PROB~ME DE CAUCHY [CH. VIII

4) Ies erreurs d'arrondi sont d'ordre infinitesimal plus eleve


que Ies quantites p1 = hr1 appelees erreurs sur un pas, c'est-a-dire que
I 61 I ~ ri (h) hm+ 1 pour j = k, ... , N.
La derivee s + 1-ieme de la solution s'exprime moyennant le
second membre de l'equation et ses derivees jusqu'a l'ordre s. Aussi
a-t-on dans la condition 2)
I y<P> (x) I~ Mp < oo pour x 0 ~ x ~ x 0 + X
et p = O, ••. , 2m + 1.
Selon (6.3), on a alors
2m
lr1- ~ EphP'-ty(P) (x1) l-<.D2m+1M2m+1h 2m.
p=O
Vu que l'ordre d'approximation est m, i.e. E 0 = ... = Em = O,
il s'ensuit
5) r1 = Em+tY(m+t) (x1) hm ro1,. +
ou I ro 1 I~ Qhm+t uniformement par rapport a j lorsque x 0 ~
~ x 1 ~x0 + X.
Bien que 5) soit la consequence de la condition 2), nous la for-
mulerons, pour la commodite de l'expose, comme une condition
independante.
TH:80R~ME DE LA PARTIE PIDNCIPALE DE L'ERREUR. Dans les condi-
tions 1)-5) et lorsque x 0 ~ Xn ~ x 0 + X, on a
Yn - Y (xn) = Em+iZ (xn) hm + 8 (xn)., (1)
Qu I e (xn) I ~ C (ri (h) + h) hm;
,c ,c

z (x) = J
xo
(-y<m+O (t)) exp ( J/ (-r,
t
y y (-r)) d-r) dt
est la solution de
z' = fu (x, y (x)) z - y<m+O (x)
avec la condition initiale z (x 0 ) = O.
L'idee majeure de la demonstration est la suivante: l'equa-
tion (8.4) relativement a l'erreur Rn = Yn - y (xn) est ramenee
a une forme qui entraîne que Rnh-m est solution de l'equation a1iix
differences qui approche l'equation differentielle par rapport a z (x)
du theoreme.
D:8MONSTRATION. Sous l'hypothese du theoreme la relation (8.4)
s'ecrit
k k
~ a-iRJ-i-h ~ b_ilJ-iR1-i= fJ1-hr1=
i=O i=O
1 9] PARTIE PRINCIPALE DE L'ERREUR 471

.avec
qJ= fJ;-(hr1-Em+1Y<m+1) (XJ) hm+i);
-eonformement aux conditions 4), 5),
IqJ I~ 11 (h} hm+i + Qhm+2.
Si l'on substitue dans le second membre de (8.13) Ies estimations
,de Rh O~ i < k, f,J, rb donnees par le theoreme, il vient
IR; I~ di.hm lorsque x 0 ~ XJ ~ x 0 + X. (3)
Rappelons-nous que l1 = f 11 (x;, y1) avec YJ compris entre y (x 1) et
= y (x1) + R 1 et appliquons la formule de Lagrange- relative-
.YJ
ment a y; nous obtenons
.l1- fu (x1, Y (x1)) =fu (x1, Y1)-fu (x1, Y (x1))=
= fuu (x1, Y;) (Y;-Y (x;)}.
,II en decoule
I l1-f11 (x1, Y (:c1)) l~I Lo2 I R1 l~d1Lo2hm (4)
iJ.orsque x 0 ~x1~x0 +X. Utilisons
k
~ b_1 =i
i=O
,et mettons l'egalite (2) sous la forme
h h
~ a_iR1-1-h ~ b_t (/ 11 (XJ-;, y (x;-i}) R1-t -
-t=O i=O

•OU
h
•a1=q1+h ~ b_t(l;-t-f11 (x;-i, y(x1-i)))R1-t+
i-0
h
+hEm+t {~ b_t (y(m+i) (XJ-i)-y<m+i) (x1))) hm.
i=O

Conformement aux estimations (3), (4), .


I (l1-t-fu (XJ-t, Y (X;-,))) RJ-i l~d2h 2m.
·On a
Iy(m+1) (XJ-i)-y(m+i) (x1) l~Mm+tih;
Ies estimations ci-dessus impliquent
max I CXJ I=0 (1'] (h)hm+i)+O (hm+2)+O (h2m+1)=
.xo~Xf~xo+X
= O ((11 (h)+h) hm+i).
472 METHODES DE RESOLUTlON DU PROBLEME DE CAUCHY [CH. VIII

Divisons par hm+ 1 Ies deme membres de (5) et notons v1 = R 1h-m,


il vient
k
~
i=O
a_,v,_,- h ~ b_,(f
i=O
k
11 (XJ-h y (x 1-;)) VJ-i-
-Emy<m+o (3:1-,)) = P,, (6)
Pt= cx,h-•, I P1 l~d3 (ri (h)+ h) h.
Comparons Ies valeurs Vn avee la solution de l'equation differen-
tielle
z'-= f.11 (x, y (x)) z-Emy<m+t) (x) (7)
dans la condition initiale z (x0) =O; nous avons

J Jf
: X

z (x) = - Emy<m+i) (t) exp ( 11 (i-, y (-r)) dt) _dt. (8)


:ieo t
La relation (6) signifie que la fonction discrete v1 est une soluţion
approchee de l 'equation aux differences finies correspondant a cette
equation differentielle lineaire. Servons nous de l 'estimation (8.13)
et substituons P1 a f>1 :
,.
I Vn-Z(Xn)l~exp (yLX)(M1 (~ l~1l+hlr,I)+
i=k
+M 2 max lv,-z(xi)I), (9)
O~i<I&
r1 etant l'erreur d'approximation
I&
~ "\1 a_fZ (ZJ-d
r1= L.J h
i=O i=O
qui correspond a I' equation
z' = f 11 (x, y (x)) z-y<m+t> (x).
La solution y (x) est (2m + 1) fois derivable par rapport a x; i1
en deeoule que le seeond membre de (7) I 'est m fois. La fonetion
+
z (x) est alors m 1 fois derivable. En vertu des developpements
du § 5, I r,j~dihm lorsque Xo~Xj~Xo+X. D'ou
n
~ hi r, l~Xmaxlr~,!=XO(hm).
i=k i
Comme IP1 I~ d3 (11 (h) +h) h, on a
n
~ I ~J I~ds (ri (h) +h) nh~d8 X (11 (h) +h)
i=1
lorspue x0 ~Xn~x0 +X.
f 9] PARTIE PRINCIPALE DE L'ERREUR 473'

D'apres l'hypothese du theoreme, vi=Rih-m=0(1'}(h)) pour


O~i < k; la forme explicite de z (x) entraîne egalement z (xi)= O (h)
pour O~i< k, et donc
max Iv1 -z (x1)(1 =0 (1'J (h) +h).
OEi<li
Utilisons ces inegalites pour evaluer le second membre de (9);
nous obtenons
max IVn -s (xn) I= O (11 (h)+h).
n

La multiplication par hm fournit l 'affirmation cherchee; du theo-•


reme. ..
Le theoreme de la _partie principale de l' erreur autorise formellement.
a appliquer la regie d'evaluation _pratique de l'erreur de Runge (voir§§ 13, 15,
chap. III} pour h et Ies erreurs d'arrondi e, 1 suffisamment petits. Dans le cas-
considere, il importe eependant: d'âtre plus prudent que lorsqu'il s'agissait de-
calculer des· integrales.
En effet, la relation
I Em+iZ (z) h,m I > I e {z) I, (10)1
qui est necessaire pour gue Em+1z (z) hm soit effectivement la partie principale-
de l' erreur, n' a parfois lieu que pour k tres faibles et dans la condition invrai-
semblable de aJ petit.
Ce que nous venons de dire n' est vrai que pour certaines methodes. Dans-
Ies methodes a pas separes, on constate asse:1.1 souvent une predominance reelle-
de la :partie principale de l'erreur (4.12} par rapport aux termes d'ordre superieur.
Parm.1 Ies procedes utilisant Ies differences finies indiquons ceux dans lesquels.
une racine de l'equation caracteristique (7 .4) vaut 1 et Ies autres sont stricte-
ment interieures au carele unite (Ies methodes d'Adams en font P,artie). Pour
Ies methodes d'Adams et de Runge-Kutta la relation (10) est verifiee des que-
les pas h sont relativement acceptables. Par ailleurs, des calculs reels salon
ces methodes se font assez souvent avec des pas grands qui ne satisfont pas tou-
jours a (10).
En l'absence de condition (10), on peut dire que l'erreur possede reellement
une partie principale qui ne coincide cependant pas avec Em+1 z (z) hm. Par·
exemple, la partie principale effective pour le schema Y1--;J{J-2 - f (zi-i,YJ-t>= 0-
peut âtre une certaine composante e (z) de l'ordre de hm+1 • Le paragraphe-
suivant confirmera dans une certaine mesure nos raisonnements.
On peut dire, pour conclure, que la comparaison des resultats des calculs-
effectue~ avec des pas differents est !e procede principal {etfd'_!mlploi relative-
ment frequent} qu1 permet de se fa1re une idee de l'erreur reelle. .

L'analyse faite aux §§ 8, 9 semble impliquer que tous Ies sche-


mas d'un meme ordre d'approximation et tels que la condition a
soit satisfaite sont equivalents quant a leur mise en ceuvre pratique ::
selon Ies constructions du § 8, Ies conditions de convergence des
solutions approchees ont un aspect sensiblement identique et,. d'apres;
le theoreme que nous venons de demontrer, Ies parties principales.
de l' erreur sont proportionnelles.
474 Ml!lTHODES DE Rl!lSOLUTION DU PROBIBME DE CAUCHY [CH. VIII

Cette analyse s' avere neanmoins insuffisante ; nous avons exami-


na le comportament asymptotique de l'erreur avec un segment d 'in-
tegration [x0 , x 0 +X] fixe et un pas du reseau tendant vers zero.
Or, de nombreux problemes se caracterisent par un intervalle d'in-
tegration tres grand si bien qu'on a interet a connaître non seule-
- ment I' allure de l' erreur pour un pas qui va en diminuant, mais aussi
pour un segment d 'integration important. Pour eclaircir cette ques-
tion, examinons une fois de plus des problemes modeles.

§ 10. Etude des proprietes des methodes


des diff erences finies sur
des modeles plus precis
Comparons deux schemas aux differences finies: la methode d' Euler
Yi-Yi-t
h j (XJ-t, Yi-t) = o (1)
et une variante de la ,methode de Milne
YJ-YJ-2
2h f (XJ-1, YJ-1) = o. (2)

Comme au § 5, substituons a Yi Ies valeurs y (x1) de la solution


exacte et obtenons, apres avoir developpe le premier membre en
.serie de.Taylor suivant Ies puissances deh, l'erreur d'approximation

rt= Y (XJ)-yh (Xj-t)


·
"
-f(x;-1,y(x1-1))=y (x,) 2 +0(h2),
h
(3)

{2)
.r1 = y (Xj)-y (Xj-2)
2h
(Xj}
f_(XJ-1, y (x;-1)) = ym - 6-h2 + o (hS), (4)

pour le premier et le deuxieme schema respectivement. Le calcul


d'apres le premier schema exige qu'on connaisse au depart une valeur
approchee de y (x0), et dans le cas du deuxieme s'y ajoute la con-
naissance de la valeur approchee de y (xJ. Supposons ces valeurs
donnees sans erreur et le calcul meme se passant d 'arrondi. Le pre-
mier schema a pour equation caracteristique µ, - 1 = O et le deu-
xieme µ, 2 - 1 = O. Les deux equations verifient la condition a.
Supposons que le second membre/ (x, y) satisfait a toutes Ies hypo-
theses du theoreme sur la partie principale de l'erreur (§ 9); on
a alors, conformement au theoreme_,
xn xn
y~-y (xn) = - ~ Jy" (t) exp ( J /u ('t", y ( 't")}d't') dt (5)
:ro t
§ 10) :8TUDE DES PROPRI:8T:8S DES M~THODES DES DIFF:i!:RENCES FINIES 475

pour le premier schema., et


xn xn
y!-y (xn) = - ~
2
)

xo
y"' (t) exp { J/ (-r, y (-r}) d-r} dt
t
y (6)

pour le deuxieme.
Proposons-nous maintenant d'integrer le modele y' = My avec
la condition initiale y (O) = 1. Son second membre verifie toutes
Ies hypotheses du theoreme du paragraphe precedent; evidemment
fu = M, y<k> (x) = M<n> exp (Mx). Les relations (5) et (6) donnent
respectivement
xn xn
2
y~-y (xn)= - ; ) M exp (Mt) exp { j M d-r} dt=
o t
- M 2z h
t exp (Mxn) +o {h2),
M3x h2
y!-y (xn) = 6
n exp (Mxn) + O (h 3).
La partie princi pale de l' erreur dans le deuxieme schema differe de
celle dans le premier par le facteur Mh/3. Une comparaison selon
le critere de partie principale revelerait l'avantage du deuxieme
schema lorsque I Mh/3 I < 1.
Cette analyse s'avere neanmoins trop sommaire. Les solutions des
equations aux differences finies (1), (2) peuvent s'expliciter. On a
dans le cas du premier schema
Y~-Y~-1
h
alors

et donc
(1 Mht.
y}i = +
Dans le deuxieme cas, on a l'equation

dont la solution generale s'ecrit


y;= C1µf +C2µ;,
avec µ 1 , 2 = Mh ± V 1 + M 2h2
racines de
µ2 -2Mhµ-1=0.
Les conditions de coincidence en x = x 0 = O et x = x1 = h avec
la solution exacte donnent un systeme d'equations en C1 et C2 :
C1 +
C2 = 1, Ciµ 1 +
C 2µ 2 = exp (Mh);
476 MiTHODES DE RiSOLUTION DU PROBLEME DE CAUCHY [CH. VIII

d'ou
exp (Mh)-µ2 C _ e:rp (Mh)-µ1 .
2
µ1-112 ' - µ2-J11 '
Ies racines µi, µ 2 , et, partant, Ies coefficients C1 , C2 sont fonctions
de Mh = Q; deveioppons-les suivant Ies puissances de Q; iI vient
y 1 +M2h2 = 1 + Q; +o (Q'),
µ1 = 1+Q+ i + o<Q') = exp Q- 0: + o (Q') =
2

=exp ( Q- Q: +O(Q')) ~
Q2 QS
µ2= -1+Q- 2 +0(Q')= -exp (-Q)- 6 +0 (Q')=

= -exp (-Q+ o; +o (Q')), (7)

Q3
C2 =1-C1 = - 12 +0(Q').
Donc,
y:= ( 1 + r; +O (Q')) ( exp ( Q- Q: +O (Q')) r-
-( ~; +o (Q')} (-1t ( exp ( -Q+ O: +o (Q')) )";
on suppose ensuite IQ !<const. On a l'egalite evidente
1+0= exp ( Q- 0; +o (Q3)).
Aussi le rapport de la solution approchee y! a la solution exacte
y (xn) = exp (Mxn) =exp (Qn) du premier schema s'ecrit

Yi exp ({Q- Q; +o (QS) )n) QZ


Y (.xn) = exp (Qn) = exp { ( -2+ O (QSl} n) =
Q2n
= t - - 2- + O (Q8n) + O (Q'n2) =
= 1- M;.xn h+O (M 3xn (1 +IM I Xn) h2). (8)
t§ 10] :8TUDB DES PROPRI:BT:8S DES M~THODES DES DIFFSRENCES FINms 477

Dans le deuxieme cas


„ 2
y(;n)
Q3
= (1+ 12 +0 (Q')} exp ( ( -
Q3
6 +0(Q')) n ) -
- ( ~; + 0 (Ql)) exp ( ( - 2Q + Q: + 0 (Q~)) n) =
= 1 + O (M8:r.nh2) - <~;) (1 + O (Mh)) exp ( -2Mxn (1 + O (Mh)
3
2
)).

(9)
Si M ~ O, ii en resuite
2
_!!__(n
y Xn
) = 1 +o•(M3xnh2); (10)
pour Mh petits, l'estimation (10) est meilleure que (8) quelle que
soit la longueur du segment d 'integration. Si M < O, Ie deuxieme
terme a droite dans (9) renferme un faeteur qui eroît brusquement
avec Xn- Par exemple, pour M = -1, h = 0,01, Xn = 10, on a

I I> 30,
Y ~=nl
Tandis qu'on a, lorsqu'il s'agit de la formule de calcul (1),~
u!
-(-)
y Zn = 0,95 ...
Pourquoi la formule (1) est-elle meilleure pour M < O, alors
qu' elle n' est exacte qu' a l' ordre 1 ?
Les solutions de l'equation differentielle consideree ont la formez
const •exp (Mx),
et elles se multiplient par exp (Mh) = exp Q lorsqu'on passe d'un
point Xn. au point suivant. L'equation aux differences finies corres-
pondant au schema (2) admet des solutions partieulieres de deux
formes C1 µ1' et C2 µf. Selon (7):i
µ{ = exp (Mh) +
O ( \ Mh 13), (11)
et la composante de la solution correspondant a eette racine est
multipliee a chaque pas par une quantite voisine de exp (Mh). La
composante assoeiee a la seconda racine se multiplie a ehaque pas
par µ 2 qui est sensiblement different de exp (Mh) (on peut dire
que c'est une composante parasite). Si M > O, alors I µ 2 I < I µ1 I
et l'influence de la composante parasite decroît a ehaque pas. Si par
contre M < O, alors I µ. 2 1 > I µ 1 1 et l'influence de la composante
augmente rapidement et perturba catastrophiquement le -resultat.
Dans la pratique, on aborda non pas une equation isolee, mais
tout un systeme. Si l'ecart de deux solutions quelconques du systeme
478 METHODES DE RESOLUTION DU PROBL:tME DE CAUCHY [CH. VIII

croit, l'equation y' = My, M > O, est acceptee comme modele


sur lequel on essaye les methodes de resolution du systeme. Si deux
solutions quelconques se rapprochent dans le temps, le modele est
souvent y' = My, M < O. Les solutions d'equations differentielles
ne manifestent pas frequemment de tendance bien prononcee a diver-
ger ou converger a chaque instant, cette tendance se revelant globa-
lement. On exige donc que la methode en question integre suffisam-
ment bien l'equation y' = My que M soit superieur ou inferieur a
zero. Le cas M < O est astreint a des conditions particulierement.
importantes vu que le rapprochement caracteristique des solutions
est special aux problemes dissipatifs qui constituent une grande
fraction des problemes d 'applications. 11 existe suffisamment de
problemes dont Ies solutions convergent ou divergent relativement
lentement (cette classe comprend des problemes sans dissipation
d 'energie).
L'equation y' = My, M < O ou M > O, ne peut servir de modele
pour essayer Ies methodes de resolution de ces problemes en raison
du comportement different de leurs solutions.
On prend en l'occurrence pour modele l'integration de y' = My
par rapport a la fonction y a. valeurs complexes pour M imaginaire
pur : M = is1 s reel. Les solutions y (x) = y (O) exp (isx) de cette
equation et leurs differences restent de module constant.
Dans le cas du schema (1)
Yn =(1 +ish) Yn-h 11 + ish I= V 1 +s h > 1,
2 2

par consequent,
IYn I = V 1 + s2h2 IYn-1 I
et Ies· solutions de l'equation aux differences augmentent en module.
Dans le cas du schema (2) Ies quantites Yn verifient l'equation
aux differences
Yn - Yn -2 - 2shiyn -1 = O,
et l 'equation caracteristique correspondante
µ2 - 2shiµ - 1 =O
admet pour racines
shi ± V1-s2h2
de module 1; par consequent, la solution de l'equation aux diffe-
rences oscille sans presenter de tendance stable a augmenter ou a
decroître. Ce comportament de la solution est preferable a celui de
la solution du schema (1) sans parler de l'ordre de precision plus
eleve du schema (2). L'allure de la solution du probleme discretise-
peut sensiblement changer lors du passage au cas M = M (x).
S'il s'agit d 'equations non lineaires, la situation s'embrouille plus
§ 10] ~TUDE DES PROPRiiTillS DES MiTHODES DES DIFFERENCES FINIES 479.

encore. Aussi la mise au point des methodes de resoiution des pro-


blemes avec conservation d 'energie sur Ies seuls modeles du type-
y' = My s'avere insuffisante. Sur des intervalles de temps conside-
rables on integre parfois des equations differentielles correspondant
aux problemes avec conservation d'energie a I'aide de schemas spe-
ciaux teis que des analogues discrets des integrales de !'energie pris
sur Ieurs solutions restent constants. Pour choisir Ies methodes a
inporporer dans des programmes standard on se borne generaiement
a une analyse du comportement des solutions des equations aux dif-
ferences correspondant a y' = My avec M > O ou< O.
La solution de l'equation differentielle y' = My est multipliee-
a chaque pas par exp (Mh). Dans Ies exempies examines plus haut,.
I' equation caracteristique de I' equation aux differences correspon-
dante avait toujours une racine voisine de exp (Mh); c'est preci-
sement cette racine qui rapproche Ies solutions de l'equation diffe-
rentielle et celles aux differences.
Tu~om:ME. Pour que le schema aux di//erences finies norme
k
~ b_,f (Xn-h Yn-i) = O (12}
i=O

soit exact a un ordre strictement egal a m, il /aut et il su/fit qu'il


y ait parmi les racines de ·l' equation
k
~ (a-i-Mhb_i) µk-i = O (13),
i=O
la racine
µ = exp (Mh)-Em+1 (Mh)m+i + O ((Mh)m+2), Em+1 =I= O.

D~MONSTRATION. Supposons que lescbema aux differences (12) soit approche-


A un ordre strictement egal am, c'est-a-dire que pour une solut1on suffisamment
reguliere arbitraire
k k
~ a-iYtn-d ~ b_tf (Zn-h Y (zn-f)) =
i=O i=O
=Em+tY<m+t> (zn) hm+o (hm+t), Em+t =I= O. (14}
Posons f (x, y)=My et portons dans (14} la solution y (z) =exp (Mz); lorsqu&
Zq= qh et n = k, on trouve
k k
~ a_, exp (~ (k-i) h) ~ b_iM exp (M (k-i) h) =
i=O i=O
480 M~THODES DE R:8SOLUTION DU PROBLEME DE CAUCHY [CH. VIII

,Une multiplication par h donne


k
~ (a-i-MhlJ_l) exp (Mh (k-i))=Em+i (Mh)m+t exp (Mkh)+O (hm+ 2 )=
·i=O
= Em+t (Mk)m+1 +o (nm+2).
'Tous Ies termes explicites des deux membres sont fonctions de Q = Mh; c'est
4>ourquoi la quantite O (h,m+2) depend en fait de Mh, i.e. cette quantite doit
:S'ecrire O ((Mh)m+2). La deraiere relation se recrit donc
k
~ (a-i-Qb_t) (exp Q)k-i = Em+1Qm+1 +o (Qm+2),
i=O
,ou encore

-ou
k
P(µ)= ~ (a-i-b-iQ)µk-i, rm+2=O(Qm+ 2 ).
i=O
-Considerons le segment I µ - 1 I ~ 2 I Q I et evaluons sur lui la derivee
h
P' (µ)= ~ (a-i-Qb_i) (k-i) µk-i-1.
i=:0
Pour Ies points de I µ-11 <;: 21 Q I
µk-t-1= t +0 (Q),
par consequent,
k
P' (µ)= ~ a_t(k-i)+O (Q).
I-O
Etantidonnees Ies conditions E 0 = E1 = O et vu que le schema est norme,
h h
~ a_i=0 et ~ a_i (-t)=i
t:'o i=O
-et la deraiere egalite se met sous la forme
P (µ) = 1 +
O (Q),.
,ou
1 - C I Q I ~ P' (µ) ~ 1 +
C I Q I pour I µ - 1 I ~ 2 I Q I•
Posons
µ 1, 2 =exp Q +
Em+1Qm+i rm+2
1+CQ
Evidem.ment,
µ1,2= 1 +Q +o (Q2).
Nous allons supposer I Q I tellement petit que I exp Q-11 <;: 21 (i !.
1µ 1, 2 -1I<2IQI, CIQl<i et lrm♦2l<IEm+1Qm+ 1 I.
§ 10] ~TUDE DES PROPRIBT8S DES MJ;lTHODES DES DIFF8RENCES FINIBS 481

Pour fixer Ies idees, prenons le cas Em+t > O, Q > O• Alors
µl<µ2<expQ.
On a Ies inegalites evidentes
P (exp Q)-P (µ2) < ([µ.2,max
cxp Q]
P' (µ)) (exp Q-µ2} ~

~ (1 +c I Q I) Em+1Qm+l+rm+2 p (exp Q),


~ 1+CIQI
P(expQ)-P(µl)>( min P'(µ))(expQ-µ1)>
[µI, exp Q]

~(1-CIQI) Em+1Qm+t+rm+2 P(expQ).


,p- 1-CIQI
On en conclut que
p (µt) <O<P (µ2);
selon le theoreme de Rolle, l 'equation P (µ)=O a une racine dans Ies limites
< <
µ 1 µ µ 2 • Les quantites µt, µ2 s'ecrivent par construction:
exp Q-Em+tQm+t+O (Qm+2),
donc,
µ = exp Mh - Em+i (Mh)m+1 + O ((Mh)m+ 2 ).

Le theoreme est demontre dans un sens.


Supposons ensuite que P (µ) = O admet une racine
µ = exp Q - Em+1Qm+1 + O (Qm+2), Em+1 =I= O.
Raisonnant par remontee (nous en laissons le soin au lecteur) on constate que
P (exp Q) = Em+1Qm+1 o (Qm+2).+
Developpons le premier membre en serie de Taylor suivant Ies puissances de Q.
Puisque le terme principal du second membre est Em+1Qm+1, Ies coefficients
des puissances de Ql s'annulent pour O~ l ~ m et le coefficient de Q m+1 vaut
Em+i. On trouve les relations
h
Eo= ~ a_i=O,
C=O
,.
"
~
E1= LJ
a_i (-i)l
l I
~ b_i (-i)l-t
O, l = 1, ••• , m,
~ (Z-1) !
i=O i=O

~• a_, (- i)m+t " Em+t =I= O.


LJ (m+1) I
i=O i=O

D'apres Ies constructions du § 5, cela veut justement dire que Ies solutions
regulieres des equations differentielles verifient (14). C.Q.F.D.
Si le schema aux differences approxime l'equation differentielle,
alors m ~ 1; donc, l'equation (13) possede toujours la racine µ =
= exp (Mh) +o ((Mh) 2). Lorsque Mh--+ O, cette racine tend vers
31-01007
482 M~THODES DE R:esoLUTION DU PROBL-eME DE CAUCHY (CH. VIII

la racine µ = 1 de l'equation caracteristique du schema (7 .4). Actuel-


lement, on utilise des scherrţas aux differences dont I' equation carac-
teristique (7 .4) a toutes ses autres racines nulles.
h
Cela signifie que ~ a_iµh-i = (µ - 1) µh- 1 , donc a0 = 1„
i=O
a_1 = -1. Pour de tels schemas Ies racines parasites de (13) tendent
vers zero avec Mh. La classe deces methodes comprend entre autres
Ies formules d'Adams explicites .et implicites que nous avons defi-
nies plus haut. Sur !'exemple des· premieres etablissons plus scrupu-
leusement Ies valeurs Jv.lh pour lesquelles Ies racines parasites du
schema aux differences, exercent une influence peu importante.
Les formules d'Adams explicites s'ecrivent
h-1
Yn-Yn-1-h ~ 'Vt"'-ifn-1=0.
i=O
Substituant f (x, y) = My, on trouve- l'equation aux differences
h-1
Yn __._ Yn-1 - Jv/h ~ 'Vi~iYn-1 = o,
i=O
dont I' equation caracteristique
h-1
P(µ)=µh-µh-1_Mh ~ ydµ-1)iµh-1-i=0.
i=O
Traitons le cas M < O. On a
h-1
P ( -1) = ( -1}"-(-f)h-1 _Afh ~ î'i (-2/ ( - 1h-1-i) =
i=O
h-1
=(-1)"[2+Mh ~ '\'i2i].
i=O
Le polynome P (µ) a le signe (-1}'t pour des µ negatifs de module
suffisamment grand. Si l'expression entre crochets est negative, la
valeur P (-1) est .de signe contraire, donc P (µ) possede la racine
µ < -1. La solution de l'equation aux differences contient alors
une composante qui s'amplifie alors que celle de l'equation diffe-
rentielle d~croît. Aussi pour obtenir de bons resultats en integrant
sur un intervalle de temps important est-ii necessaire que soit realisee-
la condition
h-1
2 +Mh Li
i=O
î'i2i > O. (15)

Nous avons montre que î'i est de l'ordre de 1: i , par consequent


h-1 2h
~ '\'t2i croît comme -
i=1 1n
k • Conclusion: la condition (15) imposee a
Mh, M < O, devient de plus en plus severe avec l'augmentation de
l'ordre d'approximation k.
§ Ul . INT:€GRATION DE.· .SYST~MES D':eQUATIONS

Lorsqu'on integre Ies solutions regulieres par la methode d'Adams avec


une recherche automatique du pas, on observe une situation curieuse. Vu une
regularite suffisante de la solution, le pas commence a augmenter. Lorsque
fy < O, on constate une predominance des racines parasites de (13) sur la racine
principale. La fonction discrete obtenue perd, par consequent, sa regularite
et le pas se fractionne. Avec la diminution du pas, la fonction redevient regu-
liere, puis le pas augmente, et ainsi de suite. Ce phenomene a ete mis en evidence
lors de la comparaison du temps de calcul reel par la methode d 'Adams avec
sa valeur theorique: le temps observe a notablement depasse le tem~s theorique
par suite d'un volume important de calcul du a l'augmentation et la fragmen-
tation periodiques du pas.

§ 11. lntegration de systemes d'equations


La plupart des constructions ci-dessus s' etendent telles quelles
au cas des systemes d 'equations
y' = f (x, y).
La seule difference, formelle d'ailleurs, est que dans Ies relations
correspondantes figurent des tenseurs ou matrices au lieu·de grandeurs
scalaires. Ainsi, l'integration d'une equation differentielle par la
serie de Taylor exigeait le calcul des derivees
y" = fx+ f yy' ,~
y"' = fxx + 2fsyY + /yy. (y') 2 + fuY", etc.
1

Soit

S'il s'agit d'un systeme d'equations differentielles, Ies derivees


y\k> s'obtiennenta partir des relations analogues, resultat de la
derivation du systeme initial

{)2Ji dy, a2f dy, dy,


q
+ 2 LJ
"1 - - -
ox ây;
dx11 + LJ
q
"1
q
'1
LJ oy; ây;
i _1_1 _1_2
.dx dx
+
1 1 2
j1=1 i1=1 i2=1

... '
q etant l 'ordre du systeme.
L'ensemble de ces relations s'ecrit sous forme tensorielle
y"=fx+ f uY',
1 1
y'"=fxx+2/:icyY' +fuuY Y +fuY", · • .;
31*
484 l\leTHODES DE R::esoLUTION DU PROBL8ME DE CAUCHY (CH. VIII

f ~n11m est le tenseur

La forme deces relations est la meme que dans le cas d'une· seule
equation. En evaluant I' erreur dans Ies methodes des differences
finies, on remplace
f (xn, Yn)- f (Xn, Y (xn)) = f y (xn, Yn) Rn
par
f (xn, Yn)-f (xn, y (xn)) = t;Rn,

ou.. fn'li es t une mat r1ce


. d' e"I"emen t s -of i
8 YI
I i ;
(xn, Yn)
• d.1ce, i. parce
Yni est m
que la formule de Lagrange s'applique de fa~on independante a
chaque ligne de la derniere egalite.
Toute erreur introduite au cours de l'integration numerique peut
admettre pour modele la perturbation de la condition initiale impo-
see a l'integration ulterieure (on l'a vu clairement au § 4 sur !'exem-
ple de l'erreur dans la methode de Runge-Kutţa). Dans le cas d'une
equation differentielle, la variation de la solution (la difference de
deux solutions indefiniment proches) verifie l'equation aux varia-
tions 11' = / u11· Puisqu'il n'existe pas de raisons particulieres pour
que Ies solutions des approximations numeriques soient plus proches
que celles des equations differentielles, l'erreur se multiplie inevita-
blement par exp { fu j dx} comme dans la methode de Runge--Kutta.
Toutes nos constructions a I' aide des equations modeles y' = M y
avaient pour but de mettre a l'index des schemas dans lesquels
l'erreur accuse une croissance plus grande. S'il s'agit des systemes,
le systeme d'equations aux variations s'ecrit 11' = fuTJ, fu etant une
matrice, et la contribution de l'erreur par pas a l'erreur totale est
fonction du comportament de ses solutions. Si dans le cas d 'une
equation la partie principale de l'erreur resultant des methodes des
differences finies est proportionnelle a la solution de
z' = f uz + y<m+i) (x),
dans le cas d 'un systeme, elle I' est a la solution de
z' = f 11z + y<m+t) (x).
Formellement ecrits pour un systeme d'equations, Ies formules de
Runge-Kutta et Ies schemas aux differences finies donnent lieu. a une
erreur du meme ordre de grandeur que dans le cas d 'une seule equa-
tion.
§ 11]- INllGRATION DE SYSTt?t!ES D'~QUATIONS 485

Considerons le probleme modele d 'integration ·du systeme lineair~


a coeffieients constants
y' = Ay. (1)
Supposons, afin de simplifier l'expose, que la forme de Joi;dan de
la matrice A est simple:
c-1Ac = A,
avec A une matrice diagonale. Les formules de calcul de la methode
de Runge-Kutta s'ecrivent alors
k1 =hAy,

q
y(x+h) ~ z(k)=y+ ~ Ptkt.
i=i
En exprimant de proche en proche k 2 , • • • , kg, z (h) en fonction de
y, on aboutit â
k1 =Ahy,
k2 = P2 (Ah) y,

kq= Pq (Ah) y,
z (h) = Qq (Ah) y,
ou Pz, Q1 sont des polynâmes· de degre l en la matrice Ah dont Ies
coefficients dependent des parametres ah PtJ, Pi du procede consi-
dere. La relation :
Yi = Qq (Ah) Yi-1 (2)
est vraie a chaque pas d 'integration. On obtient par consequent,
apres n pas, la valeur Yn = (Q q (Ah)rYo· Cette egalite s'ecrit
Yn = (Q q(?J',))" Yo
quand on integre une seule equation y' = 'J..,y.
Soient ei, ... , em Ies vecteurs propres de la matrice A et "1.,
• • • , Âm ses valeurs propres associees. Etant donne que par hypothe-
se A est une matrice de structura simple, ces vecteurs formant une
base; tout· vecteur YJ est represente de fa~on univoque dans cette,
base:
m
YJ= ~ cfep.
P=i
Portons Ies expressions de Yn, Yn-i en fonction des vecteurs de la
base dans le second membre de (2). La multiplication du polyno~
486 M~THODES DE RtSOLUTION DU PROB~?.IE DE CAUCHY [CH. VII!

me S (A) en la matrice A par le vecteur propre ep de A fournit


S (A) ep = S (Î11p) ep.
Donc„
m m
Qq (Ah) yn-t = 21 Qq (Ah) c~- 1 ep = p=i
P=i
21 Qq (Âph) ~- 1 ep,
et
~= Qq (Âph) ?n-1,
?n = (Qq (Âph))n ~' (3)
m
Yn = ~ (Q~ (Âph)t c~ep. (4)
p=i

L'examen des relations (3), (4) nous autorise a faire Ies conclusions
suivantes sur l'integration du systeme lineaire (1) par la technique
de Runge-Kutta: chaque composante de la solution proportionnelle
a l'un des vecteurs propres de la matrice A est integree independam-
ment des autres ; Ies formules de transformation des coefficients
c~ coincident alors avec Ies formules d 'integration numerique de
l'equation y' = Âpy par Ies methodes de Runge-Kutta.
Passons aux methodes des differences finies. Pour le systeme (1)
le systeme correspondant d'equations aux differences finies a la forme
k. k.
21 a-,Yn-i -h i=O
i=O
21 b_;AYn-i= O; (5)

posons comme toujours

et portons cette valeur dans. (5); il vient


m k. • k
~ ( 21 a_tC~-i -h i=O
P=i i=O
~ b.tÂpc~-i) ep = O.

Par suite de l'independance lineaire des vecteurs ep, chaque paren-


.these s'annule. On a donc '

k. k.
21 a_tc!-i -h i=O
i=O
~ b_1Â 1>c!-i = O.

Cette equation relativement a ~ coincide avec l'equation aux diffe-


renees obtenue en integrant l'equation y' = Âpy par la methode
eonsideree.
§ U] INT:8GRATION DE SYSTEMES D'~QUATIONS 487

Dans Ies deux cas (qu'il s'agisse des teclmiques de Runge-Kutta


ou des methodes des differences finies), Ies composantes de la solu-
tion proportionnelles aux vecteurs propres ep sont integrees inde-
pendamment Ies unes des autres et Ies formules de calcul coincident
avec Ies formules d'integration des equations scalaires y' = ÂpY•
Si un pas d 'integration donne garantit une precision acceptable
dans l'integration de chaque equation y~ = ÂpYp, ii en est de meme
pour le systeme dans son ensemble. ·
Les solutions const exp (Âpx) de y' = ÂpY varient sensiblement
sur un segment d'ordre de longueur I Âp 1-1 • L'integration de cette
composante de la solution avec une precision acceptable exige donc
que k ~ I Âp 1-1 , ou encore I Âp I k ~ 1. Pour integrer toutes Ies
composantes avec une precision elevee il faut que
maxjÂ,plk~ 1. (6)
p

Prenons maintenant le systeme non lineaire ·


y'=î(x, y).
Au voisinage de la solution Y (x) cherchee son second membre est
proche de celui du systeme lineaire
y' = f (x, Y)+ fy (x, Y)(y- Y).
Sa solution est integree avec une precision forte s'il en est de meme
de la solution du systeme lineaire ·
z' = f y (x, Y) z.
Au voisinage de tout point X ce systeme est approche par le systeme
lineaire a coefficients constants
u' = f y (X, Y (X)) u.
Ainsi, une condition necessaire pour que la solution du systeme ini-
tial soit integree avec une precisio~ assez elevee est max I Âp (X) I h ~
p
~ 1, ou Âp (X) sont Ies valeurs propres de la matrice f y (X, Y (X)).
Puisque cette condition resuite· de differentes simplifications du
systeme de depart, elle ne suffit pas pour assurer la proximite des
solutions des problemes discretise et differentiel.
Cependant, dans l 'integration de certaines classes de problemes
la condition (6) s~avere trop encombrante. De ces classes on peut
donner la description qualitative suivante. Le systeme considere
possede une solution y 0 (x) asymptotiquement stable. Parmi Ies
solutions dans un voisinage de y 0 (x), certaines tendent vers
celle-ci relativement vite et d'autres relativement lentement. On
recherche numeriquement une solution se rapprochant lentement
ele y O (x) et son allurc ne presente de l 'interet que pour des x
suffisammont grands. On prend comme modele le systeme de deux
488 M~THODES DE R~SOLUTION DU PROBU;ME DE· CAUCHY [CH. VIII

equations lineaires y' = Ay dotees des proprietes suivantes. Les deux


valeurs propres Â1i. de la matrice A sont negatives, de plus 11111 I~
~ I Â2 ,. 11 y a_ interet aresoudre ce systeme pour X tels que I Â2 j X ~

~ 1 et I Â1 I x pas tres important. La solution du probleme examine


s'ecrit
C1 exp (Â1x) e1 +
C 2 exp (Â 2x) e 2 •
Les conditions imposees ci-dessus a x signifient que la deuxieme
composante C2exp (Â 2x)e 2 est negligeable contrairement a la pre-
miere. Celle-ci sera integree _avec une precision admissible si I Â1 I h~
~ 1. Comme I Â1 Ix n'est pas tres grand, on serait tente de croire
que le probleme considere se resoudra sans de grandes difficultes.
Cependant, le fait que l'integration de la deuxieme composante
de la solution n 'est assujettie a aucune eondition de preeision ne
veut nullement dire qu'on peut lui appliquer n'importe quelle
methode.
Voyons par exemple Ies methodes d'Adams explicites. Si la condition
(10.15) relativement a M = Â2 n'est pas realisee, le schema aux differences
possede une racine parasite de module superieur a 1 et la deuxieme composante
de la solution croit fortement. II est donc interessant de construire une methode
da.ns laquelle la deuxieme composante se prete peut-âtre mal a l'integration,
mais s'amortit rapidement. Recourons a des metliodes du type de Runge-Kutta
telles que, dans le cas de l'equation lineaire y' = Ây, l'equation caracteristique
correspondante ait une racine caracteristique unique. Notons µ la quantite
Qq (M).
Pour la methode d'Euler
z (h) = y + k1 = (1 + M) y.
Ainsi, µ = 1 +Ah et la condition· I µ I~ 1, lorsque  < O, n'est plus observee
des que I A I h > 2. .
Pour la methode (2. 7) exacte a l' ordre 2
k 1 =Âhy,

k2 = hf ( :r: + ~ , u+ ~t ) = Âk ( y + ~ ) = Âh ( y + ~y ) ,

t+ Ah+ Â;i
2
.z (h)=Yo+k2= ( ) y,.
'J...2h2
µ=i+M+-2 -,
et la condition I µ I ~ 1 pour Î. < O n' est plus realisee quand I Â I h > 2.
Pour la methode (2.6) exacte a l'ordre 2
k1='Miy,
k2='M1, (y+kt)='A.h (y+'A.hy),

~
2
z(h)=y+ (k1 +k2 ) = ( t + Âh+ )..~,, ) y,

avec la meme condition I µ I ~ 1 pour  < O.


§ U] INTi;':GRATION DE SYST:E:MES D'~QUATIONS 489

Dans le cas des schemas exacts au quatrieme ordre (2.14) et (2.15)


µ=i+'Ak+ 'J...2h2
2
+ 'J...3k3
6
+ 'J...4h4
24
;

I µ I =:;;;; 1 lorsque  < O si IM I =:;;;; x ~ 2,8. Les methodes de Runge-Kutta


ne jouent donc pour le probleme en question que dans la condition du type
I Â2 I k =:;;;; const.
PR0BL:8ME. Demontrer que pour Ies methodes de Runge-Kutta avec q=s
on a toujours
s

z {h) = ( ~ ~~k ) y
h=O
(pour la definition de q et s voir § 2).
La mise en muvre de la methode d' Adams imJ>licite exacte a l'ordre 2 nous
fournit une solution plus acceptable de ce probleme:

Yn-Yn-1 = 2h (fn + f n-1),


1 , Î.h
Substituant ly a/ nous trouvons Yn = JlYn-h avec µ =
'2
'Ah • Lorsque
1-,--

µ
1- a h _ i ~ '
2 2
Si a=Re1<0, on a

(1 + ~h ) 2 + ( fi; )2 < ( i - ~k )2 + ( ~: )2,


et donc I µ I < 1. Le schema assure, on le voit, la non-croissance des composan~
tes de la solution correspondant a tous Ies 'A avec Re  < O. L'integration
de la premiere composante s'effectue avec une exactitude acceptable si I Ai lh~
~ 1. La non-croissance de la deuxieme composante ne signifie cependant pas
sa petitesse.
On a l'egalite

ii en resuite que pour Â.2 < O la quantite I J:1, 2 I se rapproche de 1 par valeurs
inferieures avec l'augmentation de I A2 I h et la deuxieme composante s'amortit,
par consequent, lentement. Son amortissement rapide impose une certaine
contrainte a la borne superieure du pas h, qui est neanmoins J>lus lâche que
I Â2 I h ~ 1. Pour un systeme lineaire a coefficients variables l'analogue du
-490 METHODES DE R~SOLUTION DU PROBLtME DE CAUCH'~ [CH. VIII

-dernier schema sont _Ies schemas d'ordre d'exactitude 2:


A (xn) Yn +A (xn-1) Yn-1
F 1 =0,
2
n-2
(7)
Yn-Yn-1
h

.avec
f {Xn) + f (Xn-1)
F 1= 2
n-2
-On preferera parfois a cette dernierc valeur

Dans Ies formules des deux types il faut a chaque pas inverser une matrice dont
la dimension est celle du systeme. Si l'ordre du systeme est eleve, 011 perfectionne
la methode pour ne pas avoir a inverser une matrice a chaque pas.
Voici un autre procede de resolution des problemes du genre.
Prenons, pour commencer, le systeme y' = Ay, A = const. L'in-
tegration numerique s' effectue a l' aide de la formule
Y (Xn +
h) = cp (h) y (xn),
ou
cp (h) . exp (Ah).
La fonction matricielle cp (H) verifie
cp (H) = cp ( ~) cp ( ~ ) ' (8)

•et on la calcule donc comme suit. On se donne un certain l, on


~alcule la matrice (f' ( ;~ ) , puis, moycnnant l'egalite (8), on trouve
successivement Ies matrices

cp ( 2:~1 ), ···, cp ( ! )' cp (h).


cp ( ~~ ) peut etre remplacee par une somme partielle de sa serie
de Taylor
8

h )
cp2l~Ll'TT'2Z.
(
"1 1 ( Ah )i (9)
i=O
On remarquera que pour q = s =s;;;; 4 le calcul par la formule (9) equivaut
.a integrer le systeme d equations matricielles Y' = AY par la methode de
Runge-Kutta d'ordre s avec le pas h/2l et la condition initiale Y (O) = E,
-0u E est la matrice unite.
§ U) lNT~GRATION DE SYST.illMES D'~QUATIONS 491

La petitesse de l'erreur dans (9) pour s faibles depend essentielle-


ment de la condition li A li h/2l ~ 1. Aussi la quantite 21 peut s'ave-
rer assez elevee.
Pour eviter une accumulation indesirable de l 'erreur de calcul,
introduisons (par analogie avec le § 9, chap. IV) la fonction matri-
cielle ,p (h) = <p (h) - E. On calcule
8

1 ( Ah
l f( 'hv) ~"L J ifv, )i
i=1
ensuite

lJ> ( 2~i)' ... , lf, ( ~)' lJ>(h),


par la formule de recurrence

lj, (H) = lf, ( ~- ) ( 2E + lJ, ( ~ ) ) ;


puis on trouve
<p (H) = E + lj) (H).
Considerons maintenant le systeme non homogene
y' = Ay+b, A, b =const.
La difference u (x) = y (x)- y (xn) satisfait au systeme u' =Au+ c,
+
avec c = Ay (xn) b. Faisons intervenir la matrice
H
ro (H) = j exp (A(~ - t)) dt.
o
On verifie aisement que u (xn + h) = ro (h) c, et la matrice ro (h) est
telle que
ro {H) = ro ( ~ ) ( 2E + Aro ( ~ ) ) ; (10)
en outre

i=i

C'est pourquoi on calcule


8

h ) 1
ro ( 2Z ~ LJ TI~ . ( h.
A 1 -1 2f
)i '
i=1
492 M~THODES DE RtSOLUTION DU PROBLEME DE CAUCHY [CH. Vlll

ensuite
ro ( 2 :-t }, ... ,
ro ( ; ) , ro (h)
a l'aide de la relation (10) et on pose
y (xn + h) ~ y (xn) + ro (h) (Ay (xn) + h).
S'il s'agit de systemes de forme generale, lineaires ou non, on
approehe le systeme considere sur chaque segment lxn, Xn+ 11 par
le systeme
y' = Ay +
b, A, b = const.

§ 12. Quelques questions generales


Pour faire demarrer Ies calculs suivant un schema aux diffe-
rences finies d'ordre k > 1 on doit connaître Ies valeurs approchees
Yo, .•. , Yk-t des y (x 0), ... , y (xk_1). La valeur y 0 est donnee
par la condition initiale. Tout ce que nous savons des methodes
numeriques nous oblige a ·rechercher y1 , • • • , Yk-i par une methode
de Runge-Kutta a pas separes. Or, d'habitude on s'adresse a des
procedes un peu differents.
Prenons un nombre q fixe et un nombre j quelconque tels que O< f < q.
Rempla~ons a droite dans .
X}
Y (.r1)-y (.ro)= 1
xo
Y' (.r) d.r

y' (.x) par le polynâmc d'interpolation de Lagrange base sur .r0, ••• , .xq:
q
X-Zp
y' {.r)= ~ y' (.rt) 11--+r(.r),
LJ Xt-Xp
i=O • p:pi
q
r{.r)=y'(.ro; .• ; zq; .r) [I (.r-.rp)i
p=O
ii vient
q
y (x1)-y (.ro)=h ~ CJiY' (.rd+RJ, (1)
i=O
ou
x, j
Cji= h1 r II
J
x-xp d.r=
Xi-Zp
r II ~-p
J i-p
dt,
:x:o p:j:f o p:,f:i
:x:,
R1= J r (.r) dx.
:x:o
§ 12] QUELQUES QUESTIONS G:8N:8RALES 493

La quantite I 11' (xo ; ••. ; xq ; x) I est majoree par

cx1:.8:q] \
y (q+2) (z)
(q+ 1) I
I •

En changeant de variable z= th dans l'expression de R; et en evaluant en


module fonction a integrer, on obtient
I RJ I< CJ max I 111+2 (z) I M+2 , (2)
[xo, xq]
q
; I II <t-p> I
o
Cj= J p(:+1) I
dt.

Acceptons pour approximations des 11 (.x;} la solution du systeme


q
YJ-Yo= h ~ c;d (zt, 11i). (3).
i=O
Retranchons {i) de (3); ceci etant, utilisons le fait que la difference
/(Xi, Ui)-y' (x1)=f(xi, Y1)-f(Xi, Y (xi))
peut, en vertu de la formul~ de Lagrange, se mettre sous la forme liri avec
r1.=Y1-y (xi), li=fy (xi, Yi),
Yi etant entre Yi et y (zi). Nous trouvons

(4)

Posons
L= max (ful,
xo~~xq
q
c=m~ ~ lc1d-
, i=O
L'egalite (4) entraîne
I r1 I < I ro I +cLh max I rfl +(R J I, (5)
O~i~q
d'ou
max
o~;~q
I r1 I < I ro I+ o~~q
max I RJ I+cLh max I r, 1-
o~~q
l.e report du dernier terme dans le deuxieme membre donne
(1-cLh) max I ri I< I ro I+ max I RJ (.
O~i~q O~i~q
Soit ensuite h tellement petit que cLh<·t. Alors
I ro I+ max I R J I
max f ri I <
O~i~q
0
~1q
1-c h
.
494 M~THODES DE RESOLUTION DU PROBL'eME DE CAUCHY [CH. VIII

Si la valeur donnee y 0 est supposee exacte, i.e. r0 = O, il en resuite l' estimation


de l'erreur .
max I ri I=0 (M+2 ) (6)
O~i~q
qui se prete a une amelioration dans certains cas. Si q est pair par exemple, Ies
point~ d;interpolation sont symetriques par rapport a x 0 ~ h, point medi~n
+
du segment [.x0 , xq]. L'erreur Rq dans la formule de quadrature
. q
y (xq)- y (xo) ~ h ~ CqkY' (xh)
k=O
est alors (nous l'avons montre dans la partie de ce livre consacree a l'integration
numerique) une quantite de l'ordre de O (M+3). En portant cette estimation
dans le deuxieme membre de l'inegalite (5) pour j = q, et en nous servant
de (6) nous obtenons rq = O (M+S). On utilise cette circonstance dans l'inte-
gration a l'aide des formuJes d 'Adams ou il importe tout particulierement
que Yq, q maximal, soit precis au possible. En effet, dans l'integ'!'ation suivant
la formule d' Adams d'ordre k la contribution de l'erreur sur Ies conditions
initiales est
k-2
O (I Yk-1-Y (.xk-1) l+h ~ i YJ-Y (xj) 1) •
j=f) ,·

Dans le cas non lineaire, le systeme (3) est en general irresoluble par rapport
aux inconnues YJ., .•• , Yq· On le resout par la methode iterative simple ou
par une methocte du type (7 .1.8):
j- 1 q
Yj+i_Yo=h 21 Cji/ (xi, yf+t)+h ~ Cji/(Xi, yf).
i=O i=i
Les derivees par rapport aux variables YJ a droite sont multipliees par h, ce
qui fait que, lorsque h est faible, Ies processus iteratifs consideres realisent
une contraction et, partant, convergent. Le choix de l' approximation de depart,
du nombre q et du nombre d'iterations est souvent diete non pas ţ>ar des conside-
rations purement mathematiques, mais par des circonstances liees entre autres
au volume de la memoire rapide, a l'ordre type des systemes proposes.
Etudions plus en detail le calcul par pas des valeurs Yn dans la methode
d'Adams implicite. D'habitude la methode d'Adams implicite
k
Yn - Yn-1- h ~ b_d (Xn-it Yn-t) = O ·· (7)
i=O
est employee conjointement avec la methode explicite
k+1
Yn - Yn-1 - h ~ b..d (Xn-it Yn-i) = O.
i=t
L'ordre d'approximation des deux formules est par construction en O (hk+1 ).
Avec Ies metbodes implicites on a a resoudre une equation non lineaire ou un
systeme de telles equations, ce qui semble entraîner des complications inutiles
par comparaison avec Ies methodes explicites. D'autre part, la partie principale
de leur erreur par pas comprend un facteur constant un peu moins grand, et, dans
le cas de l'equation lineaire, la contrainte par pas du type (10.15) qui garantit
pour fy < O l'absence de racines de module suJ!erieur a 1 de l'equation '(7.3)
s'avere moins severe. C'est sans doute cette derniere circonstance qui a determine
la vogue des methodes implicites.
§ 12) QUELQUES · QUESTIONS G:eN:eRALES 495

Connai~sant Yn-t on determine l'approximation d'ordre zero de la valeur Yn:


k+1
Y~ = Yn-1 + h ~ b._if (xn-i, Yn-i) ;
i=i
ensuite on effectue plusieurs iterations a l'aide de
k
yg1"'" 1 = Yn-1 +h ~ b_if (xn-it Yn-i) +hbaf (xo, Y:ti). (8)
i=i
La derivee par rapport a Yn a droite vaut nbofy, c'est pourquoi a chaque pas
du processus, l'erreur sur Ies valeurs y";: acquiert, par rapport a celle sur la
solution exacte de '(7), un facteur en h. Vu la longueur de l'analyse detaillee-
de cette erreur nous nous en abstiendrons. 11 se trouve que pour que la partie
principale de l' erreur soit la mâme que dans le cas de la solution exacte de (7} ·
par rapport a l'inconnue Yn, une seule iteration d'apres la formule (8) suffit.
Puisque le calcul du deuxieme membre est d'ordinaire notablement plus labo-
rieux que Ies autres operations auxiliaires, on evalue naturellement le travail
impose par la methode par le nombre de calculs de ce membre. Si a chaque pas
on effectue une iteration et qu'.ensuite on determine la valeur / (xn, y~) neces-
saire aux calculs suivants, il faudra deux fois plus de travail que dans la methode
d'Adams explicite. On l'evite en posant chaque fois
f(xn, y~) ~ f (xn, y~).
Ce faisant, le mode operatoire s'avere d'un mâme cofit que la methode d'Adams
explicite et la partie principale de son erreur est e~ale a celle de la methode
implicite. Dans la pratique, cette variante de la methode implicite risque de
faire croître (par comparaison au procede implicite mâme) le pas jusqu'a une
valeur telle qu'il y ait influence des racines parasites. Aussi impose-t-on parfois
un fractionnement supplementaire du pas par rapport a la recherche de la valeur
exacte Yn a partir de l'equation sous forme implicite (7). Ceux qui redigent Ies
programmes usuels de la methode d'Adams s'arrangent pour pouvoir a la fois
effectuer une fragmentation supplementaire du pas et augmenter a volonte
le nombre d'iterations par pas compte tenu des proprietes statistiques des
problemes a resoudre. .
On a parfois a integrer numeriquement des equations differen-
tielles telles que la derivee de la solution ne s'exprime pas en fonc-
tion de cette solution et de l' argument ; pour fixer Ies idees prenon-
le cas scalaire
F (x, y, y') = O.
En resolvant cette equation par rapport a y', on aurait obtenu
y' = f (x, y).
Une premiere voie possible est d 'appliquer formellement Ies
methodes de Runge-Kutta ou des differences finies. On calcule f
pour tout x et tout yen resolvant numeriquement
F (x, y, f) = O.
Une bonne approximation initiale de la valeur f cherchee s'obtient.
par interpolation des valeurs deja trouvees ; aussi le nombre neces-
496 MgTHODES DE R8SOLUTION DU PROBLbE DE CAUCHY [CH. VIII

saire d'iterations (c'est le cas de la methode de la·secante, par exem-


ple) est d 'ordinaire peu eleve.
Pour Ies methodes implicites, on gagne parfois a resoudre d 'em-
blee _le systeme
F (xn, Yn, f n) =0,
1t 1t
~ a-iYn-i-h ~ b_tfn-i = O
i=O i=O

relativement aux inconnues Yn, fn•


Le developpement de la solution en serie de Taylor s'avere par-
fois (mais assez rarement) un procede utile; la derivation par rap-
port a X de l' equation de depart donne
! (F (x, y, y')) = Fx (x, y, y') +Fu (x, y, y') y' +Fu• (x, y, y') y" = O,
: :2 (F (x, y, y')) = •.. = O,
et ainsi de suite. Si l'on connaît y' (x 0), ces relations permettent de
determiner explicitement Ies valeurs y " (x0 ), • • •
La premiere des reţations ci-dessus se recrit
y" = g (x, y, y').

D 'ou une troisieme voie conduisant a la solution. A l' aide de


F (x 0 , Yo, y' (x 0 )) = O
on obtient y' (x0), puis on integre numeriquement l'equation
y" = g (x, y, y').

quelques mots sur le cha.ngement du pas d 'integration. Nous avons etudie


les methodes des differences finies en supposant le pas h = Xn - xn-l constant.
Or, il faut souvent integrer avec un pas variable. Ainsi, les programmes stan-
dard d'integration par la methode d'Adams avec une recherche automatique
du pas realisent de temps en temps une duplication ou une dichotomie du pas
selon le degre de regularite de la solution. On peut doubler le pas en negligeant
un point d'integration sur deux et en acceptant les valeurs restantes desincon-
nues comme valeurs initiales. Ceyendant, l'augmentation et le fractionnement
du pas sont generalement effectues par les formules d'integration sur un reseau
irregulier. On construit ces formules par la methode des coefficients indeter-
mines ou par le procede suivant. Supposons connues les approximations Yn-i, •••
• • • , Yn-h des valeurs y (xn_1), ••. , y (xn-h> de la solution. Substituons a
y' (x) dans
=n
Y (xn)- y (xn-1) = J y' (x) dx
Xn-1
§ 12] QUELQUES QUESTIONS (}:8N:8RALES 497

la valeur du polynâme d'interpolation base sur Ies points :tn-i, ••. , Zn-A•
Nous trouvons
k
Y (zn)- Y (Zn-1) ~ ~ b_, (zn, • • •, Zn-h) y' (Zn-t),
1=1
II lui correspond la formule explicite
k
Yn - Yn-1 = ~ b_, (zn, • • •, Zn-k) f (Zn-h Yn-d•
i=1
Si l'on interpola aux points z,., .•. , Zn-k, on obtient la formule implicite
k
Yn -Yn-1 = ~ b_i (zn, • • •, Zn-k) f (zn-h Yn-d•
i=O
Discutons un autre probleme de caractere general. En evaluant l'erreur
on a toujours suppose qu'etait realisee une condition tres severe, asavoir I fu I ~
~ L pour z 0 ~ z ~ z 0 +
X et quels que soient Y·
En realite, toutes les estimations · ci-dessus de l erreur sont vraies J>Ollr h,
et t,11,- suffisamment faibles si I /y I ~ L dans le P-voisinage de la solution:
1

zo ~ z ~ zo +
X, I Y - Y (z) I ~ fi, ou P> O.
Sous l'hypothese I fu I ~ L avec y arbitraire, on a une estimation d'erreur,
disons (8.13), dont le deuxieme membre tend vers zero avec h et l>h-1 • Supposons
ces dernieres quantites si petites que le deuxieme membre de l'estimation
est au plus p en tous les points du segment d'integration. Tous les points Yn et,
partant, tous Ies points intermediaires Yn appartiennent alors, eux aussi, au
p-voisinage de la solution, et en evaluant l'erreur on ne se sert pas de l'infor-
mation sur Ies valeurs de la fonction exterieures A ce voisinage. Donc, pour
de tels h et t,h,-1 on a l'estimation (8.13) sous la condition I Iv I ~ L dans le
p-voisinage de la solution. On peut egalement lever la contramte I fu I ~ L,
pour tous Ies y, dans les autres cas, par exemple en etudiant la convergence
d'un processus iteratif par Ies formules implicites. On se debarrasse de mâme
de la condition assujettissant toutes les quantites figurant dans l'expression
du reste a âtre bornees pour n'imiorte quel y.
Revenons une fois de plus a 1 integration des equations et des systemes
sur des intervalles temporels importants. Pour resoudre le systeme d'equations
aux variations 11' = fu'rl ecrivons
x2

1) (z2) = exp ( J/ y (z, y (z)) dz} 11 (z1)•


Xi
De nombreux problemes asymptotiquement stables uniform.ament en z1 , z 9
.dans Ies limites z 0 ~ zt ~ z 1 ~ 00 satisfont A l'estimation

li ""P ( Î lu (:,;,
x,
Y (z)) d:,;} li ..; B Bl<P ( -b (z,-ztl), b > O. (9)

Supposons que dans le domaine li y - y (z) li ~ B, P> O, z 0 ~ z < 00 1


les derivees du deuxieme membre du systeme dont les expressions figurant
dans l'estimation du reste, en particulier fu., sont uniformement bornees. C'est
vrai pour de nombreux problemes dont les s01utions pour des x grands deviennent
periodiques ou presque periodiques. Dans le cas des methodes de Runge-Kutta
ou d'Adams avec un pas d'integration h constant suffisamment faible et t,h-1
32-01007
498 M8THODES DE R8SOLUTION DU PROBL:8ME DE CAUCHY [CH. VII

petit, l'erreur est evaluee dans ces problemes par


I Yn - y (xn) I~ Bi (h 8 + Bh-1) + BsR exp (-b (xn - xo)), (10)
s ătant l'ordre d'approximation, R l'estimation de l'erreur sur Ies conditions
initiales, B le maximum des normes des erreurs Bn commises dans Ies equations
discretisees (4.1), b > o, b, B1, Bs ne dependant pas de Xn·
Nous avons deja obtenu une telle estimation (voir 4.11) dans la methode
de Runge-Kutta appliquee a une seule equation.
Servons-nous de l'integration par une methode de Runge-Kutta d'ordre s
de l' equation lineaire
y' = ao (x) Y ai (x) +
pour montrer pourquoi, dans des evaluations pareilles, le comportament du
deuxieme membre loin de la solution est sans importance.
Dans ce cas fy = a 0 (x) et la condition (9) prend la forme
X9

exp { J tJo (x) dz) < B exp (-b (x -xt)), 2 b > O. (11)
Xi
On suppose en outre que
max sup I a~i) (x) I <A< oo.
O~i~a, p=O, 1 xo~x<oo

Dans la condition {H), on a, selon (4.6),


n
J Rn I<~ Bexp (-b (n-j) h) I roil+Bexp (-bnk) I Ro I<
j=t

~ i-ex:(-bh) O~nlro1l+BIRo(exp(-bnh). (12)


11 decoule de
X X X

y (x) = y (Zo) exp ( J ao (x) dx) + Jb (t) exp { Ja0 ('t) d-r:) dt
xo xo t

et de l'inegalite (11) que I y (x) I ~ Y est uniformement borne lorsque x 0!~


~ X < 00•

Fixons un ~ > O;montrons que lorsque h ~ h 0 (~), ~ ~ y (P), I R 0 I ~


~ R (P), h {P), y (~), R (P) >
O, toutes les valeurs Y,rt sont dans le domaine
I Yn - y (xn) I ~ ~ et on a l'estimation d'erreur desiree. -~
Evaluons d'abord l'erreur sous 1 hypothese I Yn - y (xn) I~ p quel que
soit n. Alors I Yn I ~ y +
~ pour tout n. La quantite Yn et Ies derivees a~> (x)
etant uniformement bomees, on en conclut que toutes les erreurs par pas

PJ+J. = YJ+l - YJ (XJ+J.)


verifient
I PJ+J. I ~ B' (~) hB+l.
Alors
I (J) J I ~ B' (P) k 3 +l +B
§ 13) FORMULES D'INT~GRATION DES ~QUATIONS DU DEUXI:8ME ORDRE 499

avec ; quelconque, et (12) entraîne l'estimation


B
JRnl-" t-exp(-bk) (B'(~)h8+1 +cS)+BIRoJexp(-bnk). (13)

Par suite de (13) on obtient l 'estimation

IRn I< 1 _ 8 x~~-bh) ( B' (~) h


8
+ ! }+BI R0 I (14)

uniforme en n. Le facteur i-ex~~-bk) decroît de fa~on monotone en tendant _ vers


la limite !> O lorsque k ~ O. C'est pourquoi on peut indiquer h (P), y (P),
R (P) > O tels que le deuxieme membre de la derniere inegalite est au plus
p pour
6'!
kf<h (~), h <-v (~), I Ro I< R (~). (15)

LEMME. Dans la condttion (15) tous les n verifient l'esttmation (13).


On le demontre par recurrence sur n. Pour n = O l'affirmation du lemme
est vraie en vertu du choix mâme des quantites k (P), y (P}, R (P). SuJ)posons
l'estimation (13) juste pour tous Ies n ~ no- Alors I Y) - y (:tJ) I ~ P lorsque
j ~ no; selon Ies constructions ci-dessus on en tire Ip J I ~ B' rn> kB+i avec
j ~ no+ 1. 11 en resuite, compte tenu de (12), que l'estimation (13) est egale-
ment vraie pour n = n0 ± 1, ce qui demontre le lemme.
Dans !'exemple considere Yn sont uniformement hornes, ainsi que a0 (2,i)
et lZt (.rn); ii en deroule la mâme propriete des erreurs d'arrondi 6n, et toutes
Ies evaluations effectuees ont donc un sens.

§ 13. Formules d'integration numerique


des equations du deuxieme ordre
En introduisant des fonctions inconnues, on ramene Ies equations
differentielles d'ordre superieur a 1 et leurs systemes a des systemes
d 'equations du premier ordre. Donc, sur le plan forme!, la resolu-
tion numerique du probleme de Cauchy pour Ies equations d'ordre
superieur pourrait etre consideree comme achevee.
Or, Jes methodes de resolution adaptees specialement a des equa-
tions d 'ordre superieur s'averent souvent plus puissantes. En elabo-
rant ces methodes il convient de ne pas perdre de vue que Ies syste-
mes d 'equations d'ordre superieur de type special se rencontrent
frequemment et que si l'on tient compte de leurs particularites on
augmenterait d 'avantage l'efficacite des methodes en question.
Ainsi, la plupart des problemes de mecanique celeste se reduisent
a l'integration des systemes d 'equations
ry·" = '<Y>·
Considerons une classe un· peu plus~vaste d 'equations
y" = f (x,y).,
32*
50() MBTHODES DE RiSOlaUTION DU PROBLl!:ME DE CAUCHY (OH. VIII

Comme d 'habitude on raisonne sur une seule equation, le resultat


se generalisant automatiquement a un systeme. Les methodes d 'in-
tegration Ies plus repandues sont en l'oceurrenee Ies methodes de
Stormer: explicite
A
Yn+t -2Yn + Yn-l = h 2
~ b_tf (Xn-i, Yn-t)
i=O
(1)

et implicite

Yn+t-2Yn+Yn-t =h2 ~ b_tf (xn-h Yn-i)•


·" (2)
i=-1

Ces methodes s'obtiennent egalement par la technique des coefficients


indetermines en exigeant que la difference
Y (Zn+1)-2y (zn) + Y (Zn-1) ~ b_,y'' (Xn-i)
h,2
i

soit de plus grand ordre en h. On suppose d'ordinaire x 1+1 -x{== h.


Indiquons un mode operatoire explicite pour obtenir de telles formules.
Substituons dans
Y (Zn+d-2y (Zn) + Y (Zn-tl
h,I

le developpement taylorien en :i:n de y (z) avee un reste sous forme integrale


exprime par la deri vee seconda :
:,c

y (:i:) = y (zn) + y' (zn) (z-zn) + J (z-t) y" (t) dt.


:,cn
Nous obtenons l 'egalite
Xn+t
y (Zn+t)-2y (zn) + y (Zn-t) 5 G (z) y• (z) dz,
h2
:,cn-t
Zn+t-:C
h,2
G (:c)=
{ Z-Xn-t
h,2

Rempla~ons y":(z) par le polynâme d 'interpolation. de Newton base sur


Zn, .•. , Xn-k:

y" (z) = y" (zn) + Vy" h,(xn ) (z-zn) + ... + V"y"


--- (Zn)
h11 k l
(z-zn) •••
§ 18) .PORMULES D'DrmGRATION DES ~QUATIONS DU DEUXI:i!:ME ORDRE 5ot

Apres avoir integre nous trouvons

ou
1 -1
Pp=-ir (J (t~t)t ••• (t+(p-1))dt+ j (-1-t)t .•. (t+(p-1))dt} ,(3}
w o
~n+t
r! = j Gi(x) y• (xn ; ••• ; Xn-k; x) {z-zn) ••• (x--xn-k) dz.
xn-1

Dans l 'expression dµ reste sortons de sous le signe d 'integration la valeur


y" (xn; ••• ; Zn-k; x) en un point intermediaire. 11 vient

r! = ifA+ty" (zn ; • • • ; Xn-k ; z) hk+i ;


la substitution de (k) t) y<k+S> (z°n), expressio~ de la difference divis4e par
1
la derivee selon (2.5.4), a Y1(xn ; ••• ; Xn-k ; l:) donne
(4}

On ~ ·r·1e 1mm"
v"r1 · ~a·1atement que (kifh+t
+ 1) 1 ~k+it P1i+1 etant determine par

l'egalite (3) pour p=k+t. L'egalite -ifk+t PA+t s'etablit egalement d&
(k+1) 1
la maniere suivante ; on a
1'+1
Y (Xn+tl-2y 1:n>+Y (Zn-tl = ~ ppV:Py" (zn)+O (hk+t).
p=O

Cette relation et l 'egalite (4) entraînent

~+:) I
(k y<k+3) <zn) kk+i = P1t+tVh+ty• (zn) + o (kh+I) ;
en divisant Ies deux memhres par y<k+i) (zn) kk+i et en passant a la limit&
lorsque h -. O et pour Xn = const, on trouve
Pk+t R.
(k+ 1) I t1k+t•

On aboutit finalement A l'egalite


Y (Xn+1)- 2y (xn) +Y (Xn-d = ~ Pp vP y• (xn) + P11.+iY(li+3) (zn) hk+'-
hi
p=O
502 METHODES DE RESOLUTION DU PROBL:8ME DE CAUCHY [CH. VIII

et a la formule de calcul correspondante


k
Yn+i -2yn + Yn-1 = h2 2] ~PVP f n, "fm = f (:cm, Ym)•
p=O
Si on remplace y" (x) par un polynâme d 'interpolation aux points Xn+t, •••
• • • , Zn-k+t, on obtient
k
Y (xn+1)-2y (z n) +Y (xn-t) ~ YpVPy" (Zn+1) +Yk+1Yck+S> (in) hk+1,
h2
p=O
ou 1
Vp = p'\ ( J(1-t} (t-1} t ... (t+(p-2)} dt-1-
o
-1

o
+ J.(-1-t) (t-1) t ••• (t+(p-2)) dt),

et la formule d 'interpolation correspondante


k
Yn+1-2Yn+Yn-1=h 2 2] YpVP/n+i• (5)
p=O
Citons plusieurs valeurs
119 1
3
{~p}=i, o, 12' 12'
240 ' 40 ' ••• ,
1 1 11 1
{yp}=i, -i, 12' o, - 240 ' - 240 '
Aux methodes construites ci-dessus on donne parfois le nom de methodes
d' Adams-Stormer.
Afin d'integrer numeriquement l'equation
y " = I (x, y, y')
on se sert du procede suivant: Yn et Zn, Ies valeurs approchees de
y (xn) et y' (xn), se calculent par des relations de recurrence explici-
tes telles que

oul.implicites de la forme
l
Zn+i = Zn + h k=O k
~ Ck V / n+1,
i

l
{ Yn+1 = Yn + h k=O
2] dk v"zn+i •
Les equations d' ordre superieur a 2 se ramenent generalement a des systemes
d'equations d'ordre 1 ou 2. ~
§ 14] ~VALUATION DE L'ERREUR 503

§ 14. Evaluation de l'erreur


dans la resolution numerique du probleme
de Cauchy pour une equation
du deuxieme ordre
Faisons -~eomme dans le eas des sehemas aux differenees finies
pour des equations du premier ordre et rejetons, dans (13.1) et (13.2),
Ies termes en /. L'equation aux differenees obtenue s'eerit dans Ies
deux eas
Yn+l - 2yn Yn-1 = O. +
Son equation caracteristique possede une racine multiple µ = 1.
Ceci ne doit pas nous effrayer : si dans Ies schemas aux differences
approchant des equations du premier ordre Ies valeurs de / etaient
multipliees par un coefficient en h, elles le seront par un coeffieient
en h 2 •
Tous Ies schemas aux differences d 'integration de y = f (x, y) 11

que nous avons examines peuvent se mettre sous la forme


k k
""'
~
a-iYn-i
h2 ~ b_if (Xn-h Yn-i) = 0, (1)
i=O i=O

Soit rn l'erreur d 'approximation


k

~ b_d (xn-h Y (Xn-i)) (2)


i=O

et supposons que I rn I~ c0hm uniformement sur tout le segment


d 'integration considere [x0 , x 0 +
X]. Etant donne que nous arron-
dissons lors du calcul et que l'equation n'est resolue en Yn qu'avec
une certaine precision, dans le cas d 'un schema implicite (b 0 =fo O),
la solution approchee Yn obtenue reellement verifie generalement (1)
avec une erreur. On a done
k k
2J a-iYn-t-h
i=O
2
~ b_tf(Xn-it Yn-i)=6n.
i=O
Recrivons (2)
k k
~ a-iY (Xn-i) -h2 ~
i=O i=O
b_d (Xn-i, Y (Xn-i)) = h rn;
2

retranchant cette relation de la wrecedente nous trouvons l'equatffln


d'erreur Rn = Yn - Y (xn):
k k
~ a_iRn-i-h2 ~ b.tln-iRn-i = gn, (3)
f=O i=O
504 M:8THODES DE R:8SOLUTION DU PROBL~ME DE CAUCHY (CH. VIII

ou
Soit
L= sup lfu(x, y)j<oo.
~~=s::o+Z
TH:80R:8ME. Supposons que toutes les racines de l'equation carac-
teristique

(4)

d'unschema aux di//erences sont situees dans le cercle unite et qu'il n'y
a pas de racines multiples sur le contour du cercle, sau/ une racine
double 1. Alors, pour x0 ~xn~x0 +X, la solution de l'equation (3)
satisfait a

mnax { I Rn I, I Rn -tn-t I) ~
<.C (L, X} { {- iI
i=k
CJ I+ max IR, I+ max j Ri-,_aJ-t
O~i<k O<i<k
I) . (5)

D:eMoNSTRATION. Posons R1- R 1_1 = hz1. Selon l 'hypothese du


lemme, l'equation caracteristique (4) admet une raeine µ= 1 et son
premier membre s'eerit donc
k-t
( ~ d_,µk-t-t) (µ-1), ou d0 = a0 •
i=O

Soit E, comme plus haut, l'operateur de translation Ey1= Yl+t·


On a la ehaîne d 'egalites
k k
~ a_,Rn-i = ~ a_iEk-i R n-k =
i=O i=O
k-1 1&-1
= ( ~ d_iE 1H-i) (E-1) Rn-1& = ~ d_tE"- 1- 1hzn-k+t;
i=O i=O
et finalement
h k-1
~ a_tRn-i =h ~ d_tZn-i•
ci i=O i=O
La relation (3) prend alors la forme
k-1 k
~ d_izn-i-h ~ b_tln-iRn-t= gnh-•.
i=O i=O
§ 14] iVALUATION DE L'ERREUR 505

Portons a droite tous Ies termes, sauf doZn, et divisons cette ega-
li te par d0 =I= O; il vien t
k-1 k
Zn= ~
i=i
(- ~~t ) Zn-i+h ~ (
i=O
~i) ln-iRn-t+. ::h · (6)'

Introduisons Ies vecteurs

Rn )
Un= • • • '
(
Rn-k+t

et mettons Ies relations Rn = Rn-f + hzn et (6) sous la forme matri-


cielle equivalente

Vn = Av n-1 + hDnV n + hBnVn-f + 4n ; (7)

Ies matrices et le vecteur 4n sont decomposes en blocs correspon-


dant aux vecteurs Un et Wn:

_ (Au A1•)
A- A21 A 22 ' Dn= Df1
(Du D12)D22 '

Bn= (u
B;1
B12),
B22.
qn= ( :i),
o oo
1 o o
ooo
1 o o
Au=
o 1 oo o o
oo1 o o o
......
o ooo 1 o
d_t d2-k d1-k
-T -~ -a;.-
1 oo o o ~o
A22= o 1 o o o o •
o o1 o o o
o oo o 1 o
506 M:f:THODES DE~R:8SOLUTION DU PROBLtME DE CAUCHY [CH. VIII
.J.1

a;- o o
boln
1 o o o o
o o o o o o o o
D12= o o o o D;1:::::1 o oo o
......
o o o ... o o o o . .. o

.b~•r )- q;=( t)-


b_tln-t
do

B~1=( o
o
Les matrices A12 , ~A 2 1, D11 , D22 , B 11 , B12 , B 22 et Ies vecteurs
ql' sont nuls.?La ma_trice A est bloc-diagonale: \ A~i 1,.) . A 11 a
pour equation caracteristique (µ-1) = O, et A22 se presente
µk- 1
comme la matrice A du § 8, de plus l 'equation
k-1
z1 d_iµk-1-i= o
i=O

verifie Ies conditions imposees a


k
z1 a_iµ"-i =O
f-0
correspondant a cette derniere matrice. 11 decoule de ce que nous
venons de dire que la matrice A jouit de la propriete suivante:
son equation taracteristique ne possede pas de racines dont le
module soit superieur a 1 et quant aux racines de module 1;,·
îl leur correspond des boîtes de Jordan de dimension 1.
Portons l'expression de hDnVn dans le premier membre de (7)
et multiplions a gauche par (E - hDn)-1 l'equation ainsi obtenue;
il vient
Vn = (E-hDnt (A+ hBn) Vn-1
1
(E-hDnt 1 qn• +
Cette egalite peut s'ecrire'j
V n = Av n-t + +
h (E - hDnt1 (..QnA Bn) V n-1 (E -hDnt1 qn• (8) +
La relation (8) a une forme analogue a (8. 7) ; la matrice A verifie
Ies conditions du § 8; si
I I< ! , alors li hDn 111 = I I< ! ,
b~h bth

et, selon (6.5. 7), on a


§ 14] EVALUATION DE L'ER.REUR 507

D'ou Ies inegalites


li (E-hDnr1 (DnA + Bn) ll1 < 11L,
li (E-hDnr 1 qn l 1 <211 qn llt•
L 'egali te (8) satisfait done aux memes eonditions que (8. 7). De la
meme fa~on dont on a deduit (8.12) A partir de (8. 7), on obtient
n
li Vn ll1 <li C ll1 exp (v1LX) (~1 ~ li qJ 111 + li c-l ll1IIV1i-111.).
J=Ji
Puisque

li q, llt = I :Jo I'


li Vn ll1~max { I Rn I, I),
f Rn--,,,Rn-t

li vk-1 llt = max { max IR, I, max j Ri-tJ-t j ) ,


O~J<k O<i<I&
il en resulte notre theoreme.
L'estimation
I g; !~max I 6, I+ cJ,,m+2
i
nous permet d 'obtenir
fl

~ Igi I~n m~x I 61 I+ conhm+ 2 <


J=k
3
! m~x I '
f,J I+ c0Xhm+ 1 •
En evaluant le second membre de (5) on a l'estimation d'erreur
max { I Rn I, Rn ~I Rn-t I) <C (L, X) ( ~ n:ax I61 I+
+c Xhm+ max IR;I + max /R,~RJ-tl).
0 (9)
O::;;.j<k O<J~k
Dans le cas de 1'equation y' = M y nous avons montre qu 'il y a parmi
Ies racines de
k
~ (a-i-Mhb_i) µ k- 1 =0
i=O
la racine µ=exp (Mh)+O ((Mh)m+i) si ce schema approxime l'equation
differentielle avec une erreur O (hm),
Dans le cas yn=My, l'equation aux differences (1) s'ecrit
k
~ (a_ 1 -Mh 2b_i) Yn-i = O.
i=O
508 M~THODES DE. ~SOLUTION DU PROBLbE DE CAUCHY [CH. VIII

On demontre de mâme que si le schema (i)J approehe y" = f (z, y) aveo une
erreur O (hm), parmi Ies racines de
Ji·
~ (a..t -Mh9 b_i) µ~i =O
i=O
il y a obligatoirement Ies deux racines
'11, 2=exp (±VMh.)+o ((-VM1i)m+ 1).

§ 15. Methodes hilaterales


Le but des methodes bilaterales est de localiser numeriquement la solution
exacte du probleme propose. Voyons quelques-unes d'entre elles en negligeant,
pour la simplicite de l'expose, l'influence de l'erreur de calcul.
Etant donnes z 0 < ... < Xn et Ies valeurs / (z0), • • • , f (zn), supposons que
la derivee t<n> (z) conserve son signe sur [z0 , .xn]. Proposons-nous de trouver
l'intervalle contenant la valeur / (x), x E (z0 , xn)• Posons
Ao=Lo, •.• , n-1(x), A1=L1, ••• , n(x), (1)

ou L1i, •• • , n-t+k (z), k=O, 1, est un polynome d'interpolation de degre n-1


base sur z,u .•. , Zn-t+k• On a (2.3.1) la representation du reste
f (x)-A 0 J<n> (to) (z-xo) • •• (x-zn-1),
ni
j(fl) (t1)
f {x)-A1 n (z-z1) ••• (x-zn),
1
to, tt C (zo, Znl•
Les facteurs z-x0 et x-zn sont de signes contraires; il en d&oule que
/(z)-Ao et / (z)-A1 presentent, elles aussi, des signes differents (si aucune
d'elles ne s'annuie). Aussi f (x) est compris entre Ao et Ai, autrement dit,
min (.Ao, A1) < J (z) < max (Ao, At).
Soit a calcuier
1
I (/) = J/ (z) dz.
o
Mettons cette integrale sous la forme
M
I(/)= ~ I q (!), I q (/) = Jr f(x) ck ; llq =
[~
q-1
, Mq1 ] .
q=1 11q

Trouvons I q (!) par la formule des trapezes et celle des rectangles

I q (f) ~ tq (I)= ~ ( f ( qM 1 ) +/ ( j, ) ) '


'1
lq (f) ~ Pq (/) =y f
(q-+) M •
§ 15] 509

Au § i du chap. III nous avons obtenu l'expression des erreurs sur ces for-
mules:
t
Iq (f)-tq (I)= -1m3 r.(~), ; (2)
i9
lq (f)-p9 (/)=2W3 r (z~),
:;, ~E Aq.
Voyons d'abord le cas ou f" (z) ne change pas designe (prenons f" (z) >O
pour fixer les idees). Alors (2) entraine
Pq cn ~ 1q cn ~itq cn,
et Ta som.mation sur q donne
PM (f) ~ I (/) ~.;TM cn,
avec
· 'M M
PM(I)=!~ Pq(/), TM(f)= ~ tq(f).
q=t 'l=i
Si, par contre, /" (z) change de signe sur [O, t], on utilise des strategies
differentes pour encadrer la valeur de l'integrale.
En voici une, la moins sure. La sommation de (2) sur fournit zq
•r {n-T
_. - M
(1)--t_'_
f2M2~
so~
M'
(3)

/ (/) =PM (I)+ 24M2 Slf I
ici
M
st=.1 ~ r CZ:),']'.k=O, t.
q=t
Soit /"' (z) bornee en module: I /• (z) I ~ B <]oo. Nous invitons le
lecteur a prouver la validite des relations
1
" Jf1(z) dz+sM• I sM I<;; 2MB ,
SM= k k k=O, t. (4)
o
Pour fixer Ies idees, considerons le cas
1
A= Jr
o
(z)dz>O.

Alors
t
I (f)=TM (f) - 12~ 2 ( J/"
o
(z) dz+s~) <;;
5{0 M:8THODES DE R:8SOLUTION DU PROBL!.ME DE CAUCHY [CH. VIII

de mâme
1
J(/)=PM(f)+ ~ 2 (Jo
f"(z)cl.z+eM)>PM(/)- 4 ~ 3 •

D'oii l'estimation
B Bl
pM (/)-4SMS < I (/) < T M (/) + 24.M 3 • (5)

Celle-ci n'est d'aucune utilite car seules Ies quantites PM (I) et TM (j) se deter-
minent numeriquement. Avec un pas d'integration si petit que B/(2M) ~ A,
on a, conformement A (4),
sgSif= sgSlt= sgA.
Les relations (3) entraînent alors l'estimation effective
PM (/) ~ J (/) ~ TM (/).
Lorsque A< O, on a naturellement
TM (/) ~ / (/) ~ PM (/).
Regroupons ces inegalites; ii vient
min (PM (/), TM (/)) ~ I (n ~ max (PM (/), TM (f)) (6)
pour A de signe quelconque A condition que
B
2M <IAI.
Dans la pratique on estime que ( 6) est juste avec M quelconque bien que, par
exemple pour A = O, cette aftirmation soit gratuite.
Une autre strategie plus prudente a formellement droit de cite pour A = O.
Considerons ceux des segments Aq sur lesquels /" (x) garde son signe. Lorsque
I" (z) ~ O, ii decoule de (2):
1
I q (I) <; tq (f~ - 12M3 F~,
1
I q (!)":;;::. Pq (I) I 24MS F~ ;
ici et dans la suite

De mâme, lorsque f' (z) < O,


I q <m:> tq (/) + 12~:s F~,
i
I q (/) < Pq (/)- 24M3 ~-

Ces relations entrainent que pour f" (z) de signe constant sur Aq on a

s~ (fl + ~ 3 ~<Iq. (/) < s; (/)- ~ 3 F~, (7)


§ 15] M~THODES BILAT~RALES 5H

avec
~ (!) = min (Pq (/), tq (!)),
s; (/)=max (Pq {f), tq (f)).
Supposons que f" (z) change de signe en un point zq de !l.q. De tels seg-
ments sont evalues a l 'aide de (2):
p2 p2
8~ ( / ) - 121s <Iq (f) <s;+ 121s • (8)

Designons par ~, la sommation sur Ies segments avec f" (:z:) d'un mâme
signe et par A" la soxrreation sur Ies segmenta restants. En sommant (7), (8)
par rapport a tous Ies q nous trouvons
s~ (f)+E <I(f) < s1,i (1)-E,
ou
M
S~r(/) = ~ { (/), k = 1, 2,
q=t

' 1 " F;
E= ~ 24M3 ~ - ~ 12M3 •
q q
PR0BLtME. Demontrer
1
E> 24~ 2 Jlf"{x)ldz:- 8! 3 •
o
Nous rappelons au lecteur que ~; contient des term.es correspondant aux
segments ou/" (x) change designe; c'est pourquoi F~= O (~)dans ces termes.
D'une fa9on generale Ies points ou la derivee change designe sont _peu nombreux
et E ~ O des que M est relativement eleve. Ce qui autorise l'estimation
Skt (f) < I (/) < Sif (/). (9)
On a Ies inegalites evidentes :
M
SM {f) = ~ min (Pq (/), tq (f)) <
q=1
M M
<_min ( ~ Pq (f), ~ tq (/)) =min (PM (!), TM (/)),
q=t q=1
de mâme,
max (PM (!), T.l\,t (f)) <Sif (f).

Par consequent, l'inegalite (9) donne de plus larges limites de variation de


/ (!). 11 est donc naturel qu'elle ait liru avec des contraintes plus faibles sur le tJ&S.
Pas!'ons maintenant aux methodes bilaterales de resolution du probleme
de Cauchy pour l'equation dilferentielle y' = f (z, y), y (:z:0) = y 0 • On desire
512 DTHODES DE]R:8SOLUTION DU PROBLBME DE CAUCHY (CH. VIII

trouver la valeur :t- X). Prenons un entier m, arbitraire et faisons recours


y (zq
a deux -methodes d'Adams d'ordre d'exactitude m:
m
YJ-YJ-1 =h ~ v,VifJ-t (methode explicite)
j=0
et
m
YJ-YJ- 1 =h ~ YtVifJ (methode implicite).
i=O
On constate que Ies parties principales de l'erreur d'approximation dans ces
methodes, i.e.
Ym+tYcm+2> (zj) km+l et Ym+tY<m+Z) (z1) hm+l,
sont de signes op~oses parce que '\'m+t~+\.. < O.
La resolution a'un mâme probleme de cauchy par Ies deux techniques
donne les valeurs approchees YN et y1,, de la solution y (z0 X). Dans les +
conditions du theoreme de la partie principale de. 1' erreur ( § 9 de ce chapitre)
on a
YN-Y (zo+X)= -Ym+tZ (X) hm+l+o (hm+l>,
~(10)
Yh-Y (zo+X)= -Ym+1Z (X) nm+l+o (h,m+l),
avec
~+x ~+x
J (X)= J ycm+l> (t) exp ( Jf 11 (,:, y ('t')) d,:) dt.
:ro t
On en conclut que lorsque z (X) =I= O et h suffisamment petita,
YN-Y {zo+X) et y1f-y {zo+X)
sont de signes opposes, donc
min (YN, uM < y (zo +X) < max (y]\r, y1f). c(H)
Cette strategie de la localisation de y (z0 +
X) est equivalente au premier procede
d'encadrement de I(/) qui est plus risque. Neanmoins, l'inegalite (11) appelle
une prudence plus grande que (6) du moment que dans le cas d'equations diffe-
rentielles le terme d'ordre superieur dans (10) ne devient souvent inferieur
a la partie principale que si Ies pas sont tras petita.
On ne connait pas dans la pratique de variante rationnelle de la deuxieme
strategie de localisation de la solution par Ies methodes d' Adams.
Cette strategie est a recommander pour Ies methodes de Runge-Kutta.
Bornons-nous, pour fixer Ies idees, aux methodes exactes a l'ordre 2. Etant
donne que Ies parties princiQales de I'erreur par pas dans Ies methodes de Runge-
Kutta d'un mâme ordre d'exactitude ne sont pas forcement proportionnelles,
on est donc oblige a construire des procedes tels que ces parties principales
soient proportionnelles et de signes differents.
Voici ce couple de procedes: dans les deux cas on calcule

k1=kf(z,M, k2=kf ( z+ ! h, !
u+ k1),
puis
§ 15) l\'IE'l'HODES BILATtRALES 513

y (x+k) ~ y< 1> =Y (x)+k~l>


pour la premiere methode, et

k~2,=hf ( x+ ! h, Y+: k2)


et

pour la deuxieme. L'erreur par pas dans la premiere methode (cf. § 2, chap. VIII)
s'ecrit . .
q> (h) = y (x +
h) - y<1 > = Ah3 0 (h'), +
et celle dans la deuxieme
q> (h) = y (x + h) - y<2 > = -Ah3 + O (h 4 ),

ou
A= /yyf2 •
24

L'encadrement selon une strategie plus prudente s'effectue comme suit. Pendant
l'integration on calcule ă. chaque pas tleux quantites Yi et y! encadrant la solu-
tion et telles que y~ < Yi · On suppose YA = y5 = y {x0). Avec y~ au depart on
effectue un pas d'apres Ies deux methodes et on prend pour YA+ 1 la plus petite
des valeurs Y!~ Y!>:;
1• 1 ainsi obtenues. Ensuite, on part de y~, on effectue
un pas selon Ies deux methodes et on prend pour y ~+ 1 la plus grande des
valeurs Y!~ 1 , Y;Ţ 1 trouvees.
Si (ce qui arrive fort rarement dans la pratique) y~ > y; pour un certain n,
cette metbode bilaterale tombe en defaut.
Comme les points y~ et Y! sont assez voisins, Ies valeurs A qui leur corres-
pondent, le sont elles aussi, et lorsque A :::/= O, on a generalement
2 2 2 y• -y1, t
Yn+1 =Yn+i si n+1- n+1
et (12)
y2n+1-
-y2, 1 si
n+1
1 1, 2
Yn+1 =Yn+1 •

Notons que, Ies methodes examinees etant exactes a l 'ordre 2, y~ - y (xn) et


y~ - y (xn) sont en h2 •
Cependant, les parties ~rincipales de l' erreur par pas dans ces methodes
etant egales en valeur absolue et de signe different, on a

IYn Yh ţ Yi I= O (h3).

Si Ies methodes bilaterales permettent d'etablir avec une certitude plus grande
les limites de variation de la solution d'un probleme, elles alourdissent par
33-i01007
514 Mil1THODES DE R:ESOLUTION DU PROBL:8ME DE CAUCHY [CH. VIII

contre l'algorithme et font augmenter le volume de calcul. Dans la J)ratique,


les techniques d'encadrement decrites peuvent donner lieu a une erreur de calcul
qui, quand on en tient compte, complique toujours plus les algorithmes en
question et en limite extrâmement l'usage.

Bibliograpbie du chapitre VIII


I (1, 4, 11, 17], II [1, 31, 35]; §§ 1-3: III [54, 58]; § 4: III [9, 49];
§§ 5, 6: III [57, 59];§7: I [1], III [7, 55); § 8: I [1], III [32]; § 9: II [27],
III [6, 15, 48]; § 10: I [17), III [6, 15]; § 11: III [17, 37, 39*), 56, 60, 62);
§ 12: I [5], III (6, 18, 56]; § 14: II (35); § 15: III [16, 23, 41).

*) Voir egalement Y. Rakitski, « Nouvelles methodes numeriques de reso-


lution des systemes d'equations differentielles ordinaires et d'equations aux
differences », Travaux de IPL, 332 (1973), 88-97 (en russe).
CHAPITRE IX

METHODES DE RESOLUTION DES PROBLEMES AUX LIMITES


POUR LES EQUATIONS DIFFERENTIELLES ORDINAIRES

Par comparaison au probleme de Cauchy, la resolution des pro-


blemes aux limites presente des difficultes complementaires: l'exis-
tence de la solution necessite une etude notablement plus compliquee;
la formulation du probleme discretise donne lieu a un systeme d 'equa-
tions lineaires ou non lineaires dont la resolution exige une etude
speciale.
§ 1. Methodes simples de resolution
du probleme aux limites pour une equation
du deuxieme ordre
Une partie essentielle des problemes aux limites pour Ies equa-
tions differentielles ordinaires est constituee par Ies problemes rela-
tifs aux equations et systemes d'ordre 2, que l'on rencontre en balis-
tique, en theorie de l'elasticite, etc.
Commenţons notre etude par un probleme particulier, assez
frequent. On recherche la solution de l'equation
Ly = y" - p (x) y = f (x) sur (O, X) (1)
avec Ies conditions aux limites
y (O)=a, y (X)= b. (2)
Donnons-nous un pas h = XN- 1 , N entier, et prenons Ies points
x1 = jh pour nceuds du reseau. Soit, comme d 'ordinaire, YJ des
approximations de y (x1). En remplaţant la derivee y"_ (x1) par le
rapport aux differences
62YJ Y1+1-2YJ+ Yi-t
--;;,:-= h2
îl vient
j=1, ... , N-1, (3)

avec Pi = p (x1), f 1 = f (x1); on substitue aux conditions aux limi-


tes Ies relations
Yo = a, YN = b. (4)
33*
516 M:8THODES DE RSSOLUTION DES PROBL~MES AUX Lil\lITES [CH. IX

Montrons que, pour p (x) ~ O, le systeme d'equations (3), (4)


admet une solution et evaluons l' erreur.
LEMME 1. Soit p (x) ~ O, l (z1) ~ O, z0, zN ~ O. Alors
z1 ~ O quel que soit j.
D~l\lONSTRATION. Designons min z1 par d. Supposons que d < O,
O~~N ·
donc d =I= z0 , z N• Soit q Ie plus petit entier tel que Zq = d; selon la
definition de d et q, on a zq-i > d, Zq+i· ~ d. Alors
(zq+1- d) + (zq-1 - d) Zq-1 - d
l (zq) = h2 - pqzq > h2 > O,
ce qui est contraire a l 'hypothese d < O.
LEMME 2. Si p (x) ~ O, alors toute fonction z 1 veri/ie l'inegalite
x2
max lz1l-.<max(lzol, lzNI)+ Z 8 ,
O~j~N
ou
Z = max I l (z1) 1·
O<i<N
D~l\10NSTRATI0N . Faisons intervenir la fonction
-1 Zo 1·(1-1!:_)-+-I
.WJ- X X +z
; ZN I ;h ;h<X-ih)
2 •
• , f,2f
Pour un polynome du deuxieme degre, la quantite V coincide
f,2wi
avec la derivee seconde, aussi --,;,r- = -Z. Puisque la definition
de w1 entraîne w1 >O, on a
fJ2wJ
l (w1)=7i2"- P1w1--<-Z, l (w1 + z1)-.<-Z ± l (z1)--<0.
Evidemment,
Wo ± Zo = IZo I ± Zo >O, WN ± Zz,; = IZN I ± ZN ~o.
Les fonctions WJ ± z1 verifient Ies conditions du lemme 1, c'est
pourquoi elles sont superieures ou egales a zero. D'ou l 'estimation
I ZJ 1-<:I WJ 1--< m~x IWJ I• On a
0~1~N

JZo I { 1 - ~ ) + IZN I ;; --< max ( I Zo I, IZN I) ( j 1 - ~ I+I~ I)=


= max ( Izo I, IzN I),
jh(X-jh) <: x;.
§ 11. PROBL~E AUX LIMITES POUR UNE :8QUATION DU DEUXI:E:ME ORDRE 517

Aussi
x2
max I w1l<max (!zoi, lzNI )+Z 8 .
O~j~N

Le len;i.me 2 est demontre. Il en resulte que le systeme homogene


correspondant a (3)-(4) n'admet que la solution triviale. Puisque le
systeme non homogene (3)-(4) a autant d 'equations que d 'inconnues,
il possede une solution et une seule. .
Considerons le cas de p (x) et f (x) deux fois continument deri-
vables; on demontre, dans Ies cours d 'equations differentielles,
que la solution y (x) est alors quatre fois continiiment derivable.
Soit r1 l'erreur d'approximation correspondant au schema aux
differences finies (3) :
rJ = l (y (x J)) - /; =:

-----~---
h'l. (5)
Comme p(x)y(x)+f(x)=y"(x), on a
y (Xj+t)-2y (Xj)
r1=----h-2_ _ __
+ Y (XJ-1)
Les evaluations de l 'erreur dans Ies formules de derivation nume-:
rique donnent
(6)

Vu divers arrondis, Ies approximations y1 des valeurs y (x1), qu'on


obtient dans Ies calculs, verifient le systeme (3), (4) avec Ies erreurs
l (Y1)-f i = 61. (7)
En retranchant (5) de (7) on trouve l 'equation
l (R1) = 61-r1
par rapport a l 'erreur R1 = y1-y (x1) sur la solution approchee.
Utilisons le lemme 2; on obtient
x2
IR1l<max( IRol, IRNl)+ 8 ( max lr1I+ max 16;1).
O<i<N O<i<N
Selon l 'estimation (6)
h2
I r1 l<M412, M4 = [O,XJ
max I y< 4> (x) I
et l 'erreur est finalement appreciee par
max IR1J<max(IR0J, IR..ivl)+
M1iX21i2 x2
+(max 1«511)- •
O~~N 96 Orj<N 8
518 MtTHODES DE RtSOLUTION DES PROBLBMES AUX LIMITES [CH. IX

Nous voyons que des que Ies conditions aux limites et l'equation
aux differences sont satisfaites avec une precision amelioree, pour
un pas tendant vers zero la solution du probleme discretise se rap-
proche de celle du probleme differentiel.
La methode decrite donne une solution approchee qui converge
vers la solution exacte avec la vitesse O (h2). Proposons-nous de
construire des schemas plus precis et supposons que p (x) et f (x)
sont quatre fois continument derivables; la solution du probleme
est alors 6 fois continument derivable. Revenons a la quantite
y (Xj+i)-2y (Xj)+ y (Xj-1)
rJ = ----,,...,i2 ____

en developpant toutes Ies quantites en serie de Taylor au point x 1,


il vient
y<'> (x;) 1,,2
r1 = 12 +a (h 4
). (8)

y4 (x;) 1i2 i"l


Retranchons de l (y (x1)) un terme approximant 12
corres-
pond au schema obtenu une erreur d 'approximation d 'ordre plus
eleve. On peut, par exemple, approcher y< 4> (x 1) par
fJ 4 y (x1) y (x1+2)-4y (z;+1) + 6y (x1)-4y (Xj-1) + y (x1-2)
1,,4 h,4

et obtenir ainsi le schema aux differences finies

(9)

On arrive au meme ··resultat en substituant directement a y" (x;)


l'expression h-2 (fJ 2 y (x1) - (1/12)fJ&y (x1)) qui I' approche avec une
erreur O (h4). L'equation (9) contient 5 inconnues y 1 avec des coef-
ficients non nuls; la resolution d 'un systeme forme d 'equations (9)
et d'equations obtenues par approximation des conditions aux limi-
tes est plus laborieuse que celle du systeme (3).
En nous servant d' autres considerations, construisons un schema
aux differences finies ou l'erreur cl'approximation est O (h4) et tel
que dans chaque equation figurent en tont trois inconnues. La double
derivation de l'equation de depart donne y< 4> (x) = (p (x) y + /) ".
Aussi
2
(4) ( ·) , _ 6 (PY+ /) I ZJ
Y X1 _, 1,,2

(PJ+tY (x1+1) + /j+1)-2 (PJY (x;)+ f 1) +(PJ-tY (XJ-1)-1- f 1-1)


§ 1] PROBL~ME AUX LIMITES POUR UNE :8QUATION DU DEUXI"BME ORDRE 519

La soustraction du schema initial de l'approximation de y< 4>h,2f12


f,2y- 1.
donne le schema h./ -P1Yi- 12 fJ 2 (P1Y1+f1)=f1 ou
f,2yj 1. t 1 2
z<t> (y;) = ,;,r- - P;Y,- 12 f,~ (P1Y1) = zc
? -
> (/;) = f 1 + 12 6 /;.
Dans l'hypothese que la solution est 8 fois contimîment derivable, con-
siderons l'erreur commise en approximant lenouveau schema = Z<1 >(y (x1)) - rJ1)
- l< > (/1), compte tenu de PJY (x1) f J = y" (x1)- Il vient
1
+
rt = zel> (y (x;))- f<l> (/ J) e,2~i~x1) y" (x1)- i2 f,2y" (x1)•

Le developpement de toutes les quantites en serie de Taylor suivant Ies puissan-


ces de h au point x 1 fournit
1u = y< 6> ;.~) h4 + O (h6).
Construisons une approximation de y< 6> (.x1) par y (x;_1), y (.x1), y (.x1+1). Ces
approximations peuvent âtre tres nombreuses. Procedons par exemple comme
suit. Selon (1),
Y"=PY+ f, Y"'=(PY+ /)', y< 4>= (PY+ /)",
yt6> = (PY+ /)t4l = py<4> +4p'y<3> +6p"y" +4p<3>y' + p<4>y+ j<4>,
et on a par consequent l 'egalite approchee

1 -,..., 1
2
y<6> (.x ·) -,..., p. 6 (PJY (.xJ)
h2
+ /J) ...1..
t

+4p' (XJ) (PJ+tY {Xj+t> + f J+t> ;?J-tY (XJ-1) + f J-1) +


+ 6p" (xj) (PJY (x;) + f j) +4p(3) (x1) y (Xj+t); y (XJ-1) +
+ p<4> (Xj) y (Xj) + jC4) (Xj)•
4
En ajoutant a l1 (y;) l'exprossion approchant y<~tlh on aboutit a un schema
aux differences finies avec une erreur d'approximation O (h6); chaque equation
du systeme algebrique ainsi obtenu ne renferme que trois inconnue~ y 1•
L'evaluation reelle de l'erreur sur la solution d'un probleme
aux. limites peut se faire par la regle de Runge dont la legitimite
se base sur l'existence de la partie principale de l'erreur.
PROBLBME. Soient p (.x) et / (x) des fonctions 4 fois derivables. Demontrer
que la solution du probleme (3)-(4) satisfait a
max I Yn -y (xn)-h 2z (xn) I= O (h4),
n
ou z (x) est solution du probleme aux limites
Lz = -y4 (x)/12, z (O) = z (X) = O.
520 Ml::THODES D~ RE:SOLUTION DES PROBL:Bl\lES AUX LIMITE$ [CH. I~

INDICATION. Se servir des constructions du § 5, chap. VIII.


Passons a un autre groupe de methodes d 'amelioration de la
precision des solutions approchees que nous appellerons methodes des
differences d' ordre superieur.
Supposons qu'en resolvant le probleme aux differences (3) on arrive a
calculer Ies valeurs d'une quantite r} telle que
max I eJ 1=0 (li-1), e} =r1-r}.
O<j<N
Trouvons la solution RJ du probleme discret
l (RJ)=r}, j=1, ... , N-1, Ră=R~=0,

et posons yJ =Y1+R}'· On a Ies egalites


l (y (x1)-yJ)=l (y (x1))-l (YJ)-l (~j)=r1-r} =E}.
Compte tenu du lemme 2, il en resuite l 'estimation
x2
jy(x1)-Y}l<s max leJJ=O(k4). (10)
O<}<N
Conformement a (8) Ies quantites rJ chercbees doivent verifier

m;x Ir}' y<4> ~;1> k2 I= O (h4). (11)

Si p(x) et /(x) sont suffisamment regulieres, on approche y< 4>{x1) par


f,4yj • f,4y •
/i4" et, partant, on pose rj1 = h~. Le terme a droite de cette relation n'est
12
pas defini pour j = 1 et j = N - 1. Aussi, pour determiner Ies approximations
de y< 4> {z1) et y< 4> (xN_1), utilise-t-on d'autres formules de derivation numerique
exactes a O'(h4).
Notre affirmation sur la possibilite d'approcher Ies derivees y< 4> (x1) exige
une justification speciale.
r} s'obtiennent egalement de la fa~on suivante. Vu (1), on a

y<4> (x} = (y" (x))" =(p (x) y (x)+ f (x))" = :f,2 (PJY (i~ + f (x1)) +O (h2),
ce qui suggere de poser
rl = f,2 (PiYJ-1- /J).
J 12 '
on montre que l'estimation (11) et donc (10) sont alors valables. Dans la pra-
tique on se sert plus de la seconda technique d'obtention de r\.
Le schema general d'amelioration de la solution par differences
d'ordre superieur se. presente comme suit.
On forme une equation qui verifie approximativement l'erreur
entachant l'approximation obtenue, puis on resout l'equation par
rapport a cette erreur. Autrement dit, soit y1f une approximation
avec une erreur O (h 2 m+ 2).
§ 1] PROBL:tME AUX LIMITES POUR UNE tQUATION DU DEUX.I:lmE ORDRE 52t

On construit une expression de r,r+1 qui se calcule efficacement


au moyen des valeurs de yf et telle que si R7/1+1 est solution du pro-
bleme discretise
l (Rf+ 1) = r7F+1, j = 1, ... , N -1, m;i+i ==R;+i =0,
l'approximation y3+1 = yf'
O (h2m+4). r7'+1, R1J1'+1 , puis y7r+ R1J1'+1
1
est affectee de l'~rreur
se calculent d 'a pres le schema
ci-dessus.
Les methodes decrites possedent l'avantage de resoudre, quel
que soit l'ordre de precision de l'approximation obtenue, Ies sys-
temes d 'equations algebriques lineaires ayant une meme matrice.
Traitons le cas de la condition aux limites y' (O) - ay (O) = a.
L'approximation discrete tres precis~ d'une telle condition s'ob-
tient directement en rempla~ant la derivee y' (O) par une formule de-
derivation nume_rique· d'ordre de precision eleve
l
, (O) ,..,,, "'1 CiY (xi) ·
y _,...,, LJ -k •
i=O

L'erreur d'approximation sera moindre et la resolution du systeme-


algebrique obtenu moins ardue si l'on ameliore progressivement,
comme ci-dessus, la precision de l'approximation.
La substitution_ de y (h)-;:y (O) a y' (O) donne l'equation z~u (Yi)=
Yr;:Yo ay0 -a=0. Developpons r~u=z~u(y(xi)) =y(h)-;;y(O) -
-ay (O)- a en serie de Taylor suivant Ies puissances de h; il vierit
r~u = y' (0) + y" ~O) h +O (h 2)- ay (0)-a = y" ~O) k +O (h2).
L'erreur resultant de l'approximation de la condition aux limites
est donc O (h). Puisque, selon (1),
y" (O)= PoY (O)+ fo,
il correspond a
z<o2> (Y1·) = Y1-Yo
h - ayo- a - (pOyOT' j) h
O 2=
O

une approximation d'ordre 2. Le developpement taylorien suivant


• •
Ies pmssances de h de r~ 2 > = l~ 2 >(y (x1)) fourmt r~-> =
., y<3>(0)h,2
6
+
+ O (h3) •. On obtient en derivant l'equation initiale (1):
y< 3 > (O) - PoY' (O) - p' (O) y (O) - j' (O) = O;
et, compte tenu de la condition aux limites,
y< 3> (O) = Po (ay (O) a) + +
p' (O) y (O) + f' (O).
522 MgTHODES DE RgSOLUTION DES PROBLtMES AUX LIMITE$ [CH. IX

11 correspondra a l' equation aux differences


l~31 (Yi) = l~2 > (Yi)- ((poa. + p' (O)) Yo + Poa + f' (O)) 6h2 = O
une approximation d 'ordre 3.
Nous aurions pu ecrire d 'emblee

-Y"(O)~+
ro<u- 2 y
<a> (O) 1i2
6 '

puis exprimer Ies derivees y "(O) et y< 3> (O) a l'aide de y(O) et, en
retranchant du schema aux differences l'expression correspondante,
-0btenir lf1 (yi) = O. Or, nous avons centre l'attention sur l'ame-
lioration de proche en proche de la precision puisque l'application
de cette technique a des equations aux derivees partielles est la
:plus simple et la plus naturelle.

§ 2. Fonction de Green d'un probleme


aux limites discretise
La fonction wi introduite au § 1 dans la demonstration du lemme 2
s'appelle fonction majorante et l'evaluation d'erreur faisant appel
a cette fonction porte le nom de methode des majorantes ou de Gerschgo-
rin.
Dans certains cas ou la methode des majorantes ne joue pas,
l'erreur sur la solution approchee est evaluee a l'aide de l'analogue
discret de la f onction de Green. La construction de la fonction de Green
du probleme aux limites discretise ('1.3)-(1.4) est en outre interes-
sante par son analogie avec le cas des problemes aux limites diffe-
rentiels.
La fonction de Green G (x, s) du probleme aux limites diffe-
rentiel
Ly = y" - p (x) y = I (x), y (O) = a, y (X) = b
est definie comme solution de l'equation
L (G (x, s)) = G;x (x, s) - p (x) G (x, s) = cS (x - s) (1)
_avec la condition aux limites G (O, s) = G (X, s) = O. La solution
du probleme (1.1)-(1.2) se recrit a l'aide de la fonction de Green:
X
y (x)= JG (x, s) f (s) ds+ Gs (x, X) b-Gs (x, O) a. (2)
o
Cette fonction peut etre donnee par Ies formules explicites ci-des-
sous. Soient W 1 (x), W 2 (x) Ies solutions de l'equation L (W) = O
verifiant Ies conditions
w1 (O) = o, (W1 )' (O) = 1,
W2 {X) = O, (W 2)' (X) = -1 ;
§ 2] FONCTION DE GREEN DU PROBL:E:ME AUX LIMITES DISCR~TISt 523

alors
w2 (s) w• (x) pour O-.<x-.<s,
vo
G (x, s)= { w1 (s) w2 (x)
vo pour s-.<x-.<X,
ou
w1 {x) JiV2(x) I 0
V (x) = (Wi)' (x)
I (Hl2)' (x) =const= V •

Passons au problem~ discret


Y;+1-2Y;+ Yi-t
l (Y;) h,2 P;Y;=/;, Yo=a, YN=b.

• Definissons par ana]ogie les fonctions W~, W~ moyennant les


relations
l(W}) =0, i=1, 2, j=1, ' N-1, ...
Wă=O, wt=h, wi=o, wi-1 =h.
L'analogue du wronskien est
w~
Vn = Wh,-W}i_ 1
h
L'identite
o= W~l (W!) - w:iz (Wi) =
=
WJiWil+1 +WhWfi-1 -h2W~Wh+1 - W~ Wf.-1 Vn+1-Vn
h,2

entraîne que V 11 est independant de n; notons-le V (h).


Posons
WlWi
k V (h)
pour O-.<n-.<k,
Gn= Mw2
k n
{
V (h)
pour k-.<n-.<N
Introciuisons la notation
l (Gk) _ G~+t -2G~+G~_1 _ G"
n - 1,,2 Pn n•

La defini tion de W~ en traîne

l (Gn)
k
= VW!
(h)
t
l (Wn)=
Q
524 M~THODES DE R~SOLUTION DES PROBL:E:MES AUX LIMITES [CH. IX.

lorsque n < k,
k îVl 2
l (Gn) = V(k) l (Wn)= O
lorsque n> k, et
l (G")
n -
_ GR+1-2G~+GR-1
h2
Gn-
-Pn n -

- ( Wl+1W},-2w~w~+Wfi-1WI Pnwtiwi) =
- vw~ vw
_ Wfi
-- V (h)
( W~+1-2W~+w~-1
h2
w2) +
Pn n
(WfiWh-1-WJiW~-1)
V (h) h2

pour k = n. D'apres la definition de w:i la premiere parenthese


vaut O et la· deuxieme V (h) h. Finalement, pour k= n, on a
l (G!)=h-1 ; en reunissant Ies relations obtenues, il vient

(3)

La fonction f:,n-kh- 1 est l 'analogue discret de la fonction de Dirae


et l'egalite (3) celui de (1).·
Evaluons le degre de proximite des fonctions de Green des pr~
blemes differentiel et discret. Comme (W 1)~ (O)= p (O) W 1 (O)= O„
on a
W 1 (h) = W1 (O)+ (W 1)' (O) h + (Wi)"t) h'J + 0 (h3) = h + 0 (h3).
La fonction ~ est solution de l'equation aux differences finies qui
approche W" - p (x) W = O. L'equation caracteristique µ 2 -
- 2µ +1 = O du schema aux differences possede une racine double
µ = 1. Ainsi, Ies conditions du theoreme du § 14, chap. VIII sont
realisees. Posons Rn = ~ - W1 (nh). Compte tenu de l'estima-
tion (8.14.5) on a, sous Ies hypotheses concretes du probleme con-
sidere,
N-1

o~!!xlRn l¾C(P, X) ( h !; lr,I+ max (I Rol, IR, D+IR' h Rol},


ou ri est l 'erreur d 'approximation :
_ (W1)<4> (xi) h2
ri- 12 , P=maxjp(x)j.
[O,X]

Par definition de ~ et W}, on a R 0 = O, R 1 =0 (h3), donc


R1-Ro
h = O (h2). II resuite par consequent de la derniere evaluatio:q
max Il 1
~- W 1 (nh) l~Mh2 (4)
O~xn~X ·
§ 2] FONCTION DE GREEN DU PROBL'BME AUX LIMITES DISCR~TISi 525

-avec M une constante. On obtient de meme


max IW~-W 2 (nh)l~Mh2 • (5)
O~xn~X
L~s proprietes de V 0 et V (h) font que
1
W (X)° Ol
yo = V (X)= (Wt)' (X) -:--1 = - w1 (X),
I
w1 ·o
V(h)= w1-w1_1 -1
=-W1'r.
h
C'est pourquoi
I V (h) - V 01 ~ Mh2
,conformement a l'estimation (4).
On suppose ensuite W1 (X) =I= O; dans le cas contraire le proble-
me aux 1imites homogene y" - p (x) y = O, y (O) = y {X) = O
aclmet la solution W1 (x) differente de zero, et, par consequent,
le probleme non homogene (1.1)-(1.2) ou bien n'a pas de solution,
ou bien .en a. plus d 'une. Supposons de plus h tellement petit que
2Mh 2 ~ I W1 (X) I = I V0 1- On a alors
IV(h)l>IV0 1-Mh2 ~1 1>0. ~o
Pour de tels h
(6)
La c_omparaison des expressions explicites des fonctions de Green
des problemes differentiel et discret donne, compte tenu des· esti-
mations (4)-(6), ' ··
IG!-G(nh, .kh)l~Qh2 (7)
lorsque O~kh, nh~X.
LEMME. Si V (h) =I= o, le probleme discretise (1.3)-(1.4)" admet
une solution unique qut s' ecrit
N-1

Yn =h n k + wi
"" Gkf
,"'-I w2 a + Wti b•
. WL (8)
k=i o N

La formule (8) est l 'analogue discret de la formule (2).


Puisque G! = G~ = O d 'apres la definition de
D~MONSTRATION.
G!' Yo = a, YN = b. On a l 'egalite . .
N-i
l (Yn) = h ~ l (G!) / k + l ~;1) a+ l ~~) b,
k=i o N
526 M:8THODES DE Riq;SOLUTION DES PROBL:tMES AUX LIMITES [CH. IX

ou Ies coefficients de a et b sont nuls par definition de W~. En utili-


sant (3) on trouve l (Yn) = fn- Ainsi, le systeme d 'equations lineai-
res (1.3)-(1.4) possede, quels que soient ses deuxiemes memhres, une
solution sous forme (8). Cette solution est unique, comme c'est la
regie pour tout systeme d'equations lineaires resoluhle pom n'im-
porte quels deuxiemes membres. Le lemme est demontre.
La relation (8) peut etre utilisee de deux faţons pour evaluer la
proximite des solutions des prohlemes differentiel et discret.
La premiere consiste a comparer directement (2) et (8). Pom
fixer Ies idees, prenons le cas a= b = O, Bn == O. Portons x = nh
et recri vons (2) sous la forme
nh X

y (nh) = JG (nh, s) f (s) ds+ JG (nh, s) f (s) ds.


O nh

Si p (x) et f (x} sont deux fois continument derivables, on montre


que Ies deux f onctions a integrer possedent egalement cette proprie-
te. Remplaţons Ies deux integrales par la formule des trapezes de
pas h. On trouve
n-1
y (nh) = h (G {nh,
2
0) / (0) + ~ G (nh, kh) f (kh) + G(nh, ~i) J {nh)) +
k=1
N-1
+ h (G (nh, n;) I (nh) + ~ G (nh, kh) f (kh) +
k=n+i
+ G (nh, ~h) J (Nh)) +O (h 2).

Comme G (nh, O) = G (nh, Nh) = O par definition de la fonction


de Green G (x, s), on a
N-1
y (nh) = h ~ G (nh, kh) fh
k=1
+ O (h 2
). (9)

On a effectue la bipartition de !'integrale parce que l'eneur dans la


formule des trapezes est evaluee par la derivee seconde de la fonc-
tion sous le signe J,
et la derivee premiere de la fonction G (nh, s)
presente une discontinuite au point nh. II decoule des egalites (8), (9)
N-1
Yn-Y(nh)=h ~ (G!-G(nh, kh))J,,+O(h2 ).
h=i

Compte tenu de l'estimation (7) on obtient Yn - y (nh) = O (h2). On


etahlit sans peine que cette estimation de l'erreur est uniforme en
n pour O~ Xn ~ X, i.e.
max IYn-Y (nh) I= O (h2).
O~xn~X
§ 3) R:E:SOLUTION D'UN SIMPLE PROBL:BME AUX LIMITE$ DISCR:E:TIS:e 527

La seconde, qui nous est plus familiare, consiste a etablir l 'equa-


tion d'erreur et a evaluer l'erreur par la formule de Green. On sait
(cf. § 1) que l'erreur Rn satisfait a
l(Rn)=6n-r,o ou irn\~~4 r;
6n est l 'erreur due a l 'imprecision de la solution du systeme (1.3)-
(1.4). Soit R 0 = RN = O. La fonction de Green du probleme diffe-
rentiel etant sous forme explicite, il en resuite qu'elle est uniforme-
ment bornee ; corn pte tenu de (7) on trouve qu 'il en est de meme
de G~: I G! I~ D pour O~ kh, nh ~ X. Explicitons Rn lr l'aide
de la formule de Green (9) :

(10)
11 en decoule l'estimation
N-1
IRnl~Dh ~ (l61il+ln,I).
k=t
En reduisant la precision on obtient l'estimation plus suggestive:
I Rn l~DX ( 1:{; h2 + 0<'11.<N
max 16k 1).
Si p (x) ~ O, celle-ci est du meme ordre en h et en max I 6k) que
l'estimation precedente. Les procedes decrits peuvent permettre
d'evaluer l'erreur dans des hypotheses assez faibles sur la regularite
des coefficients du probleme (le premier procede s'avere particuliere-
ment utile en l'occurrence).

§ 3. Resolution d'un simple probleme aux


limites discretise
Dans la resolution numerique du probleme de Cauchy, Ies valeurs
de la solution sont definies aux namds successifs par des formules de
recurrence; un probleme aux limites discretise tel que (1.3)-(1.4)
ne presente pas cette possibilite puisque Ies valeurs de la solution
dependent des conditions aux limites aux deux extremites du seg-
ment d 'integration.
Le probleme aux limites ·
y" - p (x) y = f (x}, y (O) = a, y (X) = b
peut etre resolu comme suit. Prenons une solution particuliere y 0 (x)
de l'equation avec second membre
Y~ - P (x) Yo = f (x)
et deux solutions lineairement independantes de l'equation homo-
gene Yi - p (x) Yi = O, i = 1, 2. La solution generale de l'equa-
.528 l\[eTHODES DE R~SOLUTION DES PROBL'Er.rns AUX LIMITES [CH. IX

:tion non homogene s'ecrit alors


Yo (x) + C1Y1 (x) + C2Y 2 (x),.
·avec C1 et C2 constants definis par Ies conditions aux limites. Appro-
chons Ies fonctions Yi (x), i = O, 1, 2, par une methode de resolu-
tion numerique du probleme de Cauchy; definissons Ci et trouvons
.ainsi la solution cherchee.
11 est possible de proceder plus economiquement. A cette fin on
trouve une solution particuliere de l'equation non homogene y~ -
- p (~) y 0 = f (x), qui verifie la condition y 0 (O) = a, et une solu-
tion particuliere y1 (x) de l'equation homogene telle que y1 (O) = O.
La solution generale de l' equation non homogene, qui satisfait
a y (O) = a, s'ecrit y 0 (x) + Cy1 (x); la valeur de C est definie
moyennant la condition y 0 (X) + Cy1 (X) = b.
La methode de resolution qui s'inspire de ce schema porte le nom
de methode du tir. Voici l'idee de son analogue discret. 0n se donne
y~ = a, y~ = O, y} -=fa O et y~ arbitraires, et on determine de proche
en proche y~, • . . , y'h, y~ , . . . , y1, a I' aide de
Yfi+1 - 2y~ + Yt-1 PnY~=fn, (1)
1i2
Yh+1 - 2y}i
h2
+ Yh-1 PnY:r_=O. (2)
On trouve ensuite C a partir de y'h + Cy}v = b et on pose Yn =
,= y~ + Cy~; la fonction Yn est la solution cherchee.
S'il est impossible de loger toutes ces quanti_tes en .mămoire
rapide de la machine, au lieu de mettre en reserve y~, i = ·O, 1, on
recherche, une fois C calcule, y1 = y~ + Cy!, puis on determine
successivement y 2 , • • • , y N-l moyennant l (Yn) = fn• L'algorithme
decrit s'applique.f~.rmellement avec y~ et y! quelc~nques; cependant,
la valeur y~ = a +
O (h) est la plus raisonnable si l'on veut dimi-
nuer l' erreur de calcul. ·
Justifions notre deraiere assertion. Dans Ies calculs effectifs, Ies va·leurs y~
.-sont reliees par ·
~+1 =2~ -Y?i-1 +h2 (PnYVi-fn)+8n;
le resultat est arrondi en calcul automatique avec une erreur relative oe l'ordre
de 2-t, et 6n peut âtre de l'ordre de 2-ty~+t• Introduisons lesfonctions auxiliai-
res: Y!,
solution de (1) avec Ies conditions initiales yg = Yi = a et yt solution
de (2) avec pour conditions initiales y8 = O, yf = h. Soit y 2 (x) une
:solution de y" - p (x) y = f (x) verifiant Ies conditions initiales y (O) =
= a, ·y' (O) = O. Nous avons montre au § 2 que
max I yi - W1 (nh) I ~ Mk 2 ; (3)
O~xn~X

en evalua~t par le mâme procede la proximite entre Ies solutions y~ et y 2 (nh)


-des problemes 'dis'cret et differentiel respectivement, on aboutit, a l' aide du
§ 3] Rl!lSOLUTION D'UN SIMPLE PROBL:tME AUX LIMITE$ DISCRJilTIS~ 529

theoreme du § 14, chap. VIII, a


max I y~-y2 (nh) I= O (h). (4)
O:::;xn~X

La fonction Yi +
y~ (Yî - a) 11,-1 coincide avec yi pour n = O, 1 et verifie
la mâme equation aux differences finies; aussi yi = Y! + Y! M - a) 11,-1 •
Compte tenu des estimations (3)-(4) il vient:
y~ = {y2 {nh) + O (k)) + (W1 (nk) + O (k)) {YÎ - a) 1r1 •
II s'ensuit que, Iorsque I (Yî - a) 11,-1 I ~ 1, Ies quantites y~ sont de l'ordre
de (yî - a) 11,-1 • Puisque Ies valeurs y~ et y~ different reiativement peu, Ies
YÎ sont egalement du mâme ordre de grandeur. Conclusion: on choisira de
preference YÎ tel que (Yî - a) 11,-1 soit petit.
De nombreux problemes aux limites se caracterisent par une
croissance notable (avec la croissance ou la diminution de x) de cer-
taines des solutions des equations differentielles homogenes corres-
pondantes.
Considerons l 'equation modele
y" - py = O, p =const> O. (5)
Les solutions exp (±Vpx) de l 'equation homogene associee croissent
(resp. decroissent) brusquement sur le tron~on considere si yji'x
est suffisamment eleve. VpX et k sont donc Ies parametres qui deter-
minent l'influence de l'erreur de calcul dans Ies differentes methodes
de resolution du probleme discret (1.3)-(1.4). Examinons le modele
d'accumulation de l'erreur de calcul a l'une des etapes de resolution
du probleme discret. Supposons qu'on a trouve une valeur y1 exempte
de toute erreur et qu'ensuite on calcule a l'aide de la formule de
recurrence
Yn+l = 2yn - Yn-1 pk2Yn • +
Supposons qu 'ii existe la relation
Y:+1 = 2y: - Y:-1 pk2 +
6 y: +
(c5 etant de I' ordre de 2-t) entre Ies y:
obtenus reellement. En en
retranchant l'e.galite precedente, on aboutit a une equation donnant
l'erreur An = y: -
Yn:
An+l = 2An - An-1 + pk2An + 6_,; (6)
avec., par hypothese, L\ 0 = L\ 1 = O. L'equation caracteristique
µ 2 - (2 pk2) µ + 1= O +
de cette equation aux differences possede Ies racines
f.1-t ,2= 1 + p;2 ± -,I pk2+ (p~2)2.
3t-Ot007
530 M:mTHODES DE R~SOLUTION DES PROBL:8MES AUX LIMITES [CH. IX

Cherchons une solution particuliere de l' equation non homogene


sous la forme tln = c. Son report dans (6) donne c = - 2 • Ainsi, P!
la solution generale de l'equation non homogene s'ecrit
(7)

nous definissons C1 , C2 a partir des conditions A 0 = A1 = O. Done,


finalement,
An 2
=-c5-(
ph.
1-µ2 n+ 1-µ1 n-t)
µ1-µ2 µ µ2-µ1 µ1 2 •

Admettons que cr = V ph2 est. petit. Alors


µ1, 2= 1± cr+o (a2),
et, par consequent,
1-µ2

de meme

Comme d'ailleurs µ1, 2 = exp (± a+ O (0'2)), l'egalite (7) se met sous


la forme
tln = P! 2 ( ( : + O (cr) ) exp (O'~ (1 + O (cr))) +
+ (!+O (cr)) exp(-crn(1 +O(a)))-1).
Lorsque nh=x, on a O'n= lfpx et

tln = p~2 ( ( ! +o (cr)) eţp (Vp (1 + 0(0'))) +


X

+ ( ! + (O')) exp ( - VP 1 + (a))) -


O x( O 1} . (8)

Si Vjjx est grand, pour x voisin de X, l'infhience de l'erreur de


calcul est catastrophique conformement a (8). Fait remarquable,
dans de nombreux cas, la cause en est non pas le facteur h-2 , conse-
quenee de la petitesse du pas, mais exp (Vpx (1 O (cr))). Par +
exemple, dans le probleme aux limites pour y" - y = f sur [O, 30)
on a exp (Yf -30) = 1012, ... , tandis qu' on recourt rarement a un
pas d'integration h < 10-3 •
Lorsque p (x) ~ O, on fera appel, pour le systeme (1.3)-(1.4),
a la methode du balayage. Representons la condition aux limites
Yo = a par Yo = C0y1 +
<p 0 , ou C 0 = O, <p 0 = a. Portant Yo =
§ 3) RgSOLUTION D'UN SIMPLE PROBL~ME AUX LIMITE$ DISCR:8TIS~ 531

= C0 y 1 + cp 0 dans la premiere equation du systeme (1.3)-(1.4)


Yo-2Y1+Y2
h2 P1Y1 = f„
on trouve une relation entre y 1 et y 2 • Sa resolution par rapport a
y1 donne
(9)
avec
C1=__,,__1_ _
2+ Ptk2 '
en substituant I' expression de y1 en fonction de y 2 dans la deuxieme
equation du systeme on trouve une relation entre y 2 et y 8 , et ainsi
de suite. Soit, enfin,
Yn = CnYn+1 <pn; + (10)
portons cette expression de Yn dans la (n 1)-ieme equation du +
systeme (1.3)-(1.4):
Yn -2Yn+i
h2
+ Yn+2 Pn+1Yn+1 = f n+i•
Apres avoir resolu l 'equation ainsi obtenue
(CnYn+t+<J>n)-2yn+t+ Yn+2_p
h2
y
n+i n+t -
-fn+t,
on a
Yn+t = Cn+1Yn+2 + (J)n+1,
oii
1 2
Cn+1=2+Pn+th2-Cn, cpn+1=Cn+1(cpn-/n+1h ). (11)
On voit que Ies coefficients des equations (10) reliant deux valeurs
consecuti ves Yn et Yn+ 1 s' obtiennent a partir des relations recurrentes
(11) dans Ies conditions initiales C0 = O, <p 0 = a. Vu que y N est
connu, on determine de proche en proche, avec Ies coefficients Cn,
cpn trouves, y N-i, • • • , Y1 a l'aide de (10). Le calcul des coefficients
Cn, cpn s'appelle balayage en sens direct et celui des inconnues Yn
balayage en sens inverse ou par remontee. La marche des operations
est schematisee comme suit:
balayage en sens direct
Pt PN-1

t t +
C0 = 0-+ C1 -+ C2 -+ ••• -+CN-t
t t t
(pa= a-+ cpi-+ cp2-+ • • • -+ cpN-1
t t t
/1 /2 fN-t
34*
532 MF!THODES DE RlilSOLUTION DES PROBLbES AUX LIMITES [CH. IX

balayage par remontee :


C1 C2 CN-t
t t t
Yt-+- Y2 ~ • • • ~YN-t ~ YN•
t t t
cpN-1
L'appellation de la methode du balay11 ge est parfois justifiee par Ies raison-
nements suivants. L'equation
Yn = CnYn+1 + q>n
est la consequence de la condition a la limite z = O et des equations du systeme
(1.3) correspondant aux ~oints z; ~ xn. Cette egalite est donc vraie pour toute
solution du systeme d equations l (y1) = f 1, j = 1, ... , n, qui verifie la
condition A l' extremite gauche ; la condition a la limite z = O est pour ainsi
dire « balayee » jusqu'au point courant x=xn.
Les methodes du tir et du balayage sont des cas particuliers · de
l'algorithme d'elimination de Gauss pour le systeme (1.3)-(1.4).
En ramenant n equations de ce systeme a la forme (10) par le balayage
en sens direct on obtient le systeme
Yt -C1Y2 = <i>h
Yn -CnYn+t = cpn,
Yn - (2 +
Pn+th2) Yn+1 + Yn+2 = f n+th2
resultat auquel on aboutirait par elimination de n inconnues dans
la marche directe de la methode de Gauss. Le balayage en sens direct
reduit la matrice du systeme a une forme triangulaire. Le halayage
par remontee coincide avec la methode de Gauss de remontee.
PROBL:mME. Ecrire Ies formules de calcul de la methode de la racine carree
pour le systeme considere. Comparer le cont de ce procede avec le travail qu'exige
la methode du balayage.
Examinons une autre variante de la methode de Gauss pour le
systeme (1.3)-(1.4). Exprimons, a l'aide de la premiere equation, y 2
en fonction de y1 et substituons dans Ies autres. La deuxieme equa-
tion ne renferme maintenant que Ies inconnues y1 et y 8 ; exprimons
y 3 moyennant y 1 et substituons dans Ies equations restantes,,,, et ainsi
de suite. Supposons que nous avons deja exprime y 2 , • • • , Yn A
l'aide de y1 et trouve Ies relations y 1 = a;y1 + P1 pour 2 ~ j ~ n;
par souci d 'uniformi te ajoutons-y Ies egalites
Yo = rLoY1 + Po, ou ao = O, Po = a,
Y1 = rL1Y1 + ~1, ou a1 = 1, P1 = O.
§ 8] RESOLUTION D'UN SIMPLE PROBLEME AUX LIMITES DISCRETISE 533

Le report des expressions de Yn-i et de Yn dans l'equation


Yn -1 - (2 + Pnh 2
) Yn + Yn+i = fnh 2

fournit.
(an-1Y1 + f:ln-1) - (2 + Pnh 2
) (anY1 + f:3n) + Yn+1 = fnh 2
,
ou encore
Yn+1 = an+1Y1 + f:ln+1,
ou
(12)
f:3n+l = (2 + Pnh 2
) f:3n - f:3n -1 + fnh 2

Ainsi, Ies coefficients an, f:3n se calculent de proche en proche par


Ies form:ules de recurrence (12). Apres avoir obtenu y N = a NYi +
+ f:3 N, determinons la valeur y1 , puis tous Ies y i par

Yi = aiY1 + f:3i• (13)


Vu (12), Ies valeurs a 1 satisfont a l'equation aux differences finies
homogene (2) et aux conditions initiales a 0 = O, a 1 = 1, et Ies
valeurs f:3J a l'equation aux differences finies non homogene (1) et
aux conditions initiales f:3 0 = a, ·ţ31 = O. Dans la methode du tir,
pour un certain choix des eonditions initiales, an• se eonfond avec
y~ et f:3n avec yt La fonction Zn = anC +
f:3n verifie l'equation aux
differences finies non homogene et la condition a l'extremite gauche
pour n'importe quel C, de plus z1 = a 1 C f:}1 = C. Par conse- +
quent, ~;n resolvant YN = aNC +
f:3N par rapport a (), nous tom-
hons sur' la valeur C = y1 recherchee par la methode du tir. Les
calculs selon (13) correspondent a la recherche des Yn par la formule
Yn = y~C + y~. La methode construite coincide avec l'une des
mises en amvre de la methode du tir et avec l'algorithme;de Gauss
si l'ordre d 'elimination des inconnues est Yo, y 2 , • • • , y N,· y 1 •
La resolution d'un systeme d'equations ayant une N X N-matrice A
pleine par l'algorithme de Gauss classique exige ><
N 3 operations arithmetiques.
Les matrices A = [aij], aii = O pour I i -. j I > m, sont dites (2m 1)- +
diagonales; dans le cas de matrices trîdiagonales, l'elimination de Gauss qui
coincide avec la methode du balayage demande, nous l' avons vu, un nombre
sensiblement moindre d'operations. De mâme, ce nombre est notablement
plus faihle pour Ies matrices (2m +
1)-diagonales si m ~ N.
Voici un probleme type qui se reduit a un systeme d' equations de matrice
proche d'-une forme (2n +
1)-diagonale.
Le lissage des fonctions par la regularisation ( § 4, chap. V) a ete ă ·1' origine
du probleme suivant. Soit une fonction _periodique /q de !'argument 9 entier;
la periode est egale a N +
1 (N au § 4, eh. V). Trouver une fonction periodique
Uq de mâme periode satisfaisant a

(52nuq
~ + ( - Â2 )nuq=/q quels que soient q.
534 MiTHODES DE nisoLUTION DES PROBL:l!:MES AUX LIMITES [CH. IX

Ecrivons ces relations pour q = O, ••• , N. Vu la periodicite, on remplace


Ies valeurs de uq avec q < O et q > N figurant dans ce systeme par uq+N+1
et uq:-N-l respectivement. D'ou un systeme, ~e N +
1 equation~ par rapport
aux mconnues u 9, .•• , uN: Au= f. Les elements de la matrice A = LaiJ]
du systeme se definissent par au = a ( I i - j I), avec
a (O)= ( - f )n ( qn7t-2n Â2n), +
( - f )n-k cn- h. h- 2 npour O< k < n,
a (k)= 2n
{ O pour n< k<N-n,
(-1)k+n-N:...1c~;n-N-i7t-2n pour N-n<k<N

A=

La matrice A est symetrique et definie positive.


Ce systeme peut se resoudre par la methode de la racine carree. L'autre
procede consiste a eliminer successivement Ies inconnues ecrites dans l'ordre
naturel ut, u2 , • • • Dans Ies deux cas, la transform.ation du systeme s' exprime
par des formules de recurrence analogues a celles de la methode du halayage,
et le nombre d'operations arithmetiques necessaires reste O (n2N). Puisqu'on
recourt a des operations differentes, Ie choix de la methode tient compte du cout
relatif en operations machine. L'erreur de calcul atteint dans Ies deux cas des
valeurs de l'ordre de 2-th-2n.
PROBL:f5MES. 1. Ecrire Ies formules de calcul des deux methodes pour n = ·1:
2. Quel est le nombred'operationsarithmetiquesexigees par Ies deux metho-
des avec n quelconque?
Dans certaines situations la matrice A du systeme est bloc-(2n + 1.)-diago-
nale, i.e. elle est partitionnee en blocs ÂiJ tels que AiJ = O lorsque I t - j I >
> n. On utilise alors la methode d'elimination par groupes correspondant aux
blocs, et Ies formules de calcul sont Ies mâmes que pour Ies systemes de matrice
(2n + 1)-diagonaie (la seule difference est qu'il faut rempiacer Ies operations
scalaires oar Ies matricielles).
§ 3] R'8SOLUTION D'UN SIMPLE PROBL'filME AUX LIMITES DISCRETISE 535

Prenant comme modele le cas p (x) == p = const, examinons le


comportement des coefficients de balayage Cn pour p de signes diffe-
rents. Les relations
1
Cn-1-1 = 2+ ph2- Cn,
qui sont verifiees par ces coefficients, coincident avec Ies formules
d 'iteration pour
1
C=g (C)= 2+ph2-c
avec l'approximation au depart C0 = O. L'equation C = g (C)
est equivalente a l'equation du second degre
C2 - (2 + ph2) C 1 = O; + (14)
ses racines sont
ph2 / p2h4
Cm, C<2>=1+-2-±V ph2+-4-·
Pour ph2 > O, on a evidemment Cm> 1, donc O< Cm= q!, <
< 1. Pour p < O et h petit, l'expression sous le radical est negative

C, lz lrz) I C

Fig. 9.3.1. Fig. 9.3.2


et l'equation (14) n'admet pas de racines reelles. Les fig. 9.3.1-9.3.2
representent la position relative des courbes y = C et y = g (C) et
des points (Cn, Cn), (Cn, Cn+t). On voit que lorsque p ~ O, Ies
valeurs de Cn sont dans Ies limites O< Cn ~ 1 (fig. 9.3.1). Si p<O,
îl n'est pas exclu (fig. 9.3.2) que, pour n suffisamment important,
536 METHODES DE RESOLUTION DES PROBL:BMES AUX LIMITES (CH. IX

une valeur Cn-1 soit voisine de 2 +


ph2 ; la valeur suivante Cn est
alors tres elevee; Cette circonstance nous oblige a etudier plus en
detail l'influence de l'erreur de calcul, au moins pour p < O.

§ 4. Fermetures des algorithmes de calcul


La resolution d 'un probleme modele fournit de nombreux ren-
seignements utiles pour l'analyse preliminaire d'un algorithme.
Un autre moyen efficace d'analyse est l'etude des fermetures des
algorithmes de calcul.
Afin de ne pas alourdir l' expose nous nous bornerons a l 'essence
du probleme sans justifier suffisamment certaines constructions du
presant paragraphe.
Soit un probleme
(1)
et soit
(2)
une suite de problemes dependant du parametre h (cela peut âtre
le pas du reseau) dont Ies solutions uh convergent pour h -+ O vers
la solution du probleme initial. Supposons que l'algorithme de resolu-
tion de (2) consiste a obtenir de proche en proche des relations
L~u~ = t!!i, m = 1, ... , M ; (3)
L~ =E est l'operateur unite, u~ = !~ = (Lh)- 1f = uh, c'est-a-
dire qu'on obtient au M-ieme pas la solution exacte uh. Introduisons
un parametre z (m, h), fonction monotone de m et tel que pour
h -+ O et z fixe la relation (3) devienne a. la limite
(4)
ou
z0 = lim z (M, h).
h➔ O

La relation (4) s'appelle jermeture de l'algorithme de calcul (3).


Pour !'instant, nous ne recommandons pas au lecteur d'a~profondir cette
notion peu rigoureuse. Celle-ci sera plus claire quand nous l utiliserons pour
le probleme aux limites.
La definition de l'algorithme de calcul n 'exclut pas le cas M =
= co. Dans ce cas Ies egalites
L~=E, t'l.t=(Lht 1l
s'interpretent comme suit:
L~-+ E, f~-+ (Lhttf pour m-+ oo.
§, 6) FERMETURES DES ALGORITHMES DE CALCUL 537

Le cas M = oo correspond aux methodes iteratives de resolution


du probleme (1). Si Ies operateurs L: sont bornes uniformement
en z, on dit que l'algorithme (3) possede une fermeture reguliere;
dans le cas contraire, cette fermeture est irreguliere.
Si la fermeture est reguliere, on a des raisons de penser que l' algo-
rithme sera insensible a diverses perturbations, en particulier a
l'erreur de calcul. L'etude de la fermeture constitue donc un moyen
commode de se faire une idee de la qualite d'un nouveau procede
des le depart. Cette evaluation preliminaire n'est pas forcement defi-
nitive. II se. peut que Ies operateurs L: soient uniformement bornes
par une constante tres grande, ce qui en fait revient a dire qu'ils
ne sont pas bornes. D'autre part, il est possible que Ies operateurs
Lz ne sont pas bornes a cause d 'une normalisation defectueuse des
equations (1.3) ou encore d'un choix maladroit des normes dans Ies
espaces de fonctions u. Le fait, pour Li, de ne pas etre uniformement
bornes signifie que q (h) = supli L':n li croît indefiniment lorsque h
m
tend vers zero. II semble que la presence de grands coefficients dans
L~u~ = f':n devrait etre equivalente a des perturbations notables
des coefficients du probleme initial et, partant, a une influence
serieuse de l'erreur de calcul. II se peut cependant que q (h) croisse
tres lentement et que l 'augmentation correspondante de l 'influence
d~ l'erreur de calcul soit acceptable lorsque le pas tend vers zero.
Malgre ces considerations l' etude des fermetures des algorithmes de
calcul s'avere fort utile.
Avec le balayage en sens direct on a
Yn - CnYn+l = (J)n• (5)
Voyons ce que deviennent ces relations lorsque h-+ O. Prenons a
cette fin le cas le plus simple de p == O. Alors C0 = O, C1 = 1/2,
C 2 = 2/3, ... et (on l'etablit facilement en raisonnant par recur-
rence) Cn = 1 - 1/(n + 1). Fixons un point quelconque, disons
x = nh. Le premier membre de (5) qui lui correspo11:d est

Yn-(1- -=-+1.h
1. )Yn+t•

En remplaQant Yn par Ies valeurs de la fonction reguliere y(nh)


la limite du premier membre est egale a zero, et l' etude d 'une telle
fermeture de l'algorithme n'a pas de sens. Pour qu'il n'en soit pas
ainsi, on choisit un Â. (h) tel que la limite

lim'A.(h)(y(x)-(1
h-0
1.
-=-+1
)y(x+h)) (6)
h,
538 METHODES DE RESOLUTION DES PROBLj;JMES AUX LIMITES [CH. IX

soit finie et non nulle. Soit Â. (h) = h-1 ; alors

! (y(x)-(1- Ţ~i )y(x+h))=


= !{ y(x)- ( 1 - ~ +o (h (y (x) + y' (.i:) 2
)) h + O (h 2
))) =

= y~x) -y' (x)-J-O(h).

Dans une telle normalisation le premier membre de (6) tend vers


une limite differente de zero. Essayons de nous servir de cette nor-
malisation dans le cas general. Puisque dans !'exemple considere
il existait
lim Cn-1 lorsque nh = x,
h

introduisons au lieu de Cn une nouvelle variable an= 1-Cn et


h
rappelons Ies relations de la methode du balayage
1 2
Cn+t = 2+ Pn+th2-Cn , 'Pn+t = Cn+t (<J>n -fn+1h ). (7)
Multiplions (5) par - h- 1 et posons Cn = 1- anh et 'Pn = - ~nh.
La relation (5) se recrit
Yn+t-Yn
h anYn+i = ~n• (8)

Portons Cn et 'Pn exprimes par an et ~n dans (7); il vient


1
1- an+th = 1 + Pn+1h2 + a.nh '
~n+th = (1-an+th) (~nh+ fn+1h 2),
d'ou
an+ Pn+th (9
an+i = 1+ CXnh + Pn+1h2 ' )
~n+1 = ~n -1- (/n+1 -an+t~n) h-an+tf n+1h 2
• (10)
L'egalite (9) se transforme en
<Zn+t - CXn _ 2 / 2Pn+tCXn - a.r., + (Pfi+1 - Pn+ia~) h (11)
h - Pn+1 - an - 1, 1 + CXnh+ Pn+1h 2 '

et (10) en
~n+1-~n
h f n+t - P. -
an+Wn / n+1an+1Ji. (12)
Sous l 'hypothese des coefficients an et ~n tendant, pour nh = x fixe
et h-+ O, vers des limites a (x) et ~ (x), la substitution des valeurs
§ 4) FERMETURES DES ALGORITHMES DE CALCUL 539

y (nh) a Yn dans (8) donne a la limite l'equation differentielle


y' - a. (x) y = ~ (x),
qui .est la fermeture de l'algorithme de calcul. Les relations (11),
(12) montrent que a.n, ~n verifient des equations qui font penser a la
methode d 'integration numerique des equations differentielles
d'Euler:
a.' = p (x) - a,2, (13)
W = f (x) - a.~. (14)
En prouvant le fait que a.n, ~n tendent, pour nh = x fixe et h -+ O„
vers Ies solutions de ces equations on se heurte a la difficulte sui-
vante. Par definition,
1-C0 1 0 q, a
a.o .-1,,-=0 ,;, ~o=-,;-=-T· (15)

Ainsi, dans le voisinage du point x = O Ies conditions initiales de


l'integration numerique par Ies formules (11), (12) sont assez specia-
Ies si hien que dans ce cas on ne peut appliquer Ies methodes que
nous avons developpees pour evaluer la proximite des solutions des
problemes discret et differentiel. La forme de (15) autorise a supposer
que a. (x) est une solution de (13), qui se comporte a proximite de
zero comme x-1 , et ~ (x) une solution de (14), qui se comporte dans
le meme domaine comme -ax-1 • Justifions nos affirmations.
Les coefficients Cn et donc CXn s'obtiennent des relations de recurrence (7)
independantes du second membre de l'equation differentielle et de la condition
aux limites au point X; il en est de mâme de la condition initiale C0 = O
de la recurrence. Considerons le probleme aux limites
y" - p (z) y = O, y (O)= O, y (X)= 1
et le probleme discret correspondant
l (YJ) = 0, Yo = O, YN= 1.
Leurs solutions s'ecrivent
W 1 (x) Wh
y (.x) = Wl (X) ' Yn= W1N

(cf. § 2). Comme <p 0 = O et tous Ies fn = O pour notro probleme aux limites,
on a ~n = O et la forme suivante
Yn+t-Yn -a. y
h, n n+t -
-0

de la relation (8). En y portant Yn = Wh/W1N, îl vient


rv
u..n-
_ ( WJt.+1 h,- Wf, ) (Wln+l)-1 • (16)

On a I' estimation ( § 2)
I ~ - W1 (nh) I~ Mh2 pour O~ nh ~ X, (17)
540 M:8THODES· DE R:8SOLUTION DES PROBLbES AUX LIMITES (CH. IX

(Wi);'x est uniformement borne sur [O, X]; c'est pourquoi


Wl ((n + 1) h)- Wl (nh) +o (h 2)
(Wl)' ((n+1) h)+0 (h) (18)
h
uniformement sur [O, X]. La substitution de ces expressions dans (16) fournit
(Wl)' ((n+1) h)+0 (h)
a.n= Wi((n+1)h)+0(h) •
Ainsi, lorsque h ~ O, Ies valeurs a.n se rapprochent de celles de la fonction
{W1 )' (x)
a. (x) Wl (x) •
Celle-ci satisfait a l 'equation differentielle (13) vu que

(c~r ) '= (~1{ - ( (~;' )2 = p (x)-a.2.


D'apres la definition de W1 (z), pour x petits W1 (x) -· x et (W1)' (x) - 1 et,
par consequent, a.(x) = (W.:;~;> ·. . ,
x-1 , ce qui correspond a l'hypothese. No~ns
que la fonction a. (x) deviant infinie nux points en lesquels W1 (x) = O, en
particulier lorsque :e = O. Dans le voisinage de chaque y · pareil ·
(W1)' (x) - (W1)' (y) =I= o, W1 (x) - ((W1)' (y)) (:z: -. y)
et donc
a. (x) - (x - y)-1 • (19)
Les points de ce voisinage verifient

· Wl.+i ~ Wh = (W1 )' ((n+ 1) h) (1+ O (h)),


h

Wh+i = Wl ((n+ 1) k)+ O (k2 ) = Wl ((n+ 1) h) ( 1+0 ( Wl ((:: 1} h)}) =.


2
=Wl((n+1)h)(1+o Cn+~ h_y)),
ainsi

a.n~a.((n+1)h)(t+0(li)) (1+0 ( (n+::h-y)) •


L'erreur relative dans a.n ~ a. ((n +
1) h) est en O (h) jusqu~au voisinage
d'ordre h des points en lesquels a. (x) = oo.
Selon (8), on a pour une equation non homogene
~ _Yn+1-Yn
n- k a.nYn+i·

Par suite de (18) et de l' estimation de la convergence de la solution du pro-


bleme discret vers celle du probleme differentiel ( § 2) on a
~n = ~ (( n 1) h) +O (h) +
en tous Ies points :z: = (n +
1) h, ou a. (x) =I= O; ici
~ (x) = y' (z) - a. (x) y (x).
Hl FERMETURES DES ALGORITHMES· DE CALCUL 541
La fonction discrete Pn se rapproche donc d'une fonction p (x) de l'argument
continu. Evidem.ment, . .
P' = y" - a.' Y - a.y' = (py + /) -
(p - a,2) Y - ay' =
= f - a. (y' - ay) = I - a.P;
au voisinage de O, on a, vu (19),
P(x) - -y (O) x-1 ,_, -ax-1 •
Ecrivons Ies relations (3) et Ies fermetures correspondantes.
Posons M = 2N - 1 et acceptons pour (3), lorsque m = 1, ... , N,
I' ensemble des relations
YJ-CJYJ+t
k
YJ-1-2YJ+YJ+l
k2 -
py f
'J 1= J, m<.i<N,
YN=b,
et lorsque N < m<.M;,
YJ-CJYJ+l 'PJ 0
h =--;., <.i<M-m,
Y1='1>;, M-m<j<.N,
avec ,j)J la solution exacte du probleme discret. Posons z = mh.
La fermeture (4) s'ecrit alors
LzY = fz(x), ou, lorsque O< z < 1,
y'-a.(x)y pour O<x<z,
LzY = yy" - p (x) y pour z~x < 1:,
{
pour X= 1,
~ (x) pour O<x<z,
/z(x)= fb(x) pour z<.x<1.,
{
pour x= 1
et
y!-a,(x)y pour 0<x<2-z.
LzY= { ypour 2-z~x~11r
~(x) pour 0<x<2-z.,
fz (x) = { 'I' (x) pour 2-z<.x<.1,
lorsque 1<.z<2; ,t, (x) est la solution exacte du probleme differen-
tiel (on a Qmis LzY lx:::o = a).
Voyons comment se eomportent Ies fonctions a, (x) et ~ (x).
Soit p (x) >O; alors, eonformement a a/= p (x) - a.2,
a'-<0 pour a> D1 = V max p(x)
[O, X]
542 Mli:THODES DE RESOLUTION DES PROBL1™:ES AUX LIMITES [CH. IX

et
a.' > O pour a.< D2 = V min p (x).
[O, X]

Le champ de courbes integrales correspondant est represente


fig. 9.4.1. Aussi la solution a (x) qui verifie la condition a (x) ,_, x-1
lorsque x ~ O, decroît de faţon monotone, au moins tant qu' elle
ne tombe pas dans le domaine
D 2 < a < D 1 dans lequel elle
" reste. L'equation (14) est lineaire
en ~ {x). Comme le coefficient
\\\\\
JJ, r - - - - - - - - - - - -
a (x) est fini lorsque x =I=- O, la
solution de cette equation reste
bornee pour tous Ies x =I=- O. Par
consequent, on serait pleinement
bz ,___ _ _ _ _ _ _ _ _ __ autorise a parler d 'une ferme-
ture reguliere de l'algorithme
III/I de resolution du probleme
propose n 'etait-ce le caractere
non borne de a (x) et ~ {x) avec x
o ;&
tendant vers zero. Dans le cas
examina, Ies valeurs a 0 et ~o au
Fig. 9.4.1 point n = O sont des quantites
de l' ordre de h-1 • Elles tendent
a decroître avec la croissance de n par suite d 'une tendance
similaire des solutions d'equations differentielles. Nous savons
deja que dans nombre de cas une erreur de calcul en 2-th-P est
inevitable et admissible, et il se peut que ce caractere non regulier
de l'algorithme ne determine pas une influence prohibitive de
I' erreur de calcul.
Etudions maintenant le cas ou p (x) n'est pas partout ~ O.
Alors, il est possible que W1 {y) = O en un point interieur du seg-
ment et, par consequent, a (y) = oo. La fermeture de l' algorithme
est alors irreguliere, encore qu 'il ne faille pas renoncer definitive-
ment a la methode du balayage. Si W1 (nh) h-2 ~ 1 en tous Ies
namds du reseau, on a, selon (16)-(18),
max I an I= O (h-2). {20)
n

Une telle irregularite de l' algorithme n ~est pas necessairement, nous


le repetons, une catastrophe. La fonction W1 (x) est reguliere avec
la derivee non nulle en des points y tels que W1 {y) = O. C'est pour-
quoi la valeur min W1 (nh) est frequemment une quantite en h et
n>O
la relation (20) est juste. On doit donc s'attendre que, pour p (x) ~ O
aussi, Ies resultats de la methode du baJayage soient insensibles
a toute sorte de perturbations.
§ 5] P{{OBL:BMBS AUX LIMITES POUR DES SYST:8MES DU PREMIER ORDRE 543

II se trouve que la fermeture de l'algorithme de balayage est


reguliere si W1 (x) =I= Olorsque x c (O, X]. La condition W' (x0 ) =I= O
est equivalente a la condition de possibilite du probleme aux limites
y (O) = a, y (x 0 ) = b, y" - p (x) y = f (x) (21)
sur [O, x 0 ] quels que soient a, b et f (x). La condition de regularite
de la fermeture de l'algorithme de balayage s'enonce donc comme
suit:
La fermeture de la methode du balayage est reguliere si, quel que
soit le segment [O, x 0 ], O< x 0 ~X, le probleme aux limites (2) admet
une solution.
Demontrons cette assertion d 'une autre maniere. Revenons aux formules
de remontee de la methode du balayage. Les coefficients C1 et <pJ, j < n, depen-
dent seulement de a et des valeurs p J et fJ_ pour j < n, i.e. aux points jh c.
c: [O, nh). Par consequent, des qu'on trouve la valeur Yn, la marche des calculs
est la mâme que dans le cas du probleme aux limites pour l'e<Juation y" -
- p (z) y = f (x) sur [O, nh] avec y (O) = a et y (nh) = Yn donnes. Si ce pro-
bleme aux limites ne possede pas de solution J>our n 'importe quels seconds
membres / (z), il y a peu de chances que le prolileme discret correspondant se
prâte bien a une resolution numerique. Aussi, si, pour un certain x 0 c (O, X],
le probleme aux limites (21) est resoluble sous certaines conditions imposees
ă. ses seconds membres, on se doute que l'algorithme de calcul est sensible
ă. l'erreur d'aITondi, ce qui implique une etude plus meticuleuse.

Notons que la regularite de la fermeture ne garantit pas la petites-


se de l'erreur de calcul totale. En effet, celle-ci est fonction des
erreurs commises au cours du calcul et des faeteurs de proportion-
nalite qui Ies precedent dans l' expression de I' erreur totale. Or,
la regularite de la fermeture ne garantit que la petitesse des erreurs
d' arrondi engendrees. Afin que Ies facteurs de proportionnalite
ne soient pas eleves, la solution des equations de la fermeture doit
etre peu sensible aux perturbations des coefficients. Et meme cela
ne suffit en general pas.
L'exemple de l'equation y' = My, M < O, nous a montre que
la solution du probleme differentiel peut etre peu sensible a de telles
perturbations, tandis que celle du probleme discret l'est fortement.

§ 5. Position des problemes aux limites


pour des systemes lineaires
du premier ordre
Soit le probleme aux limites
y' - A (x) y = f (x), By (O) = b, Dy (X) = d, (1)
y, f, b, d etant des vecteurs de dimension l, l, l - r, r respective-
ment, et A, B, D des l X l, (l - r) X l, r X l-matrices. On suppose
dans la suite de l'expose que le rang de la matrice B est l - r et
celui de la matrice D est r.
544 MiTHODES DE R~SOLUTION DES PROBIJilMES AUX LIMITES (tH. IX

Avant de passer a la recherche des methodes de resolution accep-


tables, discutons le degre de stabilite des solutions des problemes
aux limites par rapport a diverses perturbations et prenons pour
modele le probleme aux limites
y' - Ay = O, A = const, By (O) = h, Dy (X) = d. (2)
Examinons le cas d 'une matrice A dont toutes Ies valeurs propres
sont distinctes; dans le cas general, Ies raisonnements ne varient
guere. Soient Â.J = a 1 +
i~; Ies valeurs propres de A ecrites dans
l'ordre de croissance de a 1 et e1 Ies vecteurs propres associes, li e1 1J =
= 1. La solution generale du systeme y' - Ay = Os'ecrit
l
y (x) = ~ c1e1 exp (Â.1x). (3)
1=1

Partageons Â.J en trois groupes en affectant Ies valeurs propres de


chacun d'eux d'un indice superieur correspondant. Les valeurs
propres Â.; telles que exp ( I a 1 I X) est tres grand seront notees
"'1 si a 1 > O et Â.'j si a 1 < O; Ies valeurs propres restantes, i. e.
pour lesquelles exp ( I a 1 IX) n'est pas tres eleve, se noteront 1,.,j.
Indi9ons superieurement de fa9on correspondante Ies vecteurs pro-
pres e1 et designons par ~ +, 21 °, 21- la sommation sur Ies indices j
associes a ces groupes. Soit z-, z0 , z+ le nombre de valeurs propres des
groupes. Avec l'ecriture (3) Ies extremites du segment d'integration
se trouvent dans des positions differentes : au point x = O, toutes
Ies fonctions exp (Â;x) sont de I' ordre 1, alors qu' au point x = X,
certaines d'entre elles sont tres petites et d'autres tres grandes. On
preferera donc a cette ecriture
y (x) = ~- c"je"j exp (Â"jx) + 21° cjej exp (Âjx) + ~+ cţeJ exp (1,.,ţ (x-X)).
Ecrivons le systeme d 'equations By (O)= b, Dy (X)= d, a l 'aide
duquel on doit determiner les constantes c1 correspondant a la
solution cherchee:
By (O)=~- cjBe"j + 21° cJBeJ+ ~+ cjBeţ exp (-ÂţX) = h,
Dy (X) = ~- cjBe'f exp (ÂIX) + ~o c'jBeJ exp (1',jX) + (4)
+ 21+ cjBeJ= d.
Le systeme (4) se recrit
Ge=g
avec
C = (c-1 , ••• , Cz+)T , g = (b1 , ••• , b1-r, d1, ••. , dr{.,
§ 5] PROBL:Bl\lES AUX LIMITES POUR DES SYST!.MES DU PREiUER ORDRE 545

.et G une matrice partitionnee


G= (G'î G~ Gţ) l-r
G; G~ G; r. '
z- z0 z+
ou
G;= [(Bei)q], 1-<.j-<.Z-, 1-<.q-<.l-r,
G~= [(BeJ)qJ, z-<j-<.l-+l , · 1-<.q-<,l-r,
0

G; = [(Bet)q exp (-ÂţXJ], z- +zo < j-<, l, 1-<, q-<. l- r,


G; = [(DeJ)q exp (Âj"X)J, 1 -<, j-<, z-, 1-<, q-<, r,
G~-= [(DeJ)q exp (Â1X)]J z-< i-<.l-+ zoJ 1-<.q-<,r,
G: = [(Dej}q], Z- + zo < j-<,l~ 1-<,q-<,r.
Supposons que ~ = det G =/= O et representons la solution du systeme
(4) par c = G-1g; selon les formules connues donnant les elements
de la matrice inverse:
G-1 = [(-1)~+; Gil]' (5)

Gii etant Ies mineurs de G. A vec les hypotheses admises, les quanti-
tes exp (-ÂjX), exp (Âj-X) sont negligeables ; aussi il en est de meme
des elements des matrices Gt et G; et le determinant

~ = det G- 0
Gi G+)s
(G;s G: G;
est voisin du determinant

Gi Gto) .
0
G- G
~o= det ( ol
Distinguons deux cas :
a) le determinant d 0 n'est pas petit,
b) le determinant d 0 est petit, et en particulier nul.
Puisque parmi les elements de la matrice G il n'y en a pas qui
sont grands, par suite de la formule (5) les elements de la matrice
G-1 ne sont generalement pas tres importanta dans le cas a).
Supposons que les seconds membres b et d des conditions aux
limites contiennent certaines erreurs 6b et 6d et soit 6g = (6b, 6d)~.
Le vecteur c est alors faux de G-1 6g. Si Ies elements de la matrice
G-1 ne sont pas tres importants, l 'influence de 6g sur Ies ~oefficients
c1 s'avere moderee. La solution du probleme est combinaison lineaire
des termes
er exp (Âj"x)J eJ exp (Â1x) l eţ exp (Âj (x- X)
35-01007
546 M~THODES DE ResoLUTION DES PROBLEMES AUX LIMITES [CH. IX

avec Ies coefficients c;. C'est pourquoi l'erreur sur la solution


approchee engendree par 6h et 6d est elle aussi admissible.
Une fois de plus nos raisonnements ne sont pas suffisamment rigoureux:
nous disons « petit >>, « tres petit>>, « pas tres grand >>, « tres grand >>. En analy-
sant son probleme, l'utilisateur doit decider lui-mâme de l'ordre de grandeur
admissible des quantites considerees. 11 se peut en particulier que dans le cas
d'un systeme d'ordre « grand », de coefficients « pas tres eleves >> et un deter-
minant ~o « pas tres petit», Ies mineurs formes de sommes des produits d'ele-
ments en nombre notable soient « inadmissiblement grands >>.
Lorsque  0 est tres petit ou egal a zero, par suite de
det G det G-1 = 1,
certains elements de la matrice G-1
sont grands. Des perturbations
faibles des seconds membres des conditions aux limites sont alors
susceptibles de perturber notablement Ies coefficients c; et donc la
solution du probleme.
Connaissant Ies matrices G-1 et les valeurs propres de la matrice A,
Ies relations ci-dessus fournissent une information assez fidele sur
la perturbation de la solution du probleme differentiel. Cette infor-
mation ne s'obtient cependant qu'au bout de longs calculs qui se
prolongent encore si on effectue Ies memes constructions dans le cas
d'une matrice A (x) variable. Nous allons donc essayer d'obtenir
des criteres de stabilite de la solution par rapport aux perturbations
6b et 6d qui necessitent une information moindre quitte a etre moins
surs. Cela peut etre par exemple les relations entre z-, l 0 , z+, l - r
et r. Les elements non nuis des l - r premieres lignes de Ia matrice
G0 peuvent se trouver dans Ies z- + zo premieres colonnes correspon-
dant aux matrices G1, G~. Si z+ > r, alors z- + zo < l - r et tous
Ies mineurs d 'ordre (l - r) X (l - r) des l - r premieres lignes
deviennent nuls. Le developpement du determinant A0 suivant Ies
l - r premieres lignes donne A0 = O. De meme, si z- > l - r,
alors tous Ies mineurs d 'ordre r x r des r dernieres lignes s'annulent
et donc A0 = O. Lorsque z+ ~ r et z- -< l - r, Ie determinant A~
est combinaison lineaire de produits d'elements des matrices B et D
et de coordonnees des vecteurs propres e;, avec pour coefficients de
ces produits Ies produits des nombres exp (Â1X) ayant un module
ni tres grand ni tres petit. On peut admettre que ce determinant
n'est petit qu'assez rarement. La solution du probleme (2) est alors
peu sensibie aux perturbations Bh et 6d subies par les seconds mem-
bres des conditions aux limites.
Forts de conclusions obtenues nous enon~ons la proposition
suivante. Si 1+ > r ou z- > l - r, alors la solution du probleme
differentiel est tres sensible aux perturbations des seconds membres des
conditions aux limites; si 1+ ~ r et z- ~ l - r, alors, d'une faf;on
generale, la solution du probleme (2) est peu sensible aux variations
des seconds membres des conditions aux limites.
§ 5) PROBL'SMES AUX LIMITE$ POUR DES SYSTBMES DU PREMIER ORDRE 547

Voici un autre enonce de la premiere partie de cette proposition:


pour que le probleme soit peu sensible aux perturbations des conditions
aux limites, il faut que le nombre des solutions particulieres indepen-
dantes e1 exp (Â;x) qui croissent fortement sur [O, X] avec x soit au
plus egal a celui des conditions aux limites a l' extremite droite et le
nombre des e1 exp (Â;x) decroissant fortement sur [O, X] avec la crois-
sance de x au plus egal a celui des conditions aux limites a l'extremite
gauche.
Moyennant certaines precisions cette formulation s'etend au
cas du probleme (1) avec une matrice A (x) variable. Une reformula-
tion rigoureuse de cette proposition est une operation assez encombran-
te. Pourtant, si A (x) varie de faţon relativement reguliere sur [O, X],
on se borne souvent, aux etapes initiales de l 'etude de la stabilite du
probleme par rapport aux perturbations des conditions aux limites,
a calculer le nombre de valeurs propres de A (x) avec X Re ÂJ (x)
positif et negatif important.
Un probleme aux limites est par definition bien conditionne
(bie,:i pose) si de faibles perturbations des coefficients et seconds
membres des equations et des conditions aux limites entraînent une
variation du meme ordre de la solution du probleme. Et voici une
definition plus rigoureuse. On considere, en plus du probleme aux
limites (1), Ies problemes
+ +
y' - (A (x) 6A (x)) y = f (x) 6f (x),
(B + y
6B) (O) = b + 6b, (D + 6D) y (X) = d + 6d
avec une mesure de la perturbation pas tres grande
e = max
o~x~x
+ +
(116A (x) 11 11 6f (x) 11) 11 cSB li+ 116D li+ li cSb li+ li M 11-
Si toutes Ies solutions de tels problemes aux limites verifient Ies
inegalites
max lly(x)-y(x) 11-<Me (6)
O~x~X
avec 111 constant pas tres eleve, on dit ·du probleme initial qu 'il est
bien conditionne; dans le cas contraire, ce probleme est mal condi-
tionne. La valeur minimale M (e 0) pour laquelle l 'inegalite (6) est
juste quel que soit e ::s;; e 0 (e 0 > O fixe) est parfois appelee le nombre
de conditionnement du probleme donne (relativement a des pertur-
bations de norme e 0 au plus). Le conditionnement d 'un probleme
caracterise la stabilite de la solution par rapport aux perturbations
des valeurs initiales, par exemple a une donnee imprecise· des para-
metres figurant dans Ies coefficients de l 'equation. Comme Ies erreurs
d'arrondi sont equivalentes aux perturbations des coefficients de
l 'equation de depart, le nombre de conditionnement caracterise
aussi la stabilite de la solution numerique vis-a-vis a toutes sortes
d'arrondis. Si on connaît une estimation e approximative de la
perturbation des coefficients du probleme et si une erreur en M(e) e
35*
.548 M~THODES DE RiSOLUTION DES PROBLEMES AUX LIMITES [CH. IX

est permise, il vaut la peine de proceder a une resolution numerique


directe.
Considerons en guise d 'exemple le probleme de Cauchy pour le
systeme y; = y 2 , y; = y 1 lorsque y 1 (O) = 1, y 2 (O) = 1 sur le
segment [O, 30). Les valeurs propres de la matrice A = (~ ~)
valent ±1. exp (-30) est tres petite et exp (30) tres grande, z- = 1,
zo = O, z+ = 1, l - r = 2, r = O et, par consequent, z- = 1 >
> r = O. Les perturbations insignifiantes de la condition aux limi-
tes conduisent a des variations fort importantes de la solution. Dans
le cas considere Ies constructions du present paragraphe ne rendent
qu 'un pietre service car on comprend de toute faQon qu 'une crois-
sance brusque des solutions de l'equation lineaire initiale entraîne
une croissance rapide de l'erreur sur la solution.
Examinons, pour ce meme systeme, un probleme avec Ies condi-
tions aux limites b1y1 (O) + b2 y 2 (O) = b, d1y1 (30) + d2 y 2 (30) =
= d; Ies vecteurs propres associes aux valeurs propres Îw; = -1 et
Â; = 1 sont respectivement (1, -1)T et (1, f)T, z+ = r, z- = l - r.
En principe, le probleme devrait etre stable par rapport aux pertur-
bations M et M. La solution est recherchee sous la forme

c-; (_!) exp(-x)+c; (!) exp(x-30).


Les equations (4) s'~crivent
(b 1 - b2 ) c; + (b1 +b2) c; exp (-30) = b, (7)
(di - d2 ) c; exp (-30) + (di + d ct2) = d.
11 en resuite

avec
!),. = (b1 - b2) {d1+ d2) - (d1 - d 2) (b1+ b 2 ) exp (-60)
+
voisin de /),. 0 = {b 1 - b2 ) (d1 d 2 ). Pour des coefficients bi et di
faibles et /),. 0 grand, Ies coefficients c;- et c; changent peu pour de
petites variations M et 6d. Lorsque /),. = O, le systeme (7) admet
une ·solution non nulle c;, c; pour b = d = O et on dit que le pro-
bleme<< se trouve sur le spectre >>. Cela signifie que le probleme homo-
gene possede une solution non nulle et qu 'il est inutile de parler
de la stabilite de la solution par rapport aux perturbations des con-
ditions aux limites. Si /),. 0 = O, le probleme est mal conditionne.
Aux paragraphes 6-8 le probleme aux limites propose est sup-
pose bien conditionne.
PROBLtME. Demontrer qu'un probleme aux limites bien conditionne
possede une solution unique.
§ 6] ALGORITHMES DR :agsoLUTION DES PROBLmlES AUX LIMJTES 549

§ 6. Algorithmes de resolution des problemes aux limites


pour des systemes d'equations du premier ordre
La methode du tir est la technique la plus simple de resolution du
probleme aux limites (5.1). Soit le systeme
By (O)·= b. 1

• (1)
Puisque le rang de la matrice B est par hypothese egal al - r, la
solution generale de (1) s'ecrit
'I'

Yo+ ~ CiYh
. i=1
ou y 0 est une solution arbitraire du systeme non homogene By = h
et y 1 , • ·• • , y r un systeme de r solutions lineairement ind'ependantes
de By ~ O. Soit y 1 , • • • , Yn y 0 un certain jeu de .tels vecteurs.
Trouvons par integration numerique une solution particuliere du
systeme non homogene
y~ = A (x) y O +
f (x) (2)
pour la condition initiale y 0 (O) = y 0 et Ies solutions du systeme
homogene
YJ = A (x) Y1, j = 1, .•. , r (3)
avec Ies conditions initiales y 1 (O) = y 1. Supposons que y (x)
satisfait a (2) et a la condition a l'extremite gauehe (1). Mettons
le vecteur y (O) sous la forme
r
y(O)=Yo+ ~ CJYi;
1=1
la fonction vectorielle
r
z (x) = Yo (x) + 5=1
~ CfYJ (x)
verifie l'equation (2) et coincide avec y (x) lorsque x = O. Par con-
sequent,
r
y {x) = Yo (x) + ~ CJYJ (x).
J=1
(4)

Toute fonction du type (4) satisfait aux relations (1) et (2). La variete
de toutes Ies solutions de (2) verifiant la condition (1) est done donnee
par l'egalite (4). La solution cherchee s'obtient en degageant de
cette variete la solution qui satisfaii â la eondition a l 'extremite
droite. Determinons Ies coefficients·c1 a l'aide du systeme de r equa-
tions a r inconnues ·
r
D(y 0 (X)+ ~ c;y1(X))=d. (5)
1=1
550 MtTHODES DE RisoLUTION DES PROBL:8MES AUX LIMITES [CH. IX

En supposant que le probleme (5.1) admetţe une solution unique,


le determinant de ce systeme est different de zero; en effet, dans le
cas contraire, on aurait trouve que le probleme aux limites homogene
(f == O, b = O, d = O) admet une solution non nulle
r
y (x) = ~ Cf)"i (x).
J=1
Si c1 , • • • , Cr est solution du systeme (5), la fonction vectorielle
r
Y (x) = Yo (x) +J=l
~ CJYi (x)

verifie l'equation et toutes les conditions aux limites et est done


solution du probleme propose.
S'il est neeessaire d'economiser la memoire de la machine, on
trouve
r
y(O)=y0 (0)+ ~ C1Y1(0)
J=i
ou
r
y (X)= Yo (X)+ ~ CJYi (X),
J=1

puis on resout numeriquement, en avant ou en arriere, le probleme


de Cauchy.
Si certaines solutions du systeme homogime y' = A (x)y crois-
sent brusquement avec x, l'erreur de calcul sur y 0 (x), ... , Yr (x)
est susceptible d 'une augmentation aussi rapide, et la methode du
tir est en defaut. 11 existe une autre explication de la deficience du
procede en question. Appliquons la methode du tir pour A = const
et designons par ei et "Ai les vecteurs propres et Ies valeurs propres
associees de la matrice A avec

supposons que
l
Y1= ~ a,hek;
k=1
alors
l
y J (X) = ~ a1kek exp ("Ah X). (6)
k=i

Si ail =:/= O et exp (Re ÂLX) ~ exp (Re Âi-1 X), on a


YJ (X)_, aJlel exp (ÂzX).
§ 6] ALGORITHMES DE RtSOLUTION DES PROBLEl\IES AUX LIM:ITES 551

Ainsi, toutes Ies lignes du determinant du systeme (5) sont approxi-


mativement proportionnelles au vecteur ez et la solution c1 , • • • , Cr
de ce systeme sera affectee d 'une erreur de calcul notable. Bien qu 'ils
soient par endroits peu rigoureux, ces raisonnements expliquent de
fac;on vraisemblable l'eventualite d 'une grande erreur de calcul
dans la methocle du tir.
Proposons-nous pour le moment de resoudre un probleme par-
ticulier : le calcul de y (X) ; on peut l 'interpreter comme un probleme
d'extraction consistant a trouver parmi Ies vecteurs de la variete
r
Yo {X)+ ~ CJYi (X) (7)
;=1

eelui qui verifie la condition a l'extremite: droite Dy (X) = d 0 •


En le resolvant directement, on risque de commettre, nous l'avons
vu, une erreur importante. Les vecteurs y 1 {X) seront proches de
vecteurs proportionnels ou, comme on le dit quelquefois, la base des
vecteurs y1 (x) << s'aplatira >> lorsqu'on se rapprochera du point X.
Cependant, il n'est nullement besoin de se donner la variete (7)
a chaque instant au moyen du vecteur y 0 (x) et de la base {y1 (x) }.
A mesure que la base <<s'aplatit >>, il y a lieu de se donner de temps en
temps la variete (7) d 'une autre fac;on. C' est la l'idee de la premiere
methode du baiayage orthogonal.
Partageons le segment [O, X] par Ies points O = X 0 < X1 < ...
. . . < Xm = X. Definissons comme suit l'operation M 8 sur la
l X (r + 1)-matrice G = (g1 , • • • , gr, g 0 ) en tant qu'une opera-
tion effectuee sur ses vecteurs colonnes gi.
Soient gj (x), j = 1, ... , r, la soiution du systeme y' = A (x) y
avec la condition initiale y (X 8 ) = gi et gg {x) celle du systeme
y' = A (x) y + f {x) avec la condition initiale y (X 8 ) = g 0 • On
a alors M 8 gJ = gJ (X s+i).
Definissons l' operation d' orthogonalisation U des colonnes de
la matrice G. Notons respectivement q1 , • . . , qn q 0 Ies coionnes
de Q = U (G). Les vecteurs q 1 , . • . , qr, q 0 s'obtiennent des
g 1 , • • • , gr, g 0 par orthogonalisation successive et par normalisa-
tion, le vecteur q 0 n'etant pas norme. Ainsi, on obtient successive-
ment (comme au § 15, chap. II) Ies vecteurs
i-1
Zj=g,- ~ (g;, qi)q;, (8)
i=i
ZJ
q,=-'="=..,..., .
J= f , ••. , r,
V (Zj, Zj)
,.
Qo= go- ~ (go, q;) qi• (9)
1=1
552 l\l~THODES DE R~SOLUTION DES PROBLgEs AUX LIMITE$ [CH. IX:

Exprimons Ies z1 des relations (8), (9) moyennant q, et portons tous


Ies qi dans Ies premiers membres : il vient
j-1
V (zi, z1) q1+ ~ (g;, q;) q, = g1, j = 1, ... , r,
i=1

~ (go, q;) q,
i=l
+ qo ~ go.
Ce systeme s'ecrit sous forme matricielle QQ = G, ou
rou 0021 OOrt OOr+t, 1
o 0022 ror2 ©r+1, 2
Q=
o o rorr
o o o 1
= V (z,, ZJ), ©Ji = (g;, qi) lorsque i <
(t)Jj r<
r, Olr+f, i = (go, q,); au-
trement dit, Q= U (G)= G-Q- 1 • Choisissons Ies vecteurs y1, •.. , Yr, Yo
comme dans la methode du tir et orthogonalisons la matrice
Yo = (Y1, •.. , Yr, Yo)- Soit
Go (Xo) = U (Yo) = (tt (Xo), ••. , gi (Xo), gg (Xo) ).
L'operation M 0 sur G0 {X0) donne G0 (X 1)=M0 {G0 {X0}); il vient
ensuite la matrice
G1 (X1) = U (G 0 (X1 )) = G0 (X 1) Q;1 et ainsi de suite. (10)
Designons par G, (x) Ies matrices (g: (x}, ... , g: (x), g: (x)). Les
calculs conduisent finalement aux matrices
G0 (Xo), Go (X1) = Mo (Go (Xo)),
Gs (Xs) = U (Go (X1)) = G0 (X1) Q;1 ,
Gs (X2) = Ms (G1 (Xs)), ..• ,
Gm-1 (Xm-1) = U (Gm-2 (Xm-1)) = Gm-2 (Xm-1) g;;:_1'
Gm-t (Xm}= Mm-1 (Gm-t (Xm-1)),
Gm(Xm) = U (Gm-t (Xm))= Gm-1 (Xm) Q;.1 • (11)
LEMME. La variete balayee par les extremites des vecteurs
r
Y= gg (Xs} + ~ 1 Cjgj (Xs) = G (X 8 8) C (12)

avec c1 , ••• , cr quelconques engendre la variete Ls de toutes les


valeurs y (Xs) des solutions du sysfeme y' = A (x) y î (x) satisfaisant +
d la condition a l'extremite gauche By (O)= h; ici
C= (c 1, ••• , Cr, 1f.
§ 6] ALGORITHl\IES DE R.esoLUTION DES PROBLrutiES AUX LIMITES 553'.

D~MONS'l'RATION. Le lemme est evident pour s = O. Supposons


qu 'ii en est de mâme pour un certain s. Avec l'operation Ms nous
passons de Ia variete L 8 ă la variete Ls+1 des valeurs de telles-
solu tions au point Xs+1:
y = Gs (Xs+s) c.
Comme
Gs (Xs+1) = Gs+s (Xs+1) Qs+t,
Ies elements de cette variete s'ecrivent
Y= Gs+t (Xs+t) Qs+1C•
Posons Qs+1C = c; du moment que oo;ţL r+t = 1, la derniere compo-
c
sante du vecteur vaut 1 et en changeant de notation = c, nous:c
obtenons. une ecriture des elements de Ls+1 analogue a (12), a sa:voir-
Y= Gs+1 (Xs+s) c. C.Q.F.D.
Le vecteur g! (x8 ) est orthogonal par construct.ion a tous~ Ies:
vecteurs gj(x8 ), j = 1, ... , r, constituant une base de la variete L 8 •
Sa norme est donc inferieure a celle de tout vecteur element de L 8 •.
Supposons que sur chacun des segments [Xs, Xs+1] la solution:
cherchee du .probleme s 'ecrit
r
y(x)=~(x)+ ~ ~;gHx),
j=l
ou encore
y (x) = Gs (x) f}", (13)
OU 1} = (~:, ... , ~;, 1).
8

Faisant dans (13) s=_q, X= Xq+i, nous trouvons


y (Xq+1} = Gq (Xq+s) pq,
et faisant s = q+ 1, x= Xq+1
y (Xq+ 1) = Gq+t (Xq+1) pq+t.
D'autre part,
(Gq+t (Xq+1)t1 Gq (Xq+1) = Qq+1•
Les trois dernieres egalites entraînent
pq+1 = Qq+1Pq. (14):
La valeur s'obtient a partir de la condition aux limites
pm
Dy (X)= D (Gm (Xm) f}m) = d.
Ensuite, a l'aide de l'egalite (14), q ~ m - 1, ... , O, nous defi-
nissons de proche en proche ~m-1 , • • • , ~ 0 •
En restant sur le plan formei nous devrions maintenant recourir-
a la formule (13) pour determiner y (~) sur [X 8 , X 8 +1 1. Cette faţon
:554 M8THODES DE R~SOLUTION DES PROBL~MES AUX LIMITE$ (CH. IX

-d'agir conduirait cependant a une occupation memoire considerable


vu qu'il faut mettre en reserve Ies valeurs de Gs (x) en de nombreux
points. Pour eviter cet inconvenient, il vaut donc mieux calculer
.Y (X s), puis resoudre Ies problemes de Cauchy sur chaque [X 8 , X s+iL
Au lieu d 'une etude complete de l'influence de l'erreur de calcul
-dans cet algorithme nous nous contenterons de certaines considera-
tions permettant d'affirmer qu'il ne devrait pas etre tres sensible
aux arrondis si Ies segments partiels [X s, X s+ 1 1 ne sont pas tres
·grands.
Puisque la norme de g! (Xs) est inferieure a celle de tout element
-de la variete Ls, on a, en particulier,
li gg (Xs) 11~11 Y (Xs) li~Y = max li Y (x) li,
O~x~X
ou y (x) est la solution cherchee. Soit maintenant Xk+l ---+ Xk, X1i
fixe. La matrice
Gk (Xh+1) = (gf (Xk+1), • • •, g~ (Xk+1), g: (X1i+1))
tend alors vers
Gh (Xk) = (gf (Xk), ... ' g~ (Xk), g~ (Xk)).
Pour cette derniere matrice, la transformation U (Gk (Xh)) qui la
-change en une matrice dont Ies r premieres colonnes sont orthonor-
mees et la derniere orthogonale aux premieres est identique puisque
-Gk (Xk) est deja de cette forme. Aussi Qk+l = E si Xk+1 = xk.
Naturellement Qh+i tend vers E lorsque Xk+i -+ Xh. Les vecteurs
des r premieres colonnes de la matrice G1i (X k) sont munis de la
norme unite et
li g!(Xk) ll~Y.
·Ces vecteurs etant uniformement bornes, Gk+ 1 (Xk) tend vers Gk (Xk)
(et clonc Qk+ 1 vers E) uniformement sur l'ensemble de tous Ies points
X1, ... , Xm pour 6 = max I Xk+1 - xk I tendant vers zero,
k
autrement dit, li Qk+l - EII < ro (6), ou ro (6) tend vers O avec B.
C'est pourquoi, lorsque 6 n 'est pas tres eleve, Ies normes li Qk li des
matrices ainsi que Ies normes li g7
(x) li des fonctions sur Ies seg-
ments [X 10 X k+il sont uniformement bornees par une constante pas
tres grande.
Les affirmations ci-dessus n'autorisent aucune conclusion sur la
qualite de l 'algorithme considere. Nous avons cependant la chance
de n 'avoir affaire qu'a des quantites uniformement bornees, et ce
par des nombres pas tres eleves. Dans le cas contraire, l' arrondi equi-
vauclrait probablement a des perturbations considerables des coef-
-ficients du systeme, ce qui nous ferait douter de la legitimite de
l'algorithme en question.
ş 7) MiTHODES DU BAL.o(\ YAGE ORTHOGONAL DIFF~RENTIEL 555

§ 7. Methodes du balayage orthogonal


differentiel
Pour cS-+- O construisons la fermeture de l'algorithme decrit au paragraphe
precedent. Puisque Ies operateurs M 8 et Ies operateurs d'orthogonalisation agis-
.sent sur gj (X 8 ) de faţon differente selon que j :fa O ou j = O, on partitionne
Ies matrices considerees en mettant en evidence Ies blocs correspondant aux
solutions ~ de l'equation avec second membre. Posons
Gs (Xk) = (Ys (Xk), Ys (Xk)),
,ou
et

-ou
1i 1i
Ctlr+ 1, 1 Ctlr+ 1 , r ) T
6k = X 1i+1- X h, r1i =( cS1i , ••• , cSk ,
.et la matrice Rk est triangulaire droite. L'introduction de nouvelles fonctions
et matrices se fait de la mâme maniere que Ies transformations analogues lors
de la construction de la fermeture de l'algorithme de balayage du § 4. Notons
Js = (~f, • • •, ~ţ)T, Zs = Y, (Xs), Zs = Ys (X,).
Supposons qu'il existe des fonctions vectorielles et matricielles regulieres
Z (x), z (x), R (.x), r (x), P(x)
telles que
Z 8 ~ Z (x), z 8 ~ z (x), R 8 ~ R (x), r 8 ~ r (x), Ps =} p(x);
g 8 =}· g (x) veut dire que

~~x ( li g 8 -g(X8 ) 11+ li gs+~:-gs g' (X8 ) 11)-o pour cS-+-0.

Une multiplication par blocs permet d'ecrire


Gs (X s+1) = Gs+l (X s+1) Qs+1,
ou, ce qui revient au meme,
(Ys(Xs+u, Ys(Xs+1))=(Ys+dXs+1),Ys+1'Xs+1)) (E+.S~Rs+i cSsrr1 ) ,
<:omme l 'ensemble d'egalites
= Y 8 +1 (X 8+1) (E + 68 Rs+1),
Y 8 (X 8+1) (1)

Ys (Xs+1) = Ys+1 (X,+i) cSsrs+1 + Ys+1 (Xs+1) 0 (2)

Puisque Ies colonnes des matrices Y 8 (x) et, par consequent, ces matrice5
mâmes verifient le systeme y' = A (x) y, on a
Ys (Xs+1) = Y 8 (X 8 ) + 6sA 8 Y 8 (X 8 ) + O (6!)-
De meme,

I
556 METHODES DE RESOLUTION DES PROBL:tMES AUX LIMITE$ [CH. IX..

avec As= A(X 8), Îs= f(X 8 ). La definition de la matrice Z 8 et du vecteur-


z8 aidant, nous mettons Ies egalites (1) et (2) sous la forme
Zs + BsAsZs = Zs+1 (E +
6sRs+1) +
O (cSiL
Zs +cSs (Aszs+ fs) =Zs+tcSsrs+t+ Zs+f +o (6~,
ou

Zs+1-Zs
e,8 •
Î
Aszs+ s-Zs+trs+t +O (6s).
Le passage a la limite lorsque cS-+ O donne Ies equations differentielles
Z'=AZ-ZR, (3)
z' = A.z f - Zr.+ (4)
La conditio~ que Ies colonnes de Zm = Y m (Xm) sont orthonormees s'ecrit.
zJzm = E et devient a la limite zT (.x) Z (x) = E. 11 en resuite
(ZT)' z+zTZ'=E'=O;
en transposant (3), on obtient l'expression de (ZT)'; il vient finalement
(ZTAT-RTzT) z+zT (AZ-ZR)=O,
ou encore
(5)
Le vecteur z 8 +1 = Ys+1 (x 8 +1 ) est par construction orthogonal aux vecteurs-
colonnes ij+t (xa-1-1) de la matrice Z8+1 • Cette condition s'ecrit Z;+1zs+1 = ~
et devient a la limite zTz = O. Derivons-la ; ii vient
(ZT)' z+zTz'=O,
ou
(ZTAT-RTZT) z+zT (Az+f-Zr)=O.
Compte tenu de zTz = O, zTz = E, la derniere relation prend la forme
zT (A+AT) z+zTf-r=O,
ou
r=ZT (A+AT) z+zTi.
Portons cette expression de r dans le deuxieme membre de (4) :
+
z' =ÂZ +f _zzT (Az+ f ATz) =(E-ZZT) (Az+ i)-ZZTATz. (6)
II nous reste a obtenir la relation limite pour (6.14); decomposee en blocs, cette:
egalite s'ecrit
(
+
E cSsRs+i Bsr
O ·1
s+i} (
f's) = ( f's+f)
f 1 '
ce qui equivaut a

ou a

\
§ 7] M~THODES DU BALAYAGE ORTHOGONAL DIFF:eRENTIEL 557

.En passant a la limite lorsque 6


O on trouve ~

I\' = Rf} r. + (7)


Regroupons toutes Ies relations obtenues:
Z' = AZ-ZR,
z' = (E - zzT) (Az + f) - zzTATz, (8)
-ou la matrice triangulaire superieure R est determinee de fa~on univoque par
R + RT = zT (A + AT) Z; (9)
f}' = Rf} + r, r = zT (A + AT) z + zTf. (10)
·Par suite de (6.12) la solution du probleme s'ecrit
y (x) = Z (x) f} (x) + z (x). (U)
Ainsi, l'algorithme de halayage orthogonal (§ 6) est ferme par l'algorithme
:suivant de resolution du probleme initial. Dans Ies conditions initiales Z (O) =
= Y O (O), z (O) = g8 (O) determinons Ies fonr.tions Z (x), z (x) et R (x) a l'aide
-des relations (8), (9). Determinons ensuite f} (X) a partir de la condition
D (Z (X) f} (X) + z (X)) = d, (12)
:integrons l'equation (10) dans le sens des x decroissants et calculons Ies valeurs
.de y {x) par la formule (11). II est naturel de parler une fois de plus du balayage
-0rthogonal. Comme li z8 li ~ Y pour tous Ies s, la fonction limite z (x) satisfait
.a li z (x) li ~ Y. Les colonnes de la matrice Z etant orthonormees, (9) entraîne
l'estimation li R li ~ 1(2i li A li; tous Ies coefficients des equations obtenues
:sont donc bornes par des quantites pas tres importantes. Par consequent, la
fermeture formelle de l'algorithme de halayage orthogonal est reguliere.
Le balaya~e differentiel correspondant aux relations (8)-(10) n'est pas
le seul procede possible. Soit L un sous-espace vectorial r-dimensionnel de
solutions du systeme homogene y' = A (x) y. Designous par L (x) la trace
.des elements de ce sous-espace.
· LEi\lME. S oient z 1 (x0 ), • • • , Zr (x0) des vecteurs colonnes formant une base
du sous-espace L (x0) ; Q (x) une r X r-matrice quelconque; Z (x) une l X r-matrice,
,solution du systeme Z' = AZ - ZQ avec la condition initiale Z (x0 ) = (z1 (x0 ), •••
· ••• , Zr (x0)). Alors les colonnes z1 (x), ••. , Zr (x) de la matrice Z (x) appartien-
nent au sous-espace L (x),
D~MONSTRATION. Si z est solution du systeme homogene z' = Az et v solu-
tion du systeme adjoint
v' = -ATv, (13)
·.alors
{v, z)' = (v', z) + (v, z') =
= (-ATv, z) + (v, Az) =- (v, Az) + {v, Az) = O. (14)
Choisissous une base v 1 (x0), • • • , v l-r (x0 ) dans le supplementaire orthogonal
LT(x 0 ) du sous-espace L (x0) et notons Vt (x) Ies solutions du systeme adjoint
(13) avec Ies conditions initiales v1 (x0) et V (x) la matrice (v1 (x), ... , vz-r (x)).
Si le vecteur vi (x 0 ) est orthogonal â tous Ies vecteurs du sous-espace L (x0 ),
l' egalite (14) entraîne l 'orthogonalite de vi (x) a tous Ies vecteurs du sous-espace
L (x). 11 en decoule que les colonnes de la matrice V (x) forment une base de
LT (x). 11 resuite de (13) que V'= -ATV et donc (VT)' = - VTA. Portant
dans (VTZ)' = yTz, +
(VT)' Z Ies valeurs.Z' = AZ - ZQ et (VT)' .= -VTA

I
558 M~THODES DE RESOLUTION DES PROBL:l::MES AUX LIMITE$ [CH. IX.

îl vient
(15}
U = yTz est une (l - r) x, r-matrice; evidemment uii =, (vi, Zj)• Du moment
que Zj (x0) appart1ennent a L (x 0) et vi (x0) au supplementaire orthogonal
LT (x0 ), u 1; (x 0 ) = O quels que soient t, j. Selon (15), Ies vecteurs lignes ui (x}
de la matrice u verifient le systeme homogene d'equations lineaires Ui =
= uiQ. Dans la condition initiale Ut (x0 ) = O ce systeme admet une solution
unique Ut (x) = O. Cela signifie que (vi (x), ZJ (x)) = O pour tous Ies i, j;
Ies vecteurs z; (x) sont orthogonaux aux vecteurs vi (x) qui forment une base-
de LT (x), et appartiennent par consequent a L (x). Le lemme est demontre.
La donnee d'une matrice Q (x) arbitraire et la resolution du systeme (12)
donnent la matrice Z (x) dont Ies colonnes, pour tout x, appartiennent au sous-es-
pace L (x).
En discutant la methode du tir nous avons vu que lorsque Q (x) = O et
pour certains A (x), nous n'avons pas agi nu mieux en nous donnant le sous-
espace L (x) par Ies colonnes de la matrice Z (x). Aussi on pretera une attention
particuliere a la fa~on dont on doit choisir la matrice Q (x). En construisant
la fermeture de l' algorithme de balayage orthogonal nous avons obtenu
l'un des procedes possibles de choix de Q (x). Voici-en un autre.
Trouvons une matrice Q (x) telle que Ies colonnes de Z (x) varient le plus-
lentement possible. Une variation reguliere de Z (x) permet en general d'inte-
grer (12) avec un pas plus grand. A cette fin minimisons Ies normes li zi li =
= V (zi• zb cn choisissant convenablement Ies elements qii (x) de la matrice-
Q (x). La colonne zi verifie le systeme
r
Zi=ÂZt- ~ qiJZj,
i=1
r
Les vecteurs .~ qiiz i forment un sous-espace vectorial. Pour que li Zi li soit,
J=i
minimale, il faut et il suffit que le vecteur zi soit orthogonal a ce sous-espace„
i.e. (Zi, ZJ) = O pour n'importe quel j. L'ensemble des conditions (Zi, z;} = O~
quels que soient i, j, se met sous la forme matricielle
Z~'=O. ~~.
En y portant la valeur Z' il vLmt
zTAz - zTzQ = o.
Si la matrice zTz est inversible, alors Q = (zTz)-1 zTAZ; c'est pourquoi
Z' = (E - z (zTz)- 1ZT) AZ. (17)
Multiplions (17) par zT:
= zTAZ - (zTz)
zTz, (zTz)- 1 zTAZ = 0;
la transposition de zTz, = O donne
(ZT)'z = O,
d'ou
(zTzy = o.
i.e.
zT (x) Z (x) = zT (0) Z (0). (18)
Ainsi, si Z (x) est solution de (17), la matrice zT (x) Z (x) reste inversible pour
tout x a condition de l'etre lorsque x = O. Les relations ecrites impliquent.

\
§ 7] M~THODES DU .B.ALAYAGE ORTHOGONAL DIFF~RENTIEL 559'

l'existence d'une solution de (17) qui verifie la condition (18) si zT (O) Z (O)
est inversible. Prenons pour colonnes de la matrice Z(O) r solutions lineaire-
ment independantes du systeme Bz = O et trouvons la solution de (17) dans
cette condition initiale. zT (O) Z (O} est la matrice de Gram .pour ces r vecteurs
Iineairement independants, elle est donc inversible. La donnee d'un sous-espace
W de solutions du systeme non homogene qui verifient la condition a l'extremite
gauche exige qu'on se donne egalement un certain vectcur de ce sous-espace.
Si Bu (O) = b, la solution du systeme u' = Au +f avec la condition ini-
tiale u (O) appartient a w. · Tout vecteur Z (x}q (x}, avec q (x) un vecteur
colonne r-dimensionnel, est parallele a W, c'est pourquoi la solution de
u' = Au +
f - Zq {19)
pour q (x) quelconque lui appartient el1e aussi. Sous l'hypothese d'un li u' li
minimal sur l' ensemble de tous Ies q possibles, nous obtenons un systeme dont
l'ecriture matricielle estj zTu' = O ou encore

11 en r~sulte
+
zT (Au f - Zq) = O.
4 = czTz)- zT (Au+ t),
1

et le systeme (19) s'ecrit finalement


u' = (E - z (zTz)- 1zT) (Au+ f). (20}
La solution cherchee appartient ă. la variete u +Zc. La valeur c (x) se deter-
mine ă. partir de la condition a l'extremite droite Du (X) = d. La substitution
de y = u +Zc dans y' = A y +
f donne
(E - P) (Au+ f) + Zc' +
(E - P) AZc = Au+ AZc +
f
avec

d'ou
Zc' = PAZc + PAu + Pf,
ou cncore
c' = z-lp (AZc +Au+ f). {21)
Resolvons ce systeme dans le sens des x decroissants, puis determinons y (x) =
+
= u (x) Z (x) c (x). ·
Laquelle de ces methodes du balaya~e differentiel, le procede (8)-(10)
ou celui (17), (20), (21), choisira-t-on de preference? On ne saurait y repondre
categoriquement sans prendre en consideration Ies proprietes concretes du
systeme considere. Dans la seconde methode Ies fonctions Z (x), u (x) corres-
pondantes sont en general par construction plus regulieres et, a precision egale
du resultat, l'integration du systeme (17) s'effectue, paraît-il, avec un pas plus
important que celle de ~8). Par ailleurs, si l'on integre le systeme (17), le volume
de calcul par pas peut s averer legerement superieur a cause de l' inversion neces-
saire de la matrice zTz. II se peut qu 'on renonce a inverser celle-ci a chaque pas
d'integration (car cette matrice ne depend pas de x), surtout si Z (O) a ses colonnes
orthonormees et que zT (O) Z (O) soit donc une matrice unite. Avec de telles.
simplifications du systeme de depart (17), (20), (21), ses solutions se conservent;
cependant, la sensibilite aux arrondis peut augmenter, ce qui oblige, a moins.
d 'une analyse circonstanciee, a abandonner cette idee.
Dans le cas de l'equation y" - p (x) y = f (.x) du § 4, c'est par hasard
que la fermeture de l'algorithme s'est averee reguliere et Ies solutions de ses
equations stables par rapport aux arrondis. 11 en va autrement pour le systeme-
(5.1). La fermeture de l'algorithme de balayage orthogonal (8)-(10) est reguliere
en ce sens que Ies solutions des equations (8)-(10) sont toujours bornees par des
quantites pas tres grandes; par ailleurs, le systeme d'equations aux variations
pour (8) peut posseder des solutions a croissance brusque, ce qui provoque des.
:560 MtTHODES DE R~SOLUTION DES l'ROBLBMES AUX LIMITES [CH. IX

•doutes quant a la stabilite pratique de l'algorithme. Or, en realite, l'algorithme


-est stable vis-a-vis des arrondis. Le fait est que la notion de fermeture d'un
algorithme de calcul souffre d'une certaine indetermination. La construction
.formelle de cette fermeture peut aboutir ă. diverses equations differentielles
relatiYement a une mâme fonction et telles que les solutions des unes soient
.sensibles aux arrondis et Ies solutions des autres non. La question de la stabilite
ne sera tranchee correctement que si la fermeture reflete fidelement toutes Ies
:proprietes de l'algorithme etudie. En ce qui concerne le balayage orthogonal,
il scrait plus]juste d'obtenir, au lieu de (8), l'equation
Z' = AZ - Z (zTz)-1R
dont Ies solutions sont reellement insensibles aux arrondis.
Nous ne nous etonnons pas si nos derniers raisonnements dissuadent le
lecteur d'etudier Ies fermetures des algorithmes de calcul. 11 ne faut cependant
pas ouhlier que nous proposons de Ies utiliser lors de l'etude prealable et de la
construction de nouveaux algorithmes dans le cas ou une analyse exhaustive
de l' erreur risque de coiiter trop cher en temps et argent. Les proprietes des
regles de calcul ainsi obtenues seront ensuite testees par l'experience numerique.
PROBLBMES.
1. Construire une methode numerique de resolution du probleme aux
limites, dont la fermeture soit l'algorithme (17), (20), (21).
2. Construire Ies analogues des algorithmes decrits de balayage orthogonal
qui soient adaptes aux problemes nux limites dans le cas du systeme
y" - A (x) y = f (x).

§ 8. Problemes aux limites non lineaires


11 existe une analogie entre Ies methodes de resolution de ces
problemes et celles des problemes algebriques non lineaires. Comme
pour ceux-ci on discutera diverses techniques sans qu'aucune recom-
mandation en sorte pour des problemes aux limites arbitraires. Tout
procede de resolution d 'un probleme aux limites non lineaire con-
·siste au fond a resoudre, a sa place, un systeme d'equations non
lineaires. Les procedes different par le choix des parametres de ces
problemes auxiliaires et, naturellement, par la maniere dont on Ies
.aborde.
On venait a bout de nombreux problemes aux limites tels que le probleme
de tir sur but ci-dessous bien avant l'avenement des machines a calculer et
l'apparition mâme de la notion d'equation differentielle. Si bien qu'aujourd'hui
encore on elabora souvent de nouvelles methodes par analogie avec Ies procedes
anterieurs a l'ere des ordinateurs.
Soit le cas ou la piece d'artillerie, l'objectif et l'observateur sont dans un
meme plan horizontal. La trajectoire du projectile est decrite par un systeme
de trois equations differentielles du deuxieme ordre avec Ies conditions aux.
limites suivantes: l'origine de la trajectoire coincide avec la piece et son extre-
mite avec le point vise. Nous nous abstiendrons d'ecrire ce systeme vu que
sa forme concrete est sans importance. Le tireur connaît deux parametres -
l 'azimut a du canon et l' angle au niveau ~- Si le tir n' a pas ete regie et qu' on
ait neglige Ies conditions atmospheriques, l'obus tire au premier coup (ce qui
correspond a la resolution du probleme de Cauchy pour l'approximation d'ordre
zero des conditions initiales cherchees) tombe quelque part a proximite du but.
·Considerons le cas le plus simple ou l'observateur est situe pres de la piece.
•§ 81 PROBLtMES AUX LIMITES NON LIN~AIRES 561

En constatant un ecart en direction da entre le but vise et le point de chute


reel, il modifie de fa9on adequate l'angle a pour qu'au coup suivant Ies deux
directions se confondent. Par suite de nombreux facteurs dont des conditions
atmospheriques non constantes, cela n'aura generalement pas lieu ancore que
toute correction en direction ulterieure s'avere d'ordinaire superflue. Ensuite
l'observateur choisit des angles p tels que deux points d'impact soient ali~es
avec l'objectif de fa9on a «l'encadrer a une·fourchette >>. Si Ies appareils neces-
saires lui font defaut, la seule chose qu'il puisse dire c'est si le projectile tombe
en de9a ou au-dela du but. Si g (P) est la portee et g0 la distance au but, l'ob-
servateur resout l'equation g (P) = gÎ connaissant a chaque coup seulement
le signe de la difference g (P) - g 0 • I choisit alors chaque fois un p qui soit
la moyenne arithmetique des deux valeurs p Ies plus voisines correspondant au
coup long (sg (g (P) - g0) > O) et au coup court (s~ (g (~) - g 0) < O).
Le probleme se complique singulierement sile poste d observation se trouve
ailleurs. Le-tir de reglage peut s'effectuer alors selon une regie plus compliquee
analogue A la methode de Seidel. L'observateur obtient l'information sur l'ecart
i' entre l'objectif et le point d'imfact tels qu'il Ies voit du poste et, lorsque
i' = O, sur la distance relative de 1 un et de l'autre. Lorsque 1 angle ~ est fixe,
l'observateur corrige l'angle a de sorte que la direction du but et celle du point
de chute reel se confondent. L'ecart i' est une fonction i' (a, p). Aussi a cette
etape l'observateur resout par iteration l'equation 1' (a, P) = O avec p fixe.
Puisque la valeur de i' (a, ~) est connue, on peut appliquer une technique plus
rapide que la dichotomie, la methode de la secante par exemple. La valeur
obtenue de l'angle a depend de p et nous notons a(~) la solution de l'equation
i' (a, ft) = O. Si le point d'impact, l'objectif et I observateur se situent sur
tine mâme droite, ce dernier indique le sens de la variation de ft; pour cette
nouvelle valeur de ~ on a i' =I= O et il faut preciser a. Si de plus l' ohjectif est
pris en fourchette, l'observateur entreprend de partager en deux l'intervalle
contenant la valeur p cherchee. Soient g 0 la distance le separant du but vise
et g (a, P) celle qui le separe du point d 'impact pour a et ~ donnes. Le probleme
se ramene donc a resoudre le systeme
1' (a, P) = O, g (a, P) = g0 •
Le comportament de l'observateur dans son ansamble se caracterise comme
suit. 11 resout le probleme en choisissant ~ compte tenu de l'information sur le
signe de la difference g (a (P), ~) - g0 ; ici a (P) est solution de 1' (a, P) = O,
qui s'obtient a son tour par une methode iterative. Un observateur experimente
diminua certes le nombre d'iterations (coups) en combinant intuitivement
Ies methodes classiques indiquees plus haut.
L'idee de la plupart des procedes de resolution des problemes aux
limites non lineaires est la suivante. Le probleme considere se ramene
a resoudre un systeme non lineaire d'equations par rapport a des
inconnues pas tres nombreuses ; ensuite on applique a ce systeme une
methode propre a des systemes non lineaires. Le choix des variables
auxiliaires (parametrisation du probleme) est souvent decisif.
Soit un probleme aux limites non lineaire
y' = f (x, y), B (y (O))= O, D (y (X))= O,
(1)
y=:(y., ... ,y1/ , B=(b1 , ••• ,bz_,.)T, D=(d1 , : •• ,drf
et soient Ies fonctions g 1 (y (O)), ... , gr (y (O)) telles que le systeme
b1 (y (O))= o, ... , bl-T (y (O))=--= o,
(2)
g1(Y (O))= gi, •.• , Kr (y (O))= gr
36-01007
562 M~THODES DE R~SOLUTION DES PROBL~MES AUX LIMITES [CH. IX.

definit de fa~on unique le vecteur y (O) = ro 0 (g), g = (g1 , • • • , gr).,


Le probleme (1) se ramene alors a un systeme d'equations non lineai-
res relativement aux parametres g1 , ••• , gr.
La condition aux limites au point O s'ecrit assez souvent
Y1 (O) = O, • • •, Yl-r (O) = O;
on prend alors en qualite de g1 .(y (O)), ... , gr (y {O)) la fonction_
Yz-r+i (O), •.. , Yz (O). Ce sont donc Ies composantes inconnues de la
solution au point x = O qui font office de parametres cherches. En
general, le systeme necessaire ne s'explicite pas, mais on connaît
l'algorithme qui permet de calculer son second membre.
En resolvant le systeme (2) par rapport a tous Ies parametres
g1 , • • • , gr on determine le vecteur y (O) = ro 0 (g); la resolution du
probleme de Cauchy avec la condition initiale y (O) permet de deter-
miner y (X) = rox (g), ensuite de trouver ,i, (g) = D (rox (g)). Ainsi,
le probleme (1) se reduit a la resolution du systeme non lineaire-
11' (g) = o. (3)
On choisira la methode de resolution en tanant compte des par-
ticularites suivantes de ce systeme: .
1. Le calcul de chaque ,i, coute trop cher - il exige qu 'on resoi ve
numeriquement le probleme de Cauchy ; aussi faut-il se tourner vers
Ies procedes dans lesquels ces valeurs sont calculees le moins possible.
2. L'effort de calcul que demande la recherche du vecteur ,i, ou
celle de l'une de ses composantes tl't est pratiquement le mâme; aussi
Ies methodes du type de Seidel qui se servant a chaque pas de l 'in-
formation sur la seule composante -q, 1 sont-elles en general inefficaces.
Le tir sur but que nous avons decrit plus haut est analogue a la.
methode de Seidel, mais sa legitimite decoule du caractere specifique
du probleme en raison des possibilites limitees de l'observateur.
Un groupe important de methodes de resolution des systemes
non lineaires utilisent, en plus des valeurs des fonctions -q,1, celles
de leurs derivees recherchees de deux manieres.
1. Parlons, pour fixer Ies idees, des derivees ~$t et donnons-nous
t18t
Ies valeurs g:, ... , tfr. Trouvons, a l'aide du systeme (2), Ies
y 1 (O), .•• , Yz (O) correspondants. En derivant Ies equations de (2)
par rapport a g1 nous obtenons un systeme d'equations permettant
de trouver oy;(O) •
ac1 •
l
k
"1 ~ayJ(O)=O
LI 8yJ (O) 8gt ' = 1 ' • ••' l - r,
j=i
l
"1 8gm 8yJ (0) ~ i
LI OYJ(O) ~ = Um-1t m= ' ••• , r.
6=1
§ 8) PROBLEMES AUX LIMITES NON LI~AIRES 56~

La solution du systeme y' = f (x, y) verifiant Ies conditions


initiales y1 (O), •.. , y 1 (O) est fonction des parametres gm; le
vecteur de deri vees
8y (.x) _ ( ây 1 (.x) 8yz (x)) T
âgţ . - iJg1 ' ••• ' 8g1

verif ie le systeme d' equations differen tielles


iJf· ] (4)
fu= [ -
8yJ
' •

En le resolvant numeriquement, on obtient le vecteur iJy(X)


8g1 •
Maintenant, on peut calculer
l
â'i>i =~ adi 8yJ (X) =( rad d- ay (X) ) • (5)
8g1 i=t âyi (X) lJg1 g " 8g1 .

Ce mode operatoire s'avere avantageux si, par exemple, on resout


a plusieurs reprises le probleme (1) avec un mâine second membre
f (x, y) et dans des conditions aux limites differentas.
Par contre, en tant que methode usuelle de definition des derivees
a,p1 , il presente le defaut suivant : l 'utilisateur doit rediger, en
81Ii
plus du programme de calcul des seconds membres de l'equation, le
programme de calcul des derivees :".
2. Dans la plupart des methodes 1esol vant des systemes d' equa-
tions par iteration, Ies valeurs des derivees des seconds membres
doivent âtre obtenues avec une precision moderee. On Ies trouve donc
par des formules de derivation numerique, par exemple par la formule
simple
ihf>,Cg1, ••• , g,.),...,"l>dc1+ll., c2, ... , g,.)-,J,i(g1, ••• , g,.)
8g1 -_, ll. •

Le calcul des a,pa I moyennant cette formule exige (par rapport a la re-
Kt
cherche des valeurs ,Pi (g1 , • . • , g,.)) une -resolution numerique sup-
plementaire du probleme de Cauchy (correspondant aux parametres
g1 +
A, g 2 , • • • , g,.). Comme le calcul des valeurs des fonctions
,p, est susceptible de donner lieu a une erreur notable qui ne fait
qu'augmenter avec la division par A, un choix rationnel de A ne s~
fait souvent qu 'au bout d 'une analyse complementaire. La methode
decrite se caracterise par le calcul simultane des derivees par rap-
port a la variable g1 fixe de toutes Ies fonctions ,p1 ; îl paraît que dans
ce cas la tactique raisonnable consiste a mettre en ceuvre des proces-
sus iteratifs dans lesquels Ies parametres g1 sont ameli~res a tour
36•
564 Ml!'.:THODES DE RJ!lSOLUTION DES PROBLgES AUX LHIUTES [CH. IX

de role. On pourra imaginer le processus suivant: la precision des


parametres g1 s' ameliore de faţon cyclique, on deduit une valeur
plus exacte g1 a partir de la condition de minimum d'une certaine
fonction
<I>i (,I, (
't'i gh • • ., gr
)+ 8\j,1 (g1, • • , , Cr) (-
Ogj
)
gi-gi, • • ., ,i,
't'r
(
g1, • · •, gr ) +
+ âlJ,r (g1,âgj• • ., gr) (gJ -g)J
(voir pour plus de details § 4, chap. VII).
Comme dans le cas des problemes aux limites lineaires, on s'inter-
roge sur l' a pplicabili te de la methode en presence d 'arrondis reels.
Lorsque Ies solutions f) du systeme d 'equations aux variations
11' = f u1J croissent fortement avec x, Ies erreurs dont sont affectes
g 1 et Ies erreurs de calcul dans l 'integration numerique engendrent
de grosses erreurs sur Ies valeurs de la fonction '\Vi, ce qui entraîne
en fin de compte une imprecision importante de la solution obtenue.
Si cette derniere erreur s' a vere inadmissible, on choisit d 'autres
variables auxiliaires. Decrivons des procedes de resolution dansles-
quels Ies parametres formels sont Ies valeurs de la solution sur tout.
le segment. ·
Nous avons deja propose le mode operatoire suivant pour le pro-
bleme non lineaire P (u) =O: nous avons choisi un operateur lineaire
Lu agissant dans le meme espace que P. Les approximations sui-
vantes etaient determinees par l'egalite
L (un+ 1 - Un) +
P (un) = O.
Ainsi, en ce qui concerne le probleme (1), on peut prendre un ope-
_rateur L tel que
Ly= C (x) y' -A (x) y, O<x< X,
Ly lx=O = BoY (O),
Ly lx=x= Doy(X),
tC (x), A (x), B 0 , D 0 etant des matrices. Les approximations sui-
-vantes s'obtiennent alors comme Ies solutions du systeme lineaire
C (x)(Yn+t-yn)'-A(x)(yn+t-Yn)+Y~-f (x, Yn)=O,
Bo (Yn+t (0)-Yn (O))+ B (Yn (O))= O, (6)
Do (Yn+t (X)-Yn (X))+ D (Yn {X))= O.
Dans le cas de la methode de Newton (cf. § 2, chap. VII), L
depend de n et est un operateur de deri vee correspondant a l' a ppro-
ximation Yn (x):
Lu= u' -fy (x, Yn (x)) u pour x E(O, X),
Lu lx=O = Bv (Yn (O))u (O),
Lu lx=x= Du (Yn (X)) u (X),
§ 8.1 PROBLEI\IES AUX Lll\llTES NON LIN~AIRES 565

ou
âb
Bu = [ ay1 /o> ' Du=
] [ Bd·
ay1 <X>
J•
Les relations (6) s'ecrivent alors
Y~+i - /y (x, Yn (x)) (Yn+t -Yn) -f (x, rn
(x)) = o, o< X< X'
By (Yn (O)) (Yn+1 (0)-Yn (O))+ B (Yn (O)):.= o, (7)
Dy (Yn (O)) (Yn+t (0)-Yn (O))+ D (Yn {O))= o.
D'apres Ies theoremes generaux sur la convergence de la methode
de Newton, le processus iteratif (5) converge pour f (x, y), b,, di
suffisamment reguliers si l'approximation initiale est suffisamment
proche de la solution cherchee. 11 est naturel que Ies methodes de
resolution des problemes lineaires auxiliaires, du probleme (7) par
exemple, doivent etre assez stables par rapport a l'erreur de calcul.
Nous veno ns de decrire un ·procede ou le role des parametres
cherches est formellement joue par Ies valeurs de la solution sur
tout le segment d 'integration. Comme le probleme aux limites lineaire
se resout numeriquement, Ies calculs reels porteront sur Ies approxi-
mations y~ des valeurs de ·Ia solution y (xk) aux nceuds O = x 0 <
< x1 < ... < xN = X du reseau. Ainsi, en integrant par la methode
d 'Euler, on obtient, au lieu de (7):
.;+1 j
Y"n+1-Yn+1
XJ+i-Xj
fu (x1, y~) (Y~+t -y~)-f (x1, Y!) = O. O-<.j < N,
Bu (y~) (Y!+1 -y~) + B (y~) = O,
Dy (y;':) (Y~+t - y:) + D (y~ = O.
Cette parametrisation du probleme aux limites a !'inconvenient
d'encombrer la memoire si le nombre de points d'integration est
important et le systeme d'ordre eleve. 11 se peut que Ies approxima-
tions Yn (x) offrent une regularite differente (la regularite de certai-
nes approximations necessite un pas d 'integration faible sur tels
secteurs tandis que la regularite d'autres approximations sur d'au-
tres secteurs). La methode est alors modernisee comme l'exige le
passage d 'un reseau sur un autre.
Lorsque nous avons eu a resoudre des systemes d'equations non
lineaires, nous avons quelquefois recommande de reduire le volume
de calcul en iterant par la methode de Newton pour des valeurs
inexactes des deri vees dans Ies seconds membres. En agissant de faoon
analogue dans le cas du probleme (1) nous diminuons l'occupation
de memoire rapide. Donnons-n~us des points
O = X 0 < X1 < ... < Xm = X
et mettons en reserve, au bout de chaque pas d 'iteration, Ies seules
approximations Yf, j = O, ... , m - 1, de la solution en X 0 , . . . .
,l)66 MtTHODES DE R8SOLUTION DES PROBLEMES AUX LIMITES [CH .. IX

... , Xm-i• Si Ies solutions du systeme d'equations aux variations


sur la solution cherchee ne croissent pas considerablement sur Ies
segments [X1 _1 , X 1], une fois tous Ies y (X 1) trouves, Ies valeurs de
la solution sur tout le segment s'obtiennent par integration nume-
rique du systeme de depart sur Ies segments [X1_1 , X 1].
Decri vons cette technique plus en detail. Soient Y = (y 0, • • •
:~ .. , Ym-1), P un operateur faisant correspondre a toute fonction
z (x) la matrice Pz = (z (X 0 ), • • • , z (Xm_1 )) et Q un operateur qui
fait correspondre a la matrice Y une fonction u (x) = QY definie
sur [O, X], de plus QPy = y si y est solution du probleme initial.
.Supposons qu'il existe un processus iteratif de depart tel que l'appro-
ximation suivante se deduise de la precedente comme solution du
:aysteme
Y~+i = A (x, Yn, Yn+1)
avec Ies conditions aux limites h (Yn (O), Yn+i (O)) = O,
d (Yn {X), Yn+i (X)) = O, la solution cherchee etant egalement un
:point stationnaire du processus par iterations :
y' = A (x, y, y),
b (y (O), y (O)) = O, d (y (X), y (X)) = O.
Cette solution est evidemment un point stationnaire pour
Y~+1=A(x, QPYn, Yn+1),
h (QPY n lx=O, Y n+i (O))= O, (8)
d (QPYn lx=X, Yn+i (X))= O,
i.e.
y'=A(x, QPy, y), h(QPYlx=O, y)=O, d(QPylx=X, y)=O.
Voici une autre mise en ceuvre de ce processus iteratif. On prend
pour Q un operateur faisant correspondre a la matrice Y =
= (Y 0 , • • • , Y m-i) une fonction u (x) qui sur Ies intervalles semi-
fermes [X 0 , X 1), • • • , [Xm_ 2 , Xm_1 ) et sur le segment [Xm-i, Xm1
-est solution du probleme de Cauchy pour le systeme u' = / (x, u)
dans Ies conditions initiales u (X 1) = Y1. Supposons que
+
A (x, Yn, Yn+1) = go (x, Yn) g1 (x, Yn) Yn+h
h {Yn (O), Yn+1 (0)) = ho (Yn (O))+ h1 (Yn (O)) Yn+1 (O),
d (Yn (X), Yn+1 (X))= do (Yn (X)) +d1 (Yn (X)) Yn+1 (X) ..
Le probleme
+
Y~+1 = go (x, QPyn) gt(x, QPyn) Yn+1, (9)
ho ((QPyn} Jx=O) + h1 ((QPyn) lx=O) Yn+i (O)= O,
do ((QPyn) lx=-X) +d1 ((QPyn) lx=X) Yn+i (X)= O
-se resout alors par une methode valable· pour Ies problemes aux
limites lineaires.
~ 8] PROBL:BMES AUX LIMITES NON LIN~AIRES 567

Appliquons la ~remiere variante du balayage orthogonal a condition que


l'orthogonalisation ae la solution s'effectue justement aux points X1 , •••
.• • . , Xm-i• On demande alors de garder en memoire Ies valeurs de certains
vecteurs et matricea correspondant aux points x 1 et d'integrer numeriquement
sur Ies segments [X J, X J+tl plusieurs solutions du systeme homogene
v' = g1 (x, QPyn) v {10)
et une solution du systeme non homogene (9). Puisque QPyn est par definition
-5olution du systeme
(QPyn)' = f (x, QPyn), {11)
'(9)-(H) sont integres tous A la fois sans mettre en reserve Ies valeurs de ces
fonctions en des _points intermediaires.
Le presant algorithme est susceptible d'un raffinement qui presante un
interât certain dans la resolution d' autres ~roblemes lineaires et non lineaires.
Les valeurs approchees de la solution s obtiennent sous forme de combinai-
sons lineaires de solutions particulieres des systemes (9) et (10). S'il y a con-
-vergence vers la solution, QPyn (x) ~ y (x) et Ies systemes (9), (10) deviennent
u' = go (x, y) +
gl (x, y) u,
v' = ~ (x, y)v.
En appliquant la methode de Newton, ils s'ecrivent par exemple
u' = f (x, y (x)) + f y (z, y (x)) (u - y (x)),
v' = fy (x, y (x)) v.
La solution cherchee ~eut âtre (c'est le cas, par exemple, des problemes
.avec couche limite) assez reguliere sauf au voisinage des extremites du segment
.d'integration; en mâme temps, Ies solutions du systeme (10) varient brusque-
ment sur tont le segment. Si b1en que mâme la oii la solution cherchee est reguliere,
_pour l'obtenir avec une precision acce:ptable on doit integrer Ies systemes auxi-
Uaires (10), (11) avec un pas tres petit. On l'evite en passant a une nouvelle
fonotion inconnue
rn+1 = Yn+l - QPYn•
Pour lixer Ies idees, on raisonnera sur la methode de Newton. Aux points ou
-l"Ji+i. (x) est continfi.ment derivable on a

r~+i = f {x, QPyn) - (QPyn)' + f y (x, QPyn) rn+i


,ou encore
r~+1 = !y (x, QPyn) rn+l• (12)

Les conditions aux limites correspondantes sont


B ((QPyn) l:~=o) + By ((QPyn) l==o) rn+1 (O) = O, (13)
D ((QPyn) lx=X> +
Dy ((QPyn) l==X) rn+1 (X)= O.
La fonction Yn+i est definie comme une solution continument derivable de (9)
et QPYn presante peut-âtre des discontinuites en X1 , ••• , Xm-i· Aussi
[rn+1lx
J
= -[QPynlxJ, i ~ 1, , •• , m-1;
ici
[g]x= lim (g (x+e}-g (x-e)).
e-+o
568 Ml!lTHODES DE RJ;:SOLUTION DES PROBL~MES AUX LIMITES [CH. IX

Le systeme d'equations donnant rn+l (x) s'ecrit sous forme generalisee


r~+i = gn (x) +f y (x, QPyn) rn+t, (14)
m-1
gn (x)= - z] [QPynJx. cS (x-X1);
1
i=l
avec cS (t) la fonction de Dirac. En resolvant le probleme aux limites (13)-(14)
par la methode du balayage orthogonal a points d'orthogonalisation X1 , •••
• . . , Xm-1t la presence des fonctions de Dirac dans Ies seconds membres du
systeme ne cree aucune complication: apres avoir integre l'equation homogene
(10) sur Ies segments [X1-il, X1J, on ajoute - [QPYnJx a la valeur obtenue.
Le systeme homogene associe a (9) et (14) etant le nfeme, on dirait qu'une
telle substitution de la fonction inconnue ne change rien. En realite, ces deux
processus iteratifs different de faţon essentielle. Dans le premier cas, on trouve
Ies approximations Yn+I (x) sur chaque [Xj-1t X 1] sous forme de combinaisons
r.
lineaires un (x)+ ~ cin Vin (x) des solutions des equations (9) et (10), Un (x)
i=i
et, correlativement, le vecteur de coefficients cin -r O avec le second membre
de (9). Dans le deuxieme cas
r
rn+t=Un (x)+ z] cinVin (x).
i=t
Les vecteurs Un (X1), vin (X 1) etant orthogonaux et rn+i (X1) ~ O, on a Un (x) ~o
et cin~ O lorsque n tend vers l'infini. Les fonctions vin (x) sont multipliees
par des quantites petites, c'est pourquoi Ies erreurs commises lors de leur recher-
che numerique influent bien moins sur Ies valeurs approchees obtenues. De
mâme, s'il s'agit d'une equation non homogene en un (x), on s'attend a des con-
traintes moins severes sur le pas d'integration vu que un (x) tend vers zero.
Dans le cas d'une integration «·grossiere » des equations pour Ies fonctions
Un, vin• le processus iteratif subit certaines modifications, et il se peut que la
vitesse de convergence se ralentisse. On a cependant des raisons d'esperer que Ies
qualites de l'algorithme s'amelioreront dans leur ensemhle par suite a'un volume
de calcul plus faible par pas d'iteration. Comme Ies solutions particulieres des
systemes (12), (14) sont definies pas tres exactement, le systeme (12) admet.
a part l'integration numerique directe, des procedes plus grossiers. Le calcul
des solutions des systemes homogene (12) et non homogene (14) aux points XJ
avec des conditions donnees en x 1_1 exige qu'on integre numeriquement Ies
equations aux variations t1' = ff
(x, QPyn) '11· QPyn verific par definition
sur [X 1_1 , X 1J le systeme initia
(QPyn)' = f (x, QPyn).
Soit Ye (x) une solution de celui-ci dans la condition initiale
Ye (X1-1) = QPyn Ix.J-1 + 8Vj-1•
En etablissant un systeme d'equations aux variations on a vu que la fonction
vectorielle (Ye (x) - QPyn) e-1 , B faible, approche la solution R (x) de l'equa-
tion (12) sous la condition initiale R (Xj_1) = '°i-i• Sur chacun des segments
[XJ-1t X1J on demande de trouver Ies r +: 1 solutions du systeme R' =
= fy (x, QPyn) R. On le fait par le procede decrit en integrant le systeme
y' = f (.x, y) r + 2 fois.
§ 9] APPROXIMATIONS DU TYPE SP~CIAL 569,

Nos raisonnements (chap. VII) sur l'avantage que presente l'amelioration


de la ărecision a mesure qu'on approche la solution, restent valables pour Ies
metho es iteratives. Les developpements relatifs a la derniere technique decrite-
nous montrent cependant qu'on n'augmentera sensiblement la precision qu'en
calculant Ies seconds membres des eq uations non homogenes, i.e. Ies quantites.
[QPy] Ix ; ii suffit donc d'elever Ja precision en integrant
f
(QPyn)' = f (x, QPyn).
Comme pour Ies problemes algebriques non lineaires, on pour-
rait citer de nombreux procedes qui convergent vers la solution a
condition d'avoir au depart une approximation assez bonne; cepen-
dant, on ne saurait proposer de methode efficace pour tout probleme·
aux limites non lineaire. Aussi en abordant un probleme concret on
procede a une << mise au point >> de la technique de resolution: on
choisit une methode speciale donnant l'approximation initiale, on
la modernise afin d 'elargir le domaine de conditions initiales dans-
lesquelles elle converge pour classe concrete de problemes, etc.

§ 9. Approximations du type special


Soit le probleme aux limites
(k (x) y~)~ - p (x) y =f (x), y (O) = a, y (X) = b, (1}
avec p (x) ~ O, k (x) trois fois et p (x), f (x) deux fois continument.
derivables sauf en un nombre fini de points en lesquels ces fonctions
ou leurs derivees k', k", k"', p', p 11 , f', f II peuvent posseder des dis-
continuites de premiere espece.
Soient K, P, F Ies ensembles de points de discontinui te des fonc-
tions k, p, f ou de leurs derivees et Q = K UPUF.
Appelons solution du probleme (1) une fonction y (x) telle
1) qu'elle soit continue sur [O, X];
2) qu'elle verifie l'equation partout sur [O, XJ, sauf peut-etre-
aux points de I' ensemble Q ;
3) que la fonction w (x) = k (x) y~ soit continue sur [O, X]_
Cette derniere condition entraîne que y~ = ~~=~ est continue-
partout, a l'exception des points de discontinuite de la fonction·
k (x) en lesquels elle presente des discontinuites de premiere espece.
On montre que Ies derivees y"' (x) et y' 4 > (x) sont continues et.
uniformement bornees sur l'ensemble 10, XJ "" Q.
Si la construction du schema aux differences neglige le caractere
discontinu de y~, on risque d 'aboutir ·a un probleme aux differences:
dont la solution ne converge pas vers celle de (1).
Si l'on a a construire des schemas aux differences finies dans le
cas d 'equations dont Ies coefficients et Ies solutions_ presentent des.
discontinuites ou d 'autres singularites, il est utile d 'introduire de·
,570 M~THODES DE R~SOLUTION DES PROBLtMES AUX LIMITES [CH. IX.

mouvelles variables (fonctions ou arguments) de fa~on que la solu-


!tion du nouveau probleme soit plus reguliere. Comme nous allons
le v0ir, ce passage n' est pas toujours realise de fa~on explicite.
Puisque w (x) est continue et la derivee
Wi =
p (x) y f (x) + (2)
l'est egalement, sauf aux points de discontinuite des fonctions
.p (x) et f (x), la fonction w (x) est continument derivable. Notons
.:x8 = sh pour s entier ou non. L'integration de (2) entre Xq-i/ 2 et
..Xq+i/ 2 donne
Xq+lf2
w (xq+112)-w (xq-112) = ) (p (x) y (x) + f (x)) dx; (3)
Xq-lf2
~ (x) etant derivable par morceaux, il vient
y(:c)=y(xq)+O(h) lorsque x-xq=O(h).
L'egalite (3) se recrit donc
Xq+lf2
w (xq+112)-w (xq-t/2 ) = ) (p (x) y (:cq) + f (x) + O (h)) dx=
=q-¼
= y (xq) pq + fq + O(h2),
-ou
Xq+lfs
- t
pq= h Jr p(x) dx,
Xq-1/2

Divisons par h; nous trouvons


w (xq+l/2)-w (xq-IW
h, -
-
pqy ( Xq ) -- -/q + O(h) • (4)
:Si l'intervalle (x1_1 , x;) renferme des points de discontinuite de
11 ' la substitution directe de k (x J-112 ) y(xJ)-y(xJ- 1> a w(xJ- 112> peut
:vx, h2 h,
•donner lieu a une erreur en h-1 .
On ameliore l'approximation en faisant intervenir la variable
X

fadependante auxiliaire t = ) :c:) . Le caractere borne de la derivee


. o
·par rapport a X et l 'egalite :: = k (x) :: entraînent que la derivee
'.Par rapport atest bornee. La fonction w = k (x) = a sa derivee !! !!
d)ar rapport a x bornee, il en est donc de mâme de sa derivee par
§ 9] APPROXIMATIONS DU TYPE SP:8CIAL 571

rapport a t. Ainsi, la derivee seconda Yit est bornee et


k (~> du I = du I = Y <t1)-y <t1-t> +o (t -t - ),
dz :X:J-¼ dt tj-l/2 tJ-tJ-1 J J1
avec
:x;J

t1-t1-1= J kt) =O(h).


:x;j-1
C'est pourquoi
w(x;-112)=k(x)dz.
dy I =
Y (z1)-y (ZJ-1)
t-t· +O(h). (5)
:x:,-¼ J J-1


Portons k(x) ~! j:X:q±¼ a gauche
U..i,
dans (4), il vient
y (zq+1)-y (zq) y {zq)-y {zq-1)
- 1 - 1
kki+¼ hkq-¼ - -
rq=---------,,,------pqy(xq)-fq=0(1), (6)
ou
:,cJ+l
--1 1 r dz
ki+11s= îi J k{z) ;
=1
le schema aux differences finies correspondant a la forme
Yq+1-Yq Yq-Yq-1
- 1 -- 1
L (yq) = _h....;ki__+__11__2 __,,h_h_k..;;.i_-l__/2___ (7)
Son erreur d'approximation est de O (1) au maximum et on l'evalue
donc moyennant desiconsiderations supplementaires.
. Dans l'hypothese de l'absence d'arrondis, l'erreur sur la solu-
tion approchee s'ecrit, conformement a (2.10):
N-1
Rn= -h ~ G!rk.
1'=1
La definition de G~ (cf. § 2) et Ies estimations du mâine paragraphe
entraînent
max \G!l~D<oo,
O~kh, nh~X
(8)
max IG!+1-G!l=0 (h).
O~kh.~X
La theorie des equations differentielles dit que Ies derivees de
la solutionJjusqu'a l'ordre 4 inclusivement sont uniformement bor-
nees partout, sauf peut-âtre aux points de Q. Si l 'intervalle
572 M:ETHODES DE R:8SOLUTION DES PROBrnMES AUX LIMITES [CH. IX

(xq-i, Xq+i) ne contient donc pas de points de cet ensemhle, l'esti-


mation (6) se prete a une amelioration: dans le premier membre
de (6) on developpe y (x), k (x), p (x) et f (x) au point ·xq par la for-
mule de Taylor avec des restes en h4, h3 , h2 et h2 respectivement.
Des calculs elementaires tenant compte de l'egalite (1) fournissent
rq = O (h2).
Cette estimation permet d 'ecrire
Rn =0 (h2) - 21'hG!rk.
k
Le signe LJ' signifie que la sommation s'effectue sur Ies seuls k t~ls
k
que l 'intervalle (xk-i, xH 1 ) contient Ies points de discontinuite
des coefficients de l'equation ou de leurs derivees d 'ordre peu eleve
correspondant. Pour Ies valeurs q = k correspondant a 21' mettons
r q sous la forme
y (xq+1)-y (xq) y (xq)- y (Zq-1)

ou
Y (Xj+1)- Y (Xj)
CO;+½= __ 1 -W (X;+½)•
hkJ+½
Selon (4), l'expression entre accolades est egale a O (h), Ies points
de discontinuite sont en nomhre fini, et l'erreur s'ecrit donc
Rn= O (h2)-~'G~(cok+½-rok-½)·
k

Si l'intervalle (xk, xH 1 ) renferme un point de discontinuite, la


valeur cok+i/ 2 correspondante sera precedee sous le signe ~' du
coefficient G! - G!+1 ; dans le cas contraire, on s'assure par un
developpement taylorien direct que-cette .valeur vaut O (h2). L'ex-
pression de Rn est donc susceptihle d 'etre transformee:
Rn = 0 (h2) + ~r (G!+i _
k
G!) Wk+½,

ici 2J " designe la sommation sur des k correspondant aux interval-


Ies (xk, xk.+ 1 ) renfermant des _points de discontinuite de k (x). Con~
formement a (5) rok_112 = O (h) uniformement en tous Ies k. Recou-
rons egalement a (8) et obtenons une estimation definitive de l'er-
reur:
max 1Rnl=O(h2).
O~nh~X
§ 9] APPROXIMATIONS DU TYPE SP~CIAL 573

Dans le cas du schema (7) le calcul est independant de la position des points
de discontinuite; il s'agit donc d'un schema homogene.
Son defaut app_arent est que ses coefficients ~+ 112 , Pq, Ei
s'ecrivent comme
des integrales. En realite, on montre que si l'erreur sur les valeurs deces coef-
ficients est O (h2}, il en est de mâme de l'erreur sur la solution approchee. Aussi,
dans le cas d'un in~rvalle (:rq-i, ~q+1 } ne conteEant pas de points de disconti-
nuite, on remplace Pq par p (:rq}, lq par f (:rq} et kq±i/2 par k (:rq±i/2 } sans pour
autant diminuer la precision.
Nous avons acrit l'erreur d'approximation des methodes des
differences finies de l'integration numerique sous la forme Emycm+1>(~);
elle etait donc egale a zero dans le cas ou la solution etait un polynome
de degre m. ffse peut que la solution du probleme soit mieux appro-
ximee non pas par des polynomes mais par des combinaisons lineai-
res de certaines fonctions autres qµe Ies monomes :i. On sait par
exemple que Ies solutions de l'equation differentielle de Bessel
:c2y " +xy' +(x2 - v2) y = O s' ecri vent pour des x grands :
(aoX-½ + a x- + ... ) cos x + (b x-¼ + b x- + ... )sin x.
1
3 2
/ 0 1
3
l2

Supposons que la resolution exige la mise en reserve des tableaux


des fonctions de Bessel. Parfois on Ies forme au mieux par integration
numerique de l'equation de Bessel en se servant, pour x important,
des approximations aux differences exactes le long des fonctions
x-k-¼cosx, x-k-½sinx, k=O, ••• , l.
Un autre procede commode consiste a approcher, dans le voisi-
nage de chaque point, l'equation consideree par une equation diffe-
rentielle integrable sous forme explicite et a construire un schema
aux differences exact pour ses solutions. Pages- 491-492 nous- avons
propose un algorithme de ce type.
Traitons le cas de l'equation differentielle
µ 2y" + p (x) y = f (x),
avec µ petit et p > O.
Lorsque p = const, Ies solutions exp ( ±/VP) de cette equa-
. µ
tion subissent des oscillations de peri ode 2nµ/y p, c'est-a-dire tres
grandes. La mesure caracteristique de la variation d 'une solution
(i. e. l'intervalle sur lequel elle varie de fayon substantielle) est de
l'ordre de µ/yp, de sorte que si l'on ne fait pas intervenir la speci-
ficite de l'equation donnee et que l'on veuille obtenir une precision
elevee, il faut que soit realisee la condition assez encombrante
h <ţ_ µ!Vp.
Dans le voisinage de chaque point Xn l'_~quation examinee est
voisine de µ 2y" +
PnY =;: fn, Pn = p (xn), fn = f (xn). La solution
574] MtTHODES DE RtSOLUTION DES PROBLEMES AUX LIMITES [CB. IX

generale de celle-ci s'ecrit


y(%)=D1 exp (i (x-x;>_-V;;;_) +D2 exp(-i(x-xn~VPn)) + !: ; (9)
trouvons un schema du type
anYn+i + bnYn + CnYn-1 - dn = O (10)
exact le long de toutes Ies soiutious pareilles. A cette fint
portons (9) dans (10), il vient

an (D 1 exp ( i k~Pn) +D2 exp (-i k~Pn)) +


+bn (D1+D2)+cn {D1 exp { - i k~Pn) +
+D2 exp { i k~Pn)) +(an+bn+cn) ;: -dn= O.
Pour que cette egalite soit vaiable quels que soient D 1 et D 2 , il
faut et îl suffit que Ies coefficients de D 1 et D 2 et le terme constant
soient nuls. Annulons-les :
1
h~) +bn+cn exp ( - i h~j,,;) 0,
an exp ( i

anexp( ~i h~Pn)+bn+cnexp (i k~Pn)=O, (11)

., (an+ bn + Cn) J.n..._ dn = O.


Pn
En posan t an= 1, on obtien t
Cn= 1, bn= - kV Pn
2 cos-----, dn = ( 2- 2 COS k VPn) b_.
µ µ Pn

La solution generale du systeme (11) est proportionnelle a la solution


particuliere obtenue. Multiplions par µ 2h-2 tous Ies coefficients
an, bn, Cn, dn, Nous trouvons le schema

Yn+1- 2 cos
kl{Pn Yn+Yn-t h ,r~ 2f
µ 2
l
>

-(2-2cos vµPn) ~2 P: =0. (12)

Prenons cette relation pour I' equation aux differences correspondant


au point Xn ; cette normalisation du schema (12) paraît la plus
naturelle: en substituant y (xn) a Yn dans (12) et en faisant tendre h
vers zero pour Xn fixe, nous obtenons a la limite l'equation diffe;.
rentielle initiale
§ 9] APPROXIMATIONS DU TYPE SP~CIAL 575

11 est d'usage de tester la ~alite de nouveaux programmes standard sur·


des problemes trpes. C'est ce qu on a voulu faire dans le cas d'un _programme-
usuel de resolut1on par la methode de Stormer du probleme de Cauchy _pour un
systeme d'equations differentielles d'ordre 2; comme test on a choisi d'etablir-
la date des eclipses de Soleil pour plusieurs siecles a venir en un point donne-
de la surface terrestre. On a clioisi un referentiel fixe lie a la Terre par rapport
auquel on a ecrit Ies equations differentielles du mouvement de. la Lune et du
Soleil. Apres avoir effectue l'integration numerique on a constate que Ies resul-
tats contredisaient Ies valeurs reunies dans Ies tahles d'eclipses de Soleil con-
fectionnees il y a plusieurs siecles, alors qu'on ignorait le calcul differentiel„
sans parler des machines A calculer electroniques. Face a une telle situation
ii faut repeter Ies calculs avec un pas temporel different. Ce faisant on a constate-
que Ies resultats differaient sensiblement d'un pas a l'autre, ce qui denotait.
une erreur de calcul importante. Certains l'imputaient a la qualite mediocre-
des programmes standard qui n'en etaient cependant gue partiellement respon--
sables. En fait le probleme propose n'appartenait pas A la classe pour laquelle
a ete con9u le programme utilise. Dans le systeme de coordonnees choisi, la
Lune et le Soleil effectuent environ unerevolution par jour, etc' est par consequent.
le jour qui doit constituer la mesure caracteristique de la variation de la solution.
L'erreur resultant des methodes usuelles de resolution des prohlemes ne sera:
petite que si le pas est de beaucoup inferieur A cette mesure caracteristique (soit,
a un jour). Un siecle compte environ 36 OOO jours, c'est pourquoi le nomhre de-
pas necessaires pour calculer Ies eclipses un siecle durant doit âtre de l'ordre
de centaines de milliers. Nous verrons plus loin que l'erreur de calcul dans la
methode deStormer peut s'accumuler comme n2 • Aussi l'erreur de calcul relative-
sur le resultat sera en gros 10102-t avec t Ia longueur des nomhres machine.
Telle est la cause de I' erreur importante sur la solution. Ce probleme se resout
de fa9on satisfaisante en construisant des schemas aux differences d'un type-
special ou en integrant dans un systeme de coordonnees determine.
On ameliora la precision de l 'integration des solutions oscillantes et a varia-
tion hrusque par Ies techniques suivantes.
Soit une equation inte_grable sous forme explicite dont Ies solutions se•
comportent comme celles de l'equation initiale. Trouvons des fonctions de-
ces premieres solutions, qui soient fonctions regulieres d 'une variable indepen-
dante. Acceptons-les ensuite en qualite de nouvelles inconnues et integrons-
numeriquement le systeme obtenu.
Soit ·
2
µ .x" +
p (t) .X = o. (i3}.-
Lorsque p = const, on a
µ 2 (.x') 2 + px 2 = C0 , arctg (.xlfp/µ.x') = C1 t + C2•
Cela permet d'introduire Ies nouvelles variables

P= V µ 2 (x') 2 +p (t) .x2 , 8=arctg (.x 1/p {t)/µx').


Pour µ petit, Ies solutions de (13) verifient Ies relations asymptotiques,
t
.x (t) "' VC · sin (
p (t) µ
J
..!.. -V p {'t) d't}
C
,

t
x' (t) ,.._, C v;:m cos ( !J
C
lf p {-r) d,:) ;
-576 M:8THODES DE R:8SOLUTION DES PROBL°tMES AUX LIMITE$ [CH. IX

d'ou

-Compte tenu de ces relations on fait intervenir Ies nouvelles inconnues

P1 =-. / µ2 (x')2 +V p (t) x2 et 8


V -V P<t>
t
-et la nouvelle variable independante q> = ) V p(-f} d,:.
C
Les calculs d'essai permettent de definir le meilleur changement d'incon-
nues.
L'idee d'une autre methode consiste a calculer a chaque pas d'integration
la perturbation de la solution d'un systeme simplifie, qui passe par un point
,deja trouve.
Soit par exemple le systeme d'equations
dx dy x
7t=Y, dt+k ,:r+e li Y li y=O, li x JI =r, s faible.
'Supposons connues Ies valeurs approchees xn, yn des quantites x (tn), y (tn)
,et soit xn (t), yn (t) une solution du systeme simplifie
dx dy x
7t=Y, 7t+k7=0
.avec Ies conditions initiales xn, yn. Ce systeme est integre explicitement.
Introduisons Ies nouvelles variables
11 (t)=Xn (t)-xn (t), V (t}=Yn {t)-yn (t),
-ou Xn (t), Yn (t) est la solution exacte du systeme initial avec Ies conditions
initiales xn, yn. Nous trouvons un systeme d'equations differentielles par
rapport aux variables 11 (t), v (t). Apres avoir effectue un pas d'integration
par un procede standard avec Ies conditions initiales 1J <tn)=O, v (tn)=O
nous obtenons Ies valeurs approchees 11n+i, yn+t des quantites 11 (tn+ 1), y (tn+i)·
Posons xn+1 =xn (tn+1)+11n+1, yn+1 =yn (tn+t) +y11+1.
Au paragraphe 4 nous avons examine l'equation (4.13) dont la
solution devenait infinie lorsque p (x) < O. Neanmoins, en calculant
cette solution par Ies formules (4.9) on a vu que, selon l'estima-
tion (4.19), l'erreur sur la solution approchee ayant traverse de
tels points etait faible. Les formules de calcul (4.9) sont un cas inte-
ressant de schemas qui sont verifies avec une precision elevee pour
Ies singularites de la solution de la forme (x - a)-1 .
PROBLEME. Comment travaille le schema (4.9) en approchant la singularite
de la solution pour p (x) = const >
O lorsque l'equation (4.13) est integrable
.sous forme explicite? Sur quelles solutions est-il exact?
§ 10) RECHERCHE DES VALEU~S PROPRES PAR DIF,FaR,ENCES, FINIES sn
§ tO. Recherche des valeurs propres
par Ies methodes des .diff~rences finies
Traitons un probleme de valeurs propres parini Ies plus simples,
a savoir
y" - p (x) y = Âp (x) y, y (O) = O, . y (X) = O. (1)
Donnons-nous un pas h = XN- 1 et ecrivons le probleme discretise
Yn+i - 2Yn
h2
+Yn-1 -i
PnYn = "'PnYn,
·
(2)
n=1, ... , N-1, Yo=YN=O; Pn=P(Xn}, Pn~P(:.l:n)•
11 est naturel d'appeler valeurs propres du probleme discretise Ies
valeurs  pour lesquelles le systeme (2) admet une solution y 0 , • • •
• • •, y N non triviale. Supposons Ies valeurs propres des proble-
mes (1), (2) ecrites dans l'ordre de decroissance
Âi_ ~ Â2 ~ • • .,
Âf ~ Â: ~ •..
Considerons l'exemple modele p (x) == O, p (x) == 1 ;· le proble-
me (1) se recrit alors
y" = Ây, y (O) = y (X) = O.
Ses fonctions propres son:t ·wm (x) = sin { n ~ ) et ses valeurs pro-
pres .assoc1ees
., -i
"'m = - ("'m)2
X .
En ce qui concerne le probleme discret (2) qui se represente comme
Yn+1-2Yn+Yn-t_11Y
h2 "' n -
-0 , . yo-
-y -0
N - ,

raisonnons comme suit: la solution generale de l'equation aux


differences
+
Yn+t -(2 Âh2) Yn Yn-t = O +
s'ecrit
Yn= C1µ1+C2µ; ,,
avec µ 1 , µ 2 -racines de l'equation caracteristique
µ2 - (2 +M 2
) µ + 1 =o; (3)
evidemment µ 2 = µ;1, donc Yn = 1 1 C µ~ + C µ1n.
Les conditions
y0 = YN = O donnent leo systeme d'equations C1 C2 = O, +
C1 µf +
C2 µ1 N =O; ce systeme possede une solution non nulle si
37-01007
578 M:8THODES DE R~SOLUTION DES PROBLEMES AUX LIMITES CH. IX

son determinant µ1 N - µf = O; d 'ou


µ 1 = exp ( :J: ),
2
m= ... , -1, O, 1, ...
En se servant de (3) on exprime Ies valeurs Âh par Ies valeurs J.l,t
nim ) +exp ( -7r
exp ( -y nim ) •-2 _
h,2 -
2
- N2
x2 { nm
2 cos N -2 - - 4
)
xN2 •
sm2 2N •
nm

Prenons, pour fixer Ies idees, C1 = (2i)-1 ; Ies fonctions propres


correspondantes ont alors la forme
W:1= iz (exp ( n';n )-exp ( - ni;n)) = sin n;n.
Les valeurs propres "-f, ... , Â.~_1 etant distinctes, il en est de meme
. ., .
d es f onc t 1ons propres assoc1ees sm N , . . . , sm
nn
n(N-i)n C
N • omme
.
le probleme (2) est un probleme de valeurs propres pour une matrice
de dimension N - 1, nous obtenons un systeme complet de fonc-
tions propres; chacune des W~ est, lorsque m ~ O ou m ~ N, iden-
tiquement nulle ou proportionnelle a l 'une des fonctions m, ...
. . ., Wf-1 enumerees. Nous avons choisi par hasard un exemple oii
Ies nceuds Xn = nh du reseau verifient
W:'=wm(nh).
Cette egalite n'est pas vraie dans le cas general; cependant, la natu- .
re de la proximite des valeurs propres de ces problemes est egale-
ment caracteristique du cas general. Puisque cos x = 1 - 2
z2
+
+ (cos zt
8x) 24 avec I 8 I ~ 1, on a
2 9 9
'lh =_ N ( n m _ cos 8m ( ~ ) ' )
/"'11 XI N2 12 N '
ou bien
Â!!i= -(~)s
,X
+ cos12Bm ( nm
X
)4 h2• (4)

Cette formule montre que Â~ - Âm = O (h2 ) pour m fixe; d'autre


part, l'erreur absolue et l'erreur relative croissent de faţon monotone
avec m et, par exemple,
ÂN-f. -n2(N-1) 2 n2
Â~-1 = -4N2 . 2 n(No-1)
SlD 2N
-4•
10) RECHERCHE DES VALEURS PROPRES PAR DIFF~RENCES FINms 579

L'egalite (4) peut s'ecrire sous forme de l'estimation I Â~ - Âm I ~


~ C'J.,'f,,,k2 , avec C independant de Âm et k. Dans le cas de p (x), p (x)
deux fois contimîment derivables, on peut obtenir la meme estima-
tion.
Indiquons comment on peut obteni:r: une estimation du type
I Â~ - Âm I~ Co (Âm) h2 • (5)
Designons par w"' (z) la solution du probleme de Cauchy
w• - p (z) w = Âp (z) w, w (O) = O, w' (O) =1
et par w'~ la solution du probleme de Cauchy discret w~ = O, wt = h,

~+1-2w!+w!-1
h2

Les zeros de la fonctio~ g (Â) = w'>. (X) sont evidemment Ies valeurs propres
du probleme differentiel et Ies zeros de gh (A) = wt
celles du probleme sous forme
discrete. Les evaluations de l'erreur sur la solution de ce probleme de Cauchy:
(§ 2) fonttque ·
I Ch (Â) - g (Â) I~ C1 (Â) h2 •
On demontre a l'aide d'une technique standard que g' (Â) =fo O si g (Â) = o;
aussi la fonction g (Â) change-t-elle de signe dans le voisinage de chacun de
ses zeros.

Fig. 9.10.1

La fonction Kh (Â) (fig. 9.10.f) change elle aussi de signe a proximite des
zeros de g (Â) et ne s'annule pas loin de ses racines; c'est pourquoi Ies zeros
de gh (Â} et de g (Â) sont voisins, et le degre de leur proximite est evalua
,par (5) de ia maniere suivante. Soient '1,h et  deux racines voisines de Kh (Â)
. 37*
580 M8THODES DE R8SOLUTION DES PROBLtMES AUX LIMITES [CH. IX.

et g (A). Selon la derniere inegalite. I g (Ah) I ~ C1 (Ah) h2 ; cette in~lite s'ectit


I g (Ah) - g (Â) I ~ C1 (1-.h) h2
ou encore
I g' Ci} (Âh - Â) j ~ C1 (i..h) h2 ;
il en resuite
I M-l I ~ Ct (Â.h) h,2.
~ I g' {l) I
On minore ensuite I g' (Â) I dans le domaine avec I g (Â) I ~ C1 (}1,h) ht, puis
on demontre que le voisinage de chl:\_que zero de g (î..} ne contient qu'une seule
racine de gh (Â).
Afin de resoudre (1) avec une precision meilleure, on utilise des
approximations aux differences plus exactes quelconques de l'equa-
tion y" - q (x) y = O. Traitons un exemple.
Nous avons construit au paragraphe 1 un schema aux differences
qui approchait la derniere equation avec l'erreur O (h'):

(6)
(nous avons legerement modifie Ies notations). L'equation (1) se met
sous la forme consideree lorsque q (x) = p (x) Âp (x). D'ou le +
_probleme discret de valeurs propres

~~n -(Pn + ÂPn) Yn - A6 ((pn + ÂPn) Yn) = O,


2
(7)
n=1, ... , N-1, Yo=YN=O.
On montre que Ies valeurs propres de ce probleme satisfont a l'esti-
mation
)!- Âm = O (~h').
Le systeme d'equations (7) s'ecrit Ay - Wy = O, ecriture
formellement plus compliquee que (2) car la matrice B n'est pas
diagonale. En elevant la precision on voit apparaître des problemes
discrets ·qui ont de prime abord un aspect encore plus complexe,
a l'image de !'exemple suivant: on desire trouver  tel que le systeme
<Xn (Â, h) Yn-1 - Pn (Â, h) Yn +
'Vn (Â, h) Yn+l = O, (8)
n = 1, ••• , N - 1., Yo = YN = O,
stdmet une solution Yn non nulle.
Prenons le cas '\'n -;::fo O, fixons un certain Â, w1 =I= O (par exemple
.w1 = h) et determinons de proche en proche w~, ••• , w~ moyennant
la relation
<Xn (Â, h) W~-t -~n (Â, h) w! + '\'n (Â, h) W~+i = 0.' (9)
§ 10] BECHERCHE DES VALEURS PROPRES PAR DIFF1!:RENCES FINIES 581

Si w~.--:- O, Â_ est une valeur propre et w~ une fonction propre; si


w~ =#=. O, ce  n'est pas valeur propre du probleme (8).
On recherche Ies valeurs propres de (8) se confondant avec Ies
zeros de wtpar une methode iterative qui fournit Ies zeros d'une
fonction A partir de ses valeurs. Ce processus est parfois facilita:
en effet si la fonction w~ presente sur (O, X) j changements designe~
alors 1'-1 < Â < ÂJ+i·
En principe Ies formules de recurrence (9) sont Ies plus quali-
fiees pour le calcul des ·valeilrs de w~ pour Ies  divers.
L' algorithme de calcul des valeurs de w~ que nous proposons
coincide avec 1~ procede de resolution du probleme de Cauchy discreţ
pour (1). Si Ies solutions du probleme de Cauchy differentiel augmen-
tent fortement, on constate comme plus haut des erreurs de calcul
t~~ria~es.· · · ·
Les valeurs propres s'obtiennent egalement par balayage. Pas-
sons sur le principe de la methode et bornons-nous a acrire Ies formu-
ro'A.
Ies de calcu~. Posons 1. n = Cn; la relation (9) s'ecrit alors anCn-iCn-
WJi+1
- ~nCn + 'Vn = O, d'ou
Cn = ~ n-anCn-1
'Vn • (10J

Si wk et wk+i sont du meme signe, Cn est superieur a zero, dans le


cas contraire on a Cn < O. C'est pourquoi Ies changements designe
de Cn nous permettent de determiner le nombre de ehangements de
signe de w~. Le coeffieient Cn peut etre, nous l'avons vu au § 4, tres
important si bien que la methode en question s'applique le plus sou..:
vent a la reeherche de la premiere valeur propre. .
Voyons ancore un procede pour ramener un probleme aux limites
de valeurs propres a la recherche des zeros d 'une eertaine fonction.
Soit le probleme
y' - A (x) y -1'.C (x) y = O, By {O) = O, Dy (X)= O. (11)
En se donnant  et en realisant le balayage orthogonal on determine
suecessivement Ies matriees G8 (Xs), s = 1, ... , m. Si le systeme
d'equations (ef. § 6)

admet une solution non nulle, il en est de meme du probleme de


depart (11) et la valeur  eorrespondante est bien une valeur propre.
Ainsi, la recherche d'une valeur propre equivaut en l'occurrence
a trouver une racine de l' equation
det (DGm (Xm)) = O.
582 M~THODES DE R8SOLUTION DES PROBL'BMES AUX LIMITES (OH. IX

§ 11._ Optimisation de la repartition des points d'integration


La regularite des solutions des equations et systemes differentiels
peut varier d'un tron~on du segment d'integration a l'autre. E~
evaluant l'erreur dans la methode de Runge-Kutta nous avons vu que
la contribution de I'erreur d'integration sur un pas [x„ x1+11a l'erreur
totale etait proportionnelle au point xN = x 9 X au · facteur +
XN
exp ( Jfu (x, y (x)) dx) qui depend de j. On voit donc se poser, pour
Xj
certaines classes d'equations differentielles, la question de l'optimi-
sation de la repartition des points d 'integration. Supposons, pour
simplifier, que la condition initiale est donnee exactement et qu'il
n'ya pas d'arrondi. L'erreur sur le resultat de l'integration numerique
par la technique de Runge-Kutta au point xN ne depasse pas, se-
Ion (8.4.6), ·
N XN
SN = ~ IY1-Y1-1 (x1) Iexp· (
i=i x,J/u (x, YJ (x)) dx) • (1)

Soit x 1 = cp { t),
cp(O)=x0 , cp(1)=x0 +X, cp(t) une fonction regu-
liere. Conformement a la formule de Lagrange

Xj-XJ-1 =cp ( k)- cp (; N1 ) = ! cp' (t,),


j-1 - ;
ou -,r-~ti~N' et donc

H = max (x1 -x1_1) ~


O< i~N
! max Icp' (t) I, H-+ Opour N-+
[O, 1]
oo ;

l'estimation du § 4, chap. VIII entraîne, par consequent,


max \ YJ (x)-y (x) 1-+0
xo~=,~=~=o+x
pour N tendant vers l'infini. On acrit par suite Ies egalites
asymptotiques
xN xN
exp ( J/u (x, YJ (x)) dx) _, exp O/ (x, Y (x)) dx} ,11
=1 =1
. k
Y1-YJ-t (x1) _, lj, (xJt y (x1)) (x1-X1-1) +1 _,

-- w(cp ( i ), y ( cp ( k ))) (! cp' ( k))"+1 •


§ 11] OPTll\USATION DE LA REPARTITION DES POINTS D'INT~GRATION 583

L'expression (1) de SN se met alors sous la forme


N

SN _, i1i ~ t <I> ( 1 )'


j=i
(2)

ou
xo+X
<I> (t) = I 'I' (cp (t); y (cp (t))} I(cp' (t)) 11 +1 exp( J /y (x, y (x)) dx). (3)
(l)(t)

Lorsque <I> {t) est reguliere et N tend vers l'infini, la quantite


N
~
·i=i
! <I> ( 1}a pour limite
1
I= j <D (t) dt (4)
0
et done
1
s N _, N-" J<I> (t) dt.
o
·Prenons q> pour nouvelle variable dans !'integrale I. Celle-ci s'ecrit
alors
=o+X
1= 5 L(cp)dcp 1
~o
avec
=o+X
L (cp) = I 'I' (cp, y (cp)) I (t' (cp)r" exp ( J / (x, y (x)) dx) .
11 (5)
IP

Minimiser cette integrale sous la forme (4) grâce a un ehoix eon-


venable de cp (t) equivaut a la minimiser sous la forme (5) en
choisissant cette fois la fonetion inverse t (cp). Vu l'egalite ~~ =0,
1~equation d 'Euler
d ( 8L ) {)L
dq,° ai' -ae=O
s'eerit dans ce cas ! (!t )= O; il en resuite
· xo+X
!~ = -k I 11> (cp, y (cp))I (t' exp ( J /
(cp))-"- 1 11 (x, y (x)) dx) = const.
IP
584 M~THODES DE R~SOLUTION DES PROBU:MES AUX LIMITES [CH. IX

On obtient en revenant a la variable cp :


%0+X
(cp' (t))k+ 1 I lP (q,, y (cp)) Iexp( Jfu (x, ii (x)) dx) = C1.
q>
(6}

La solution de cette equation differentielle depend de C1 et d 'une


constante C2 gui se deduisent a partir des conditions aux limites
cp (O) = x 0 , cp (1) = x 0 +
X. On legitime ces constructions pour
,p (cp, y (<p)) ou
xo+X
exp ( ) / y (x, y (x)) dx)
q>

non bornes ou non reguliers par Ies memes considerations que dans
le probleme d'integration numerique. D'autre part, ce que nous avons
dit sur l'utilisation pratique de la relation (6) reste en vigueur pour
ce dernier probleme.
Indiquons une circonstance non evidente. L'equation (6) peut s'ecrire
cp

(q>' (t))k+i I ,p (q>, y (q>)} I exp ( - j /y (z, y (z)) dx) = C, (7)


o 1i:,

ou ne figurant ni le point initial, ni le point final d'integration. Cette equation


est verifiee par q> (t) et q> (at +
b). En nous donnant un certain N, integrons
simultanement l'equation de depart et (7) en choisissant a chaque fois Ies pas
!
a partir de la condition z1-z1-i - q>' (t1_1). 11 est tres probable que nous .
arrivons au point final z 0 + X avec un nombre de points N1 different de N
et cette repartition ne sera pas alors la repartition optimale correspondant a N
donne. Ce qui est natural puisqu'en demarrant les calculs nous ne pouvons rien
dire sur le comportament futur de la solution ni sur la valeur de C a prendre
dans le second membre de (7). On montre neanmoins que par suite des proprietes
indiquees de la solution de (7) q> (t) est bien la fonction cherchee et q> (//N1)
la repartition O:Qtimale (a l'erreur d'integration numerique pres) correspondant
au: nombre N,._ ele points.
La necess1te de calculer Ies valeurs de la fonction ,p (z, y (x)) entrave l'inte-
gration immediate des equations (1) et (7). On ferait mieux, au lieu de chercher
directement cette fonction, d 'utiliser le controla de l' erreur par pas. En integrant
numeriquement (7) on tiendra egalement compte du caractere asymptotique de
ces relations. Au voisinage des points en lesquels ~ (z, y (z)) = O, ce sont
Ies termes en (z1 - z1_1)1i'+2 qui deviennent essentieli; dans le reste.
L'integration numerique complementaire de l'equation (7) risque de com-
pliquer singulierement la resolution du ~robleme. Aussi pour optimiser la repar-
tition des points opere-t-on souvent de la sorte. Soit a resoudre des problemes
d'une classe donnee. Traitons un probleme qui soit un modele pour cette classe
et tel que l'equation (7) admette une solution explicite. Etablissons, sur !'exem-
ple de ce probleme, entre le pas (ou la mesure de l'erreur par pas (cf. § 3,
chap. VIII)) et l'allure de la solution une relatioil telle que la repartition des
points soit voisine de l'optimum. Integrons ensuite tous Ies problemes de la
classe avec un pas correspondant a cette relation.
§ U] OPTIMISATION DE LA R:ePARTITION DES POI:NTS l)'INllGRATION 585

Dans d'autres cas, une certaine forme de cette relation est donnee d'avance„
Soit un systeme d'equations d'ordre m que l'on inte~e avec verification de-
l'erreur par pas d'apres les form.ules (8.3.2). S'il s'agit d un systeme d'equationst-
le terme de contrâle r est un vecteur rn =:= (r~, ••• , r~). Dans plusieurs pro-
grammes le pas d'integration est choisi a partir de la condition
lf rn 11/(max (M, li Yn li))~ s = const,
ou a partir de la condition suivante qui est plus souple,
Ir" I .
max n . ~ s=const.
1~~m max ( I Mk I, l(Yn)h I)
Les parametres M, Mk sont choisis A partir de l'optimalite de la repartitioDJ
des points dans le probleme propose. .
Voici quelques exemples d'optimisation.
Supposons que le probleme de Cauehy y' = My avee la eonditiolh
initiale y (O) se resout par la methode d'Euler. Alors
1 ·
--M2-y (O) exp (Ma:)
9
lJ, (x_, y (x)) = - 2 y" (x) =
et l'equation (6) s'ecrit
, Af2
(q>i)2 2 I y (O) I exp (Mq>) exp (M (X ~cp)) = const.
D'ou (f)t = const, i. e. îl faut preridre une r~partition uniforme~
PROBU~ME. SupJ)osons que la mesure de l'erreur par pas p s'obtient (de-
mâme· qu'aU: paragraphe 3 du chap. VIII) comme la difference entre une vale~
ap_prochee au bout d'un pas double et une valeur aJ!râs dewc pas identiques.
Verifier que la repartition est uniforme, i.e~ optimale, si
-2- j ~ s=const.
1 Yn ·
Traitons le probleme aux limites µ 2y" - y = f (z) sur le segment [O, 11
pour y (O), y (1) donnes et µ faible. 11 y a interât a etudier les methodes de reso-
lution de ce probleme en tant gue modele de problemes avec couche limtte. Sa.
solution pour f (z) = O est ·

y (O) ( exp ( -f )-exp· ( T) )


+
y(z)=
1-exp ( - !)
y(i) ( exp (T }-exp { - ~ ) )
+ 1-exp ( - !)
En derivant directement on voit que

I y<k> (z) l=O ( µ~ y (O) exp ( - ; ) } +o ( :k y (1) exp ( z µ


1
)) •

Lorsque f (z) $ O, cette estimation devient


1
I y<h> (z) 1=0 (. µ " exp (_::))+O ( µ1" exp ( x µ 1)) +o;(~). (8►
$6 MSTHODES DE RSSOLUTION DES PROBLtMES AUX LIMITES [CH. IX

Ainsi, les proprietes de derivabilite de la solution empirent brusquement pour µ


.petits au voisinage des points x = O et z = i, et on appliquera donc dans
-ce voisinage un pas d'integration plus petit. Donnons-nous Ies points d'integra-
tion ZJ = q> { 1}, q> (O) = O, q> (1) = 1, et rempla9ons la derivee y" (x1) par
J.a difference divisee double y" (zJ) ~ 2y (x1_1 ; x1 ; x1+1). Nous aboutissons au
::systeme d'equations aux differences
YJ+i - YJ Y1- YJ-1
ZJ+t -Xj XJ-ZJ-1
l(y1)=2µ2 - - - - - - - YJ=fJ, (9)
ZJ+t-ZJ-1
j=1, ••• , N-i, Yo=g(0), YN=y(1).
'.En exprimant la difference divisee moyennant la derivee ii vient
2y (ZJ-1 ; XJ ; ZJ+d = y" (tJ),
.avec z1-1, t1 ~ ZJ+t• Aussi
rn = l (y (xn))-fn = µ.2 (y" (tn)-y" (zn)) = iL2 c,n-Zn) y< 3> (11n). (10)
'D' ou l' inegalite
I rn I·< O'n = µ2 (max { I Zn+1-zn I, I Zn-Xn-1 I)) ( max J y< 3>(x) I). (11)
[xn-1' xn+tl
Nous trouvons a l'aide de (9) et (10) ,
l {R1) = -r1, j = 1, ••. , N -1, R 0 = RN =·O, (12)
-donnant l'erreur sur la solution approchee Rn = Yn - y (zn>• 11 faut ensuite
-0btenir une representation asymptotique de l' erreur, puis poser et resoudre
le probleme asymptotique correspondant du calcul des variations.
Si nous voulons minimiser le maximum de l' erreur non _pas en des points
4soles mais sur le segment tout entier, nous aurons a effectuer de longs
-calculs. C'est pourquoi nous rempla9ons le _probleme d'optimisation par un
..autre, plus simple. Le lecteur est prie de verifier que
max I Rn I~ max I rn I•
n n
,n s'ensuit
n n
<
max I Rn I max I O'n I•
.:Soit a minimiser le second membre de cette inegalite. Lorsque N-+ oo, on a

O'n - i;; q>' (n/N) Iy'" ( q> { ~ } ) I•


·Donc, ce probleme asymptotique revient a minimiser
z (q,)= max q>' (t) I y< 3> (cp) I
[O, 1)
-dans Ies conditions q> (O) = O et q> (1) = 1.
Montrons.Lque la borne inferieure de s ( q>), egale a
t; r1,
1

zo= ( Jo I y< 3> (t}) I


-est "'."atteinte pour q,' (t) = ( I y< 3> (q> (t)) I z0 )-1 • Supposons, en effet, qu'une
tfonction q> (t).satisfait, avec t quelconque, & l'inegalite q>' (t) I y<3>(q> (t)) I < Zo;
12) ERREUR EN FONOTION DE L'lORITURE DE L'~QUATION 587

U en decoule
cp'(t) < I y< 3>(cp (t)) 1-1zo•
En integrant de O A 1, il vient
1
1=cp (1)-cp (0) < JI y< 3> (cp {t)) 1-1 zo dt= 1,
o
d'oii contradiction.
Pour ce cp'(t) on a
µcp' (t) I y<3>(cp (t)) I = µro1 = const. (13)
Dans le cas considere, selon (8),

exp ( - ; ) +exp ( :r: ~


1
I y< 3> (t) I~ c ( : 3 ( ) ) + 1) •
Considerons donc, au lieu. de {13), l 'equation
1
cp'{t) ( :s ( exp ( - ; ) +exp ( cp µ ) ) +1) =const.

Cette equation· et Ies conditions aux limites cp (O) = O, cp (1)··= 1 determinant


de fa9on unique la fonction ~ (t).
Notons qu'en realite l'ori::lre d'approximation du schema considere est
deux, ce dont il faudra tenir compte lorsqu'on choisira la repartition des points.

§ 12. Influence de l'erreur de calcul


en fonction. de l'ecriture de l'equation
aux differences finies
On sait que la croissance de l' erreur de calcul varie selon la
technique de resolution des equations differentielles. On se propose
maintenant d'etudier un probleme particulier important: comment
l'erreur de calcul depend-elle de l'ecriture de l'equation aux diffe-
rences finies? Bien que Ies raisonnements soient faits sur !'exemple
duJprobleme de Cauchy, ils valent egalement pour Ies problemes aux
limites. Adressons-nous par exemple a la methode d 'Euler
Yn+1 = Yn hf (xn, Yn). + (1)
Les ca_lculs effectifs donnent Ies quantites y! reliees par
(2)
le terme cSn est, nous l'avons dit, le resultat des erreurs commises en
.calculant Ies valeurs de la fonction / (xn, y:); de l'erreur d'arrondi
~ur le produit hf (xn, y:); de l'erreur resultant de l'addition des
nombres y: et de la valeur arrondie hf (xn, y:).
Introduisons la notation y: -
Yn = An; conformement a la
formule de Lagrange,
f (xn, y:) - f (xn, Yn) = lnAn
588 M:mTHODES DE R:msoLUTION DES PROBL'lmES AUX LIMITES [OH. IX

avec ln = fu (xn, Yn). Supposons qu'on a toujours I fu (x, y) I~


~ L. En retranchant (1) de (2) nous trouvons

An+l = (1 + lnh) An + 6n,


d'oii
I An+i 1~(1 +Lh) IAn I +6, 6=max 6n. (3)
n
Considerons l' equation aux differences
Zn+i - (1 + Lh) Zn + 6,
appelee equation majorante de (3). Sa solution s'ecrit, dans la condi-
tion initiale z0 = I A 0 I:
z~=IAol(t+Lht+6 (1+.r:r- 1

LEMME.

quels que soient n O.~


D:mMoNsTRATION. La proposition (4) est evidente pour n = O„
Supposons qu'elle est vraie pour un certain n. Alors
z:
I An+1 I~ (1 + Lh) + 6 = Z:+1,
ce qui demontreje lemme.
Si le segment d'integration est [x0 , x 0 + X], alors
nh~X, (1 + Lht ~(exp (Lh))n ~exp (LX).
Selon la formule de Lagrange

et donc
(1 + Lht - 1 = n (1 + 8Lht- Lh,
1
oii O ~ 0 ~ 1.
II en resul te·
(1 + Lh)n - 1 ~ nLh (exp (Lh))n-1 ~ LX exp (LX).
L'estimation definitive a la forme
I An I~ Iz~ I~ I A 0 I exp (LX)+ 6Xh-1 exp (LX).
Soit A0 = O. L'erreur An =
fixe, par O (6h-1).
y: -
Yn est alors majoree, pour X
·
On ne saurait ameliorer l'ordre de cette estimation. Ainsi, lorsque
A0 = O, fu ==
O, 6n 6, on a An+i = An + 6 et donc
==
. AN = N6 = 6Xh-1 •
Nous pourrions tres bien, au lieu d.'une evaluation rigoureuse, nous
borner a des raisomiements vraisemblables, d' oii il decoulera que
t 121 · ERREUR EN FONCTION DE L'~CR"ITURE DE L'~QUATION 589

l'erreur d'arrondi peut âtre une quantite en f,h,-1 • La ·relation


Y:+1 = y: + kf (xn, y:) + ~n
.se recrit

-ou
.f* (xn, y:) = f (xn, y!) + 6nh-1 •
Ainsi, l'integration numerique avec arrondi de l'equation y' =
= f (x, y) donne le mâme resultat que l 'integration sans arrondi de
1a mâme equation dont le second membre prend Ies valeurs aux points
J* (xn, y:) du reseau. Traitons le cas Bn == 6. La difference entre
-Ies solutions des equations differentielles
y' = f (x, y) et y' = f (x, y) /Jh ~1 +
-est de l'ordre de la difference de leurs seconds membres, i.e. f,h-1 •
;Rien ne fait penser que Ies solutions des equations aux differences
Yn+i = Yn +hf (xn, Yn) et Y:+i = y: +
h (f (xn, y:) Bh-1) +
different d'une quantite d'un ordre de grandeur moindre. Si 6 est
en 2-t, ou t est la longueur des nombres en machin~ la solution
-de l'equation aux differences varie d'une quantite de l'ordre de
2-th,-l. · .
. 1
Nous ~vons admis 6n = B. Considerons le probleme de calcul de J/
(z).d:e1
o
-cas particulier du probleme en question pour y (O)= O. Soit/ (z) =
2/3/. h =
>
= 2-k, t-k impair. Lorsque zn 3/4, Yn se trouve dans l'intervalle (112, 1).
Dans l' addition
+ Yn = O, 1a2 • • • . • .at
hfn=0, O •.. 010 ••• 1010101 •••
.__'--v--'
k t-k
.:.avec arrondi, chaque fois on laisse tomber alors Ies quantites
2-t ·0,0101 ... = (1/3) 2-,.
'Si bien que sur ce segment Bn = B est effectivement de l'ordre de 2-t.
Passons a l'integration de l'equation y" = f (x, y) par la methode
-simple de Stormer
Yn+1-2Yn +Yn-1 -f (x Y )
h,. - n, -n
-salon la formule de calcul
Yn+l = 2yn - Yn-1 +
h2/ (xn, Yn);
les valeurs y: obtenues reellement sont reliees par
Y:+1=2y!-Y:-1+h2f (xn, y:)+fJn. (5)
590 M:eTHODES DE Rl!1SOLUTION DES PROBI.DES AUX LIMITES [CH. IX

On peut considerer ces valeurs comme le resu.ltat du calcul sans


arrondi par la formule
Y:+1 = 2y:-Y:-1 +h2j* (xn, y:),
ou

Traitons le cas 6n == 6. Les solutions des equations differentielles


y n = f (x, y) et y" = f (x, y) + 6h- 2
different d 'une quantite en 6h-2 • On montre que dans le cas de l' equa-
tion y" = <;"i, a = const, on a eventuellement 6n == 6 avec 6 de l'or-
dre de 2-1• Comme pour l'equation du premier ordre nous en concluons
que l'erreur de calcul totale dans l'algorithme examina peut etr&
en 2-1h-2 •
Prenons le cas ou une telle erreur est inadmissible. Nous pour-
rions acrire l'equation consideree sous forme de systeme d'equations
du premier ordre
y' = v, v' = f (x, y) (6)
et faire appel a une technique d 'integration numerique. Comme si-
gnale plus hâut, il en resulterait une efficience moindre car Ies metho-
des generales ne tiennent pas compte du ·caractere specifique de ce-
systeme.
Tâchons d'ecrire la formule de calcul consideree comme un&
formule d 'integration du systeme (6) et introduisons la nouvelle
variable discrete
Yn-Yn-1
h
l'equation (5) se recrit alors
Zn+1-Zn
h,
-
-
/ (x n, Yn ) •,

trouvons Ies valeurs consecutives de Yn, Zn a l'aide du couple de for-


mules
Zn+i = Zn + hf (xn, Yn), Yn+i = Yn + hZn+i• (7)
S'il y a arrondi, nous avons respectivement
z:+1 =z:+hf (xn, y:) +an, Y:+1 = y:+ hZ:+1 +~n
avec an, ~n = O (2-'). Ces relations s'ecrivent · egalement
z:+1 = z: + hf* (xn, y:), f* (xn, y:) = f (xn, y:) + tXnh- 1, (8)
Y:+1 = y: + h (z:+1 + g (Xn+1)), g (Xn+1) = ~nh-1• •
Si Ies formules (7) s'interpretent comme Ies formules d'integration
numerique du systeme z' = f (x, y), y' = z, Ies relations (8) corres-
§ 121 ERREUR EN FONCTION DE L'iCRITURE DE L'iQUATION 591

pondent au systeme
z' = f* (x11 y), y' = z + g (x).
La difference des seconds membres deces systemes est une quantite-
de l'ordre de O (2-'h-1 ). C'est pourquoi il y a des chances pour que-
les solutions du probleme aux differences avec arrondi et de celui
sans arrondi different d 'un nombre du meme ordre de grandeur.
Cette affirmation appelle, cela va sanş dire, une attitude critique,
car pour certains schemas aux differences finies des erreurs faibles;
peuvent, nous l'avons vu, perturber catastrophiquement le resultat.
Nos raisonnements sur l'influence de l'erreur de calcul dans des;
methodes concretes d'integration des equations du premier et du
deuxieme ordre s'appuient uniquement sur Ies proprietes du schema-
aux differences finies qui sont liees a l'ordre de l'equation diffe-
rentielle. Ils s'etendent donc probablement a d'autres methodes des:
differences finies. Ainsi, si I'on integre l'equation y<k> = f (x„ y)
et si on utilise directement le schema
l
V"Yn -h" ~ a_if (Xn-h Yn-,) = O,
i=O

I'erreur de calcul sera probablement de I'ordre de 2-'h-". Aussi,.


dans le cas d'equations d'ordre eleve, il est encore plus important
de transformer le schema de fa~on A reduire l 'influence de I' erreur-
de calcul. Comme pour k = 2, on introduit par exemple Ies variables-
auxiliaires ·
z! = Viynh-i, i= 1, : .. , k.-1.
Essayons d'expliquer l'amelioration du schema aux differences
(5) lorsqu'on passe aux formules de calcul (7) du point de vue de la
quantite d 'information conservee. Dans le cas de la formule (5}
sont implantees en memoire, pour chaque n, Ies quantites Yn-i,~Yn,
sur lesquelles on va determiner Ies valeurs y1 suivantes. Soit,~pour-
, fixer Ies idees, 1/2 ~ Yn-i, Yn ~ 1 et I Yn - Yn-i I~ Mh. Alor~
la cellule oii est logee la valeur Yn-i = O, 1a 2 • • • at est!a t - 1
bits a 2 , • • • , at independants; Ies bits du nombre Yn = O, 1~ 2 • • • } ~t·
ne portant plus d'information nouvelle. La difference Yn - Yn-i =
= ±0, Oy2 • • • v, a un module inferieur a 2-z, oii l est le plus-
grand entier tel que Mh < 2-z. C'est pourquoi
Yn - Yn-1 = ±0, O ••• Oyz+i •.• yt,
et t - l + 1 bits (signe de difference et Vz+i, ••. , 'l't) suffisent.
pour se donner Yn - Yn-i, donc Yn· Evidemment l _, log2 ((Mh)-1),.
et, par consequent, la quantite d'information independante qu'on
a au total pour chaque n est d'environ 2t. - log2 ((Mh)-1) bits ..
592 M8THODES DE R8SOLUTION DES PROBLEM:ES AUX LIMITES [CH. IX

Dans le calcul selon la formule (7), tous Ies bits occupes par. Ies
nombres Yn et Zn sont independants et l 'information sur la solution
est donnee par des signes binaires .independants.
Le fait que dans le second procede la quantite d 'information
independante est superieure ne signifie pas pour autant qu'il est
meilleur. Car l'information complementaire peut s'averer vide de
toute signification, d'ou l'impossibilite .de preciser 1~ solution.
Montrons que l'inforrµation complementaire a un sens dans le deu-
xieme procede.
Pour definir a O (e) pres une solution d'une equation differen-
tielle d'ordre 2 il faut se donner avec la meme precision Ies valeurs
de la solution et de sa derivee en un point. Dans le cas d 'une equation
.aux differences ces quantites sont Yn et Yn -,/n-t .
En nous don-
nant, dans le premier procede, Ies valeurs de Yn et Yn _1 avec t signes
binaires, nous determinons Yn -hYn- 1 avec une erreur en O (2-th-1),.
L'information a notre disposition nous permet donc de trouver Ies
valeurs suivantes de la sohition du probleme discret avec une pre-
-cision de O (2-th-1) (si tous Ies resultats ulterieurs sont strictement
•exacts). Dans le second procede, nous avons Ies valeurs de Yn et
.Yn-,,,Yn-t a t bits et nous pouvons determiner la solution du pro-
11
bleme discret .a O (2-t) pres. Ainsi, l'information complementaire
en question a bien un sens. A chaque pas de l'integration numerique
reelle Ies erreurs d'arrondi apportent une indetermination supple-
mentaire dans Ies valeurs du vecteur {Yn, Yn ~Y n-t) ,
qui ,est en
O (2-t/h) la premiere fois et en O (2-t) la deuxieme. Si bien que l'er-
reur de calcul totale sur la solution peut· etre de l'ordre de O (2-t/h2)
_pour le premier procede et de O (2-tJh) pour le second.
Indiquons une technique d 'evaluation pratique de l' erreur de calcul
par changement d'echelle. Soit a resoudre le probleme de Cauchy
: ~·f (x, y), y (O)= a 11
par une methode. Le changement de variables x = µt 1 y = ÂZ
ramene ce probleme a
: =~ f(µt, Âz),' z.(O) = ~.
Supposons que dans le premier cas on a •integre avec Ies pas hi et
integrons numeriquement le second probleme par la m,eme methode
mais avec Ies pas hi = hi/µ.· · ·
S'il n'y a pas d'arrondi, Yi ==')..,zi; si  et µ ne sont ni l'un ni
l'autre des puissances entieres de deux, la difference entre Ies valeurs
effectives y I et Âzi donne generalement une idee de la grandeur de
l'erreur de calcul. On prend par exemple µ = V3, ·Â = y2.
§,131 . ERREU~·PE CALCUL·DE.~ROBLBM:E·R~SOLU .PAR BALAYAGE . 593

Dans une integration avec une recherche automatique du •:pas> on


fera attention a choisir la nouvelle yaleur du parametre s et le pas
de depart h 0 de sorte que hi = hi/µ pour n'impor:te qu~l J (c~sultel!
pour Ies details § 17, chap. ~II).

§ .13 .. Evaluation de l~erreur.de calcul


.pour un probleme limites. iesolu ·aux
par la methode du balayage
Nous avons promis,' Îorsq~e no~s avons p~rle des methodes nume-
riques de l'algebre, de donner un exemple d'evaluation de l'erreur
de calcul resultant de la resolutioi:J.. des systemes algebriques par la
methode de Gauss~ Faisons-le pour le systeine d'equations algeb~i-:-
ques apparu lors de I' ap.proximation du probleme (1.3), (1.4). · ·
Le systeme en question s'ecrit
YJ-1 - (2 + PJh 2
) YJ + YJ+ = f Jh ,'j = 1,
1
2
... , N -1, Yo = a, y;,; = b. (1)
D.ans l'algorithme d'elimination de Gauss applique aux inconnues dans l'ordre .
Yo~ ••• , YN-l• le calcul s'effectue par . . · ·. · •
Cn+l = (2 +
Pnk2 - Cn)-1, n =, O, •.• , N - 2, Co= O, (2)
'Pn+1 = Cn+1 ((J)~ - /n+1h2),. n = O, ••• , N - 2, (J)o = a, (3)
puis par
Yn = CnYn+l + q>n, ,n =
N-::-- 1, • • •, 1. (4)
Tout nombre .z, resultat d'une operatiori ·arithmetique sur deux nombres
en maehine, est ensuite arrondi a un certain z* = z (1 +
e); ceci etant, d'or-
dinaire I s I~ 2-t, ou t est la longueur des nombres en machine~ Supposons
que la derniere· inegali te est toujours valah le. Designons par Ies lettres grecque&
des quantites de module inferieur ou egal a une constante âbsolue multipliee par
2-t et par z* une valeur calculee de z. Du moment que nous nous interessons
ar erreur de calcul commise au cours de la resolution du systeme, admettons,
par souci de simplicite, que Ies coefficients a, b, 2 + p1h2 , /Jh 2 sont donnes
sans arrondi. Dans le cas contraire, Ies relations (2), (3), (4) se mettent sous
la forme
Cl+1 = (1: (((2+ Pn+th2)-C:) (1 +J3n))) (1+an), (5)
<p:i+1 = (C:+1 ((<p~ -/n+th2) (1+yn))) (1 +an), (6)
ll:i=((C~y~+1 } (1+oon)+q>:i} (1+6n), (7)
Chaque parenthese de la forme (a•b) avec • le symbole d'une operation arithme-
tique, est suivie d'un facteur 1 +s correspondant A cette operation avec
arrondi. On recrit (5) :
C~+t = (2 + Pl+1h2 - qn-1,
ou
(2+ Pn+tk2 -C~) (~n-1Xn)
~+1 = Pn+t + gn+t, Cn+t (1+an) h9
(8)

La relation (7) prend la forme


. yf
1+an
31-01007
594 Hli:THODES DE Rl!:SOLUTION DES PROBLEMES AUX LIMITES [CH. IX

ou encore

,., *
dn = ©nCnYn+1 + 1Y~<'>n
+ l>n •

Portons q>i = q>:* - d 7p q>:+1 = <p~':1 - dn+i dans (6) ecrit comme suit :

il vient
'P~!1-dn+1
(i+Yn) (i+ <1n)
D'ou.

/1&+1-fn+t = qn+i =

(9)

Les egalites ci-dessus entraînent que Ies valeurs y:


calculees coincident avec
Ies valeurs obtenues lors du calcul sans arrondi du systeme

Yf-1-(2+pfh2 )Yj+Yf+1:=fţh2 , j=1, ... , N-1,


(10)
yţ=a, yţ,=b.

L'evaluation de l'erreur de calcul s'est donc ramenee a l'evaluation du


degre de proximite des solutions des systemes (1) et (10) a coefficients voisins.
Ces systemes peuvent etre ecrits sous une forme plus corn.mode

lh (YJ)
Yi+i - 2yJ + Yi-1 PiYJ=/J, (11)
1,,2

Yf+1-2Yţ+Yf-1
zi (Yf>= h2 pţyţ=Jţ. (12)

Limitons-nous au cas p (z} ~ O ou l'estimation d'erreur s'obtient d'une maniere


particulierement simple et supposons I Pnh2 I ~ 2 et I f nh2 I ~ const. En
retranchant (12) de (11) nous avons ·
l (Rj) = f J - fj + (pj - PJ) Yf = VJ
donnant I' erreur R i = yi - Yf • Par suite du lemme du § 1 on a

m:X I RJ I<
.,
! m!U l
'
VJ I<: ! (m~x) I f 1- fţ I+ (ma~ I PJ-P11) m~x I Yf I). (13)
' . ' 1
Tout nombre non inferieur a 23 (s entier) est arrondi a une valeur 2a au moins
et tout nombre non superieur a 23 a une valeur 23 au plus. Evidemment C1 =
- 2 P h2 ~
1
+ 1
! ; ! c:
si ~ ~ 1, tout ce que nous avons dit plus haut et la
13] ERREUR DE CALCUL DE PROBLm\lE Rl!JSOLU PAR BALAYAGE 595

formule de recurrence (2) entraînent


1 f
C~+l 1
2-CŞ:
<-1-=1,
2-1 c:+l > 4-c: > T·
Ainsi,
maxJ c:; I <1, max I
n n
ccu-1 I <4.
Vu (8) nous avons l 'estimation
max
n
I g n I < C'2-th- 2 ;

ii resuite de (9) :
I q.,. I < C"2-th-a ( I Yt-1 I+ I u: I+ I Y:+1 I )
et, par censequent,
max I qn
n
I < C"'2-th- 2 max I
n
y: I.
Portons ces estimations a droite dans (13); ii vient
m~x I Yi-Yf I< co2-th-2 m~x I YJ I,
, J
ou ancore
(14)
Nous avons evalua la solution approchee du probleme discret par sa norme.
Faisons de me.me pour la solution exacte. La demiere inegalite implique
li y* li ~ li Y li + C02-th-2 li y* li,
d'ou
(t-c02- 1h-2)IIY*ll<IIYII, llu*ll< 1
_c'~;!~- 2
,

lorsque 1 - C02-th2 >O; le report de cette estimation dans le second membre


de (14) fournit ·
co2-th-2
li y-y* li< 1-co2-th-2 fi y li,
Si l'on peut evaluer directement l'erreur de calcul a l'aide des coefficients
du systeme initial, on pourra utiliser l'inegalite
1
m~x I yi I < max ( I Yo I, I YN I ) + 4 ~x I /J 1-
J J
La grosse erreur due au calcul avec arrondi semble attester la qualite
mediocre de la methode decrite pour le systeme (1). Or, une erreur de cet ordre
de grandeur resuite deja de l'enregistrement me.me du systeme. En general, le
coefficient 2 +p 1h 2 est loge en machine avec une erreur d'arrondi e1 de l'ordre
de 2-t, i.e. ce coefficient s'ecrit s1 = 2 p 1h2 +
e1, ou encore +
s; = 2 + P1-h 2
, Pj = PJ + B;h- 2

Ainsi, cet arrondi equivaut a perturber le coefficient PJ du systeme initial d'une


quantite en 2-th-2 • Conformement aux raisonnements du paragraphe 15 du
chapitre precedent, cette circonstance est susceptible d'induire sur la solution
du systeme (1) une perturbation du mâme ordre.
Pour reduire sensiblement l'erreur sur la solution de (1) il faut au moins
se donner celui-ci sous una forme ou l' erreur d' arrondi sur Ies coefficients du
38•·
596 DTHODES DE R8SOLUTION DES PROBL~MES .AUX.LIM;IŢES. [CH, IX

systeme equivaut a des perturbations notablement ·m,oindre.s.. des ~oeffiqiQµ,t~


du probleme differentiel de depart. A cette fin, on passe par exemple au systeme
Yi-Yi-1 ZJ+t-Zj
h, Zj, h PJYJ= IJ•

Au liau des relations de râcurrence (2), (3) relativement aux coefficients C1,,.
cpk on utilise respectivement les relations recurrentes ·(4.9), {4.10) sur a.k, Pk•

Bibliographie du cbapitre IX
I [1, 4, 11, 17], II [1, 20, 28, 29, 31]; § 1: II [19}, III [16}; § 2: II [28},
III [8, 42]; § 3: II [6], III [4, 20]; § 4: III [43]; § 5 : III [40).; §§ ,6, 7~.
III [1, 2, 3, 4, 20, 21, 86, 52]; § 8: II [1, 29, 32]; .§ 9: II (28], III [14,
28, 37, 39, 42]; § 10: II [29, 34], III [38, 51]; .§ U: III (12, 49, 50]; § 12:
II [1, 31], III [8]; § 13: III [8]. . , ....
BIBLIOGRAPBIE

I. Ouvrages d'enseignement
1: BepeaHB H. C., il{Hp,Kos H. n., MeTOAhl sLNHcneimii, T. 1, « HayKa »,
1966, T. 2, <J>RaMaTI'DB, 1962.
2. BoeBOAIID B. B., qucnem1i1e MeTOAhl a.nre6p1i1. Teopua II a.nropnqiMhl,
~, Hayxa >>, 1966. .
3. rasypua M. K., JleK~n no MeTOAEUI swmcneHD:iî:, « HayKa », 1971..
·4: foAYBOB C. K., P.n6eu&KHB B. C., Paauocm&1e cxeMhl (sBeAeBDe B Teopmo),
<< Hayi<a >>, 1.973.
5. Kp&IJIOB' A. ' H.' JleK~Dll o npu6JID)KCBB&IX BLJ11HCJI8Jm.JJX, rocT8XH3A8T,
M.-JI., 1950.
6. Kp1.JJion··B. H., Ilp:u6.n11meBBoe nwmcneuue llBTerpaJioB, << Hay1ca », 1967..
7. KpliUIOB B. H., Bo6KOB B. B., MouacT&IpB&Iiî n. H., B&11DICJIDT8JILB&1e
' . MeTO)J.Ll BLICmeii M8T8M8THKB, 1, <<BLimaima.n WROJia>>, MllBCl(, 1972.
8. M:eKenan.ae m.. E., qucneBBLie MeToµ,:&111aTeMaTJAecKoro aua.nuaa, rocTex-
.' H3~8T,· 1953.
9. <1>8)Uleen ,n;. K., <I>aAn.ecna B. H., BLI'l!HCJI11Ten1:,u&1e MeTOA&I JIHBeiîBoiî an:re6-
. ·· ·p1,.1, <I>iiaMaTrua, 1960. ,Trad. and. Computational metbods of linear algebra.
> ·w. ·H. Freeman and Cy., San Francisco, 1963.
10. Collatz L., Funktionalanalysis und numerische Matbematik, Springer
Verlag, i964. - · -
11. Collatz L., Numerische Behandlung von Differentialgleicbungen, Berlin
(Springer), 1951. · · .
1~. Forsythe G. E., Moler C. B., Computer solution of linear algebraic sys_tems,
· -, Englewood Cliffs (N. Y.), 1967.
13. Hamming R. W., Numerical methods for scientists and engineers, N. Y.
. (a. o.J, · McGraw-Hill, 1962.
14 .. Householder A. S., Principles of numerica! analysis, McGraw-Hill, New
York, 1953.
15. · Lanczos C., · Applied Analysis, Prentice Hall, Englewood Cliffs, N. Y.,
1956.
16.· M-ilne· W. E., Numerica! Calculus, Princeton U. P., 1949.
17. Milne W. E., Numerica! solution of differential equations, New York-
. L~ndon/. 1953.
II. Monographies et ouvrages divers
·1. BaXB8JIOB H. C.' BLl'l!B.CJillTCJihBhle M0TOAL1 pememui o6hIKBOBeBBLIX µ,HqJ-
cf>epe~aJlbBLIX ypaBBeBB:e:, JfB-T RH6()pnem1rn: AH YCCP, Rnee, 1970.
-2. BycneuKo• H. Il., illpeiîAep IO. A., MeToA cTaTncm'l!ecKBx · ucnhlTannii
(MonTe-Rapno) B ero pea.nuaa~BJl Ha ~IIqJpOB&IX BLl'l!HCJIBTeJILBLIX MamDBa:X,
<l>naMaTrHa, 1961.
.3. BBTYIDRHB A. r.' OueuKa CJIO)RBOCTH 38A8'111I Ta6ym1p'OB8BIHI' Cl>li8?rl8Tr1rn,
1959.
4. B<;>po61:,ee IO. B., M eToµ, MOMCBTOB B np111ma,lJ.Boi MaTeMaTBKe, <l>naMaTr11a,
. 195~t .
5. Bh11UICJJBT0JILBL1e M0TOA&l JIBHe:iinoii: aJ1re6p&1, IlO)J. peµ;. Map11yRa r. M.,
lfa)J.-BO CO AH CCCP, H0Boc116upc1<, 1972.
598 BIBLIOGRAPHIE

6. roAYBOB C. K.t Pn6euLKHB B. C., Buep;ene B Teopmo paauocTusx cxeM,


<l>HBMaTrHa, 1962.
7. roB11apou B. JI., Teopu.a HBTepnonuponaHHH u np116nWReBD.a cf>yum~uii,
rocTexnsµ:aT, 1954.
8. EpMaKon C. M., MeTOA MoBTe-KapJio H CMe,KBLie nonpocLI, « HayKa ,,
0

1971.
9. iKHJieHKHH H. M., XaJiyc E., CTaHAapTuan nporpaMMa 'AJI.R B&111HCJICJDUI
MBoroKpaTHLIX HBTerpaJIOB c IIOMO~IO Kna,a;paTyp faycca, BLIII. 39, BD; MrY,
1970.
10. 3arycmm B. JI., Cnpano'IBHK no tJ:ncneBHhlM MeTop;aM pememrn anre6pau-
'18CKHX u Tpauc~eup;eaTHhIX ypanuemt:e:, <l>naMaTrua, 1960.
11. KauTOponn JI. B., n KpLIJion B. H.,. Ilpu:6JI11meuu1,1e xeTop;LI Bhlcmero
auauaa, focTexna,a;aT, M.-JI., 1949.
12. Konqeuona H. B., Mapou H. A., BhltJ:HcJinTeJILHaH MaTeMaTHKa n npHMepax
11 3a,a;a11ax, « Hayi<a >>, 1972.
13. Kopo6on H. M., TeopeTHKo-tJ:ucnon1,1e MeTop;LI n npn6numeauoM anam1ae,
<I>naMaTl'Ha, 1963.
14. KphIJlon B. H., filynLruua JI. T., Cnpano'luan RHHra no 11ucneBB0Hy HBTer-
pn:ponamtro, << HayKa >>, 1966.
15. JianpeBTbCB M. M., o B8KOTOphIX B8KoppeKTBhIX 38JJ,aqa.x MaTCMaTH11ec1mii
cf>:eaHKH, Hap;-no CO AH CCCP, Hosoc116HpcK, 1962.
16. JIHBBHK IO. B.' MeTOA BaHM0IlbmHX 1wa,a;paTOB H OCIIOBhl MaTeMaTBKO-CTa-
THCTH118CKOii T80pHH o6pa60TKII Ha6JIIOA8IDIÎi, <l>H3MaTrH3, 1962.
17. Map11yK r. H., Jle6e,a;en B. H., llucneBH1,1e MeTo,a;LI n Teopuu uepeuoca
ueiîTpouon, ATOMHB,D;aT, 1971.
18. MeTo,a; cTaTncTH11ec1mx ucuhITaBDii (MeTo,a; MouTc-Kapno), CMB, <I>uaMaTrIIa,
1962.
19. MHK8JI8A38 m. E., HonLie M8TOp;hl HBTerpuponaHHR µ;ucf>!}>epe~MLBLIX
ypanuemrii Il HX npHJIO)K8BH.R I\ 3al1,a11DI TeOpHH ynpyrocTH, foCT8XH3AaT,
M.-JI., 1951.
20. MHXJIHB C. r ., llncneuaaH peannaa~n.a napnan;noBHLIX MeToJJ,on, « HayKa »,
1966.
21. Monceeu H. H., llncncBBhle MeTOAhl n Teopnn onTHMaJibBLIX cucTeM, <f Hayna »,
1971.
22. Hamnmn B. B., llepuoua H. A., CTaTHCTJJTiecK11e MeTOJJ.LI 1masHponauun
3KCIIepmieHToB, « HayKa >>, 1965.
23. HnKOJILCKHii C. M., KnaApaTypa cf>opMyJihl, <l>HaMaTrua, i958.
24. Ilpou;e,a;ypLI 1IHcJieHBoro HBTerp11posaBHH na HaLIKe AnroJI, Blţ MrY, 1972.
25. PacTpnrHB JI. A., CTaTIICTD.118CKD.8 M8TOALI IIOHCKa, (( HayKa », i968.
26. PeMea E. H., 06D\118 Bh111HCJIHTeJibHhl8 M0TOAL111e6WJI8BCKoro npH6nBmOHWI,
HaJJ,-no AH YCCP, Kneu, 1957.
27. PH6eHbKHÎÎ B. c., <l>WIHIIDOB A. <I>., 06 ycTOiilJIIBOCTH paaHOCTBLIX ypanu~-
HIIH, rocT8XH3,1];8T, 1956.
28. CaMapcKHB A. A., BeeAeHDe B Teopmo paanocTnhlx cxcM, « HayKa », 1971.
29. illaMauCKHii B. E., MeToJJ,LI 11ncneHBoro pemeBHH KpaeuLix aaAa'EI ua 8IJ;BM,
11. I, Haµ;-no AH YCCP, Knee, 1963; 11. II, « HayKona AYMKa », Knes,
1966.
30. Ahlberg J. H., Nilson E. N., Walsh J. L., The thcory of splines and their
applications, Acad. Press, 1967.
31. Babuska I., Pra.ger M., Vitasek E., Numerica! processus în differential
Equations, Interscience publishers, 1966.
32. Beckenbach E., Modern Mathematics for the Engineer, McGraw-Hill, 1956.
33. Brillouin L., La science et la theorie de l'information, Masson et cte, Paris,
1959.
34. Collatz L., Eigenwert aufgaben mit technischen Anwendungen, Leipzig, 1963.
35. Dahlquist Y., Stability and error bounds in the numerica! integration of
ordinary differential equations, Uppsala, Almquist & Wiksells boktr 130
(1959), 5-92.
BIBLIOGRAPHIE 599

3~. Guelfond A., Calcul des differences finies, Dunod, 1962.


37. J anossy L., Theory and practice of the evaluation of measurements, Oxford,
Clarendon press, 1965.
38. Jenkins G. M., Watts D., Spectral analysis and its applications, San Fran-
cisco, 1969.
39. Lattes R., J .-L. Lions, Methode de quasi-reversibilite et applications,
Paris, Dunod, 1967.
40. Morris W. T., Management science. A Bayosian introduction. Englewood
Cliffs (N. Y.), 1968.
41. Morso Ph. M., Kimball G. E., Methods of operations research, London,
Chapman Hall, 1951. '
42. Ostrowski A. M., Solutions of equations and systems of equations. Univer-
sity of Base!. Basel Switzerland Academic Press. New York and London,
1960.
43. Platt W., Strategic intelligence production. Basic principles. N. Y., Prae-
ger, 1957.
44. Stroud A. H., Secrest D., Gaussian Quadrature Formulas, Englewood
Cliffs, N. Y., 1966.
45. Walsh J. L., Interpolation and approximation by rational functions in the
complex domain. Am. Math. Soc., Coli. Publ., XX (1960).
46. Wilkinson J. H., The algebraic eifenvalue problem. Oxford, Clarendon
Press, 1965.
47. Zoutendijk G., Methods of feasible directions, Elsevicr Publishing Com-
pany, Amsterdam.
III. Articles
1. AopaMOB A. A., BapnanT MOTo,a;a nporoHKH, iK. BLlqHCJI, :uaTeH. u H&TOM.
lf>H3. f, .M 2 (1961), 349-351.
2. A6paMOB A. A., O nepeuoce rpai:rn11HLIX ycnonnii: p;Jrn: cHcTeM 06&1KBoneaaLIX
,a;:e:4>4>epem:(HanI,BLIX ypanneBHH (eapllaBT M0TO,a;a nporoHKH), m. BL11IHCJI,
MaTeM. H MaTeM. 4>113, 1, .M 3 (1961), 542-543.
3. A6pall0B A. A.' o nepeaoce YCJIOBII.JI orpaHll118HHOCTll AJI.R B8KOTOpLIX CHCT8M
OULIKB0B8HHLIX JUIHeBHLIX AlltlJlf>epe~HMLBLlX ypauneHH:ii, m. BLNHCJI.
}IaTeM. u MUTCM. 4>1rn. 1, .M 4 (1961), 733-737.
4. A6paMon A. A., AaApeeB B. B., O npDMeucuuu MeToAa nporom,11 K aaxom-
Aeu1110 ncpnoJ];Hqoc1mx p81110BHH AHlf>tfJepeHI,\HllJinHLIX H pa3BOCTBLIX ypau-
H8HHH, ii\. Bhl11IICJI. MaTeM. II M&TeM. (pH3. 3, .M 2 (1963), 377-381.
5. Ba6ypl:IB O. B., Jle6eAeB B. H., O BL111IICJI8Bl:IH lIBTerpanoB n cMLicne rnaB-
aoro aaa11eHH11, necon II yanon Kn3ApaTypaLix lf>op:yyn raycca, m. nLiqucn .
.MaTe.M. H 1t1aT01t1. qnrn. 5, .M 3 (1965), 454-462.
6. Baxuanoe H. c., K OJ.\CBI,e omn6KH npn 11JICJ10BBOM llBTcrpupOB8BllH AH4>-
4Jepe~l18JILBhlX ypanaeuuii aKcTpaIIOJIHJ.\HOBBLlM :&10TOAO.M AAaMca,
~AH CCCP 104, .M 5 (1955), 683-686.
7. BaxoaJIOD H. c., HeKoTopLie aa:UC1IaBH.JI I,
nonpocy o "IHCJIOBBOM HBTerpn-
pouamrn AH4l4lCpeun;nan1>BLIX ypaeHeHHii MOTO,IJ;OM KOB811HLIX paauocTei,
)..(AH CCCP 104, .M 6 (1955), 805-808.
8. BaxnaJIOB I-I. c., o B8KOllJICHJIH BL11111CJIIIT0JlhHOH norpemuocTH npn 'IHC-
JICBHOll pememm Allq>tfJepCHIJ,II8.1IbBhIX ypaBHCBIIÎÎ:. C6. (( BLI11HCJI. )leTOJJ,hl
11 11porpamrnponaa11e », n&1n. I, lfaA-DO MI'Y, 1962, 47-68.
9. Baxuano:a. H. C., 06 oupeAeneuHH aa11aJ1I,aoro mara n OJ.\CHKe rnauaoro
lIJIOBa norpemBOCTII npu 'lJIICJICBHOl\I JIHT0rpuponaBHH C 8BTOM8TB'ICCIWM
n1>16opoM mara, C6. << BLiq11cn. MeTOAhl II nporpammponaaHe », DLIII. I,
MaJJ.-Do MrY, 1962, 69-79.
10. BaxnaJIOB H. C.' 06 OIITIUtlRJILHLIX on;eBK8X CKopocTH cxop;llMOCTH KD8P,pa-
TypnLIX npoo,eccon n MeTo,a;oe nBTerpnpouamUI Tnna MoaTe-Kapno aa Knac-
cax 4>yimn;nii, C6. « lJHCJI. MCTOJJ,Ll pemcnH.JI AHtfJtfJep. n llHTCrp. ypauueIDii
11 I<uaµ;paTypHLIO lf>opMyJILI », « Hayna », 1964, 5-63.
'600 ·BIBLIOGRA.PHIE

11. BaxnaJIOB .H. C.; 06 aJiropDTAlax BLI6opa mara :HBrerp11po'naB1UI, C6.


· ,. ·:« BWlllCJI. 11eTo,u;&1 n nporpammponaime », n1,1n. V, lf3p;-:eo MfY, 1966, 3-8.
12. BaxBanon H. C., K onTHMDa~11n 11eTo,u;on pememu1 xpaen:&IX 3a,u;a11 npn
uaJI1111BH norpallll1Dloro cnoa, m. BWlllcJI. :uaTeM.· -u · :uaTeM. qma. 9, .M 4
(1969), 841-859.
13. BaxsaJIOB H. c., 06 OnTBMaJILBOCTB JIBB0BJll,lX )S:8TO,tJ;OB npu6.mmrnmrn ono~
paTopOB ua Bl,lllYKJihIX KJiaccax q>YHKD;Dfi:, i.K. BliI1IHCJI. MaTeM. R 1'1aT8M.
,: . q>ua. -11, .N2 4 (1971), 1014-1018. · · ·
14. BaxnaJIOB H. c., 06 OilTHMH38D;llll M0T01J;OB pemeHDH OOhIKH0B0BBl,lX AB:4>-
q>epe~aJILHl,lX ypaBH0HIIH C CDnI,HO OCD;HJIJIBpyrom;mm pememrnHH, m.
Bl,llfflCJI. M8TCM. 11 M8T0ll. qma. 11, .M 5 (1971), 1318-1322.
15. Bpo,u;cKHi M. JI., AcHMIITOTll'l8CKl18 on;eHKH norpemuoCTH npu 1lHCJieHBOM
. HBTerpuponamm CIICT0lS: o6HKH0B0HJII,IX ,u;u4>4>epe:en;uam.HLIX ypanHeBBii
paauocm1,1mr 1,1eTo,u;wn, ,D;AH CCCP 93, .M 3 (1953}, 599-602.
16.; BoJIKOB E. A., 81j>q>eKTBBBL10 OD;0HKll norpemHOCTH pa3BOCTBl,IX pememtii
xpaen:&IX aa,u;a11 ,u;n11 061,1KBoneBBoro ADq>q>epe~am,uoro ypanuemin. Tp.
· • M"HAH 112 (1971), CTp. 141-151.
17. BaJiees K. r., PaKnTcKHi IO. P., 06 oT1,1cuaBUu paaHoCTHlilHll MeTo,u;aim
o6JI&CTeii ueycTOB1111BOCTII pemeBHii CHCT8MLI JIHH0Hlllil ADq>q>epe~BaJII,Bl,lX
. ypaBH0HUH, C6. (( l.JI,1cn. M0TOAH pemeHHH AHq>q>ep. H HBTerp. ypaBB8BHH
. . 11 KBa,u;paTypuLie q>OPMYJILI >>, << Hay1ta >>, - 1964, 110-122.
18. raiîcapau C. C., O nocTpoeBHH uatzam.u:&IX ycnonuiî npu mrrerpHpouamm
;' .. CHCTCM o6LIRHOB8BHLIX ADq><fJepeun;11aJ11,BJ:,IX ypanuemlii M8TOAOM .AAaMca,
Co. « BLillHCJI. 1r1CT0,n;&1 n nporpa1n~ponauue », B&In. III, Hs,u;-no MfY,
1965, 262-265.
19. ren1:,q>aBA H. M., IJ;eiiTJIBB M. JI., Ilpn~un ueJI0RaJI1:,uoro noncRa B cucTe-
1t1ax anT01r1aTH11ecRoii ODTHMHaau.nu, ,ll;AH CCCP 13'r, .Nl! 2 (19~1) 1 295-298.
20.J foAYB<>B ·c~ R.; MeTo,a; opToroHaJILHOii nporoBRll AM pemeHUH CHCT8M paa-
BOCTHLIX ypaBHCBHii, 1K. BLl'IIICJI. M8T0)1. H MRTCM. q>B3. 2, ~2 6 (1962),
972-982. ·. .
21. roAYIIOB C. K., o tJIICJieHHOM pemeuuu RpaeBLIX aa,u;a11 ;EI)IJI CBCT8M JIHBOBBLIX
ooLIDoneHHLIX ADq><fJepe~nam,u&x ypanueHHii:, YMH 16, nLIU •. 3, (1961),
171-174. - .
22. · foH11ap ·A. A., O cuopocT11 pau.11ouaJILHo:i annpoKcllllaif.BH uenpopLIBBLIX
.. d>YBRD;Hii C xapaKTepHLIHH oco60RHOCTSIMII, MaTe11 •. c6. 73, D&lll. 4 (1967),
·, · 630-638. ··
. 23;( rop6yuon A._.~-, lliaxon IO. A., O npn6JIB>KOBHOM pemeuon. aa,a;a'IH IfomH
AJUf o6LIKBOB0HHl,lX ABqJq>epeun;naJIJ,Hl,lX ypanBeHHii C uauepe,a; aa,a;aHHLIM
. •lfflCBOH nepHLIX: 3H8KOB, I, iit BLl1Il1CJI. !t:aTeM. II M8T0M. q>lI3. 3, .M 2 (1963),
·: · 239-253; II, TaM me, 6, .M 3 (1964), 426-433. ·
24. ~llTKBB B. A., JI10cTepHIIR JI. A., 06 O,u;HOM cnoco6e npaKTB110CKoro rap-
' · :uoBB11eckoro·auannaa·na c<fJepe, C6. << Bwmcn. MaTe11. n BH11HCJI. Teximua »,
· .M ·1, lfa,u;-no AH -'CCCP, 1953, 3-13.
25. ~oJirononoua T. <I>., HsanoB B. K., O tJIICJICBBOM ADcpq>opeuu.uponauuu,
·. :_m;· DLÎllBCJI. MaTeM. n MaTeM. q>B3. 6, M 3 (19ţJ6}, 570-576.
26:. ,ll;LHKOBOB E. r.' o IlOCTpoeHHH 11Tep~OHHLIX. MeTOAOB na ocuone. HCJIOJib-
30Bamm onepaTOPOB, SKBHBaJieHTlll,lX no CIICI(Tpy, ilt, Bbl'IHCJI. MaTel\l.
· 11 M8T8li. q>ns. 6, .M 1 (1966), 12-34. ·
21. 1KWieHKBJI H. M., O KBaApaTypn1,1x q>opuyJiax na KJiaccax cpyBKif.Bii, iK.
BLI'IHCJI, M8TOM. B M8T8M, q>D3, 8, ,M 3 (1968), 507-516. .
28. llJILHB A.; M.' PaaHOCTB8H cxeMa 11.JIH ABqJq>epeun;uaJII:,BOro ypaBBOHIIH
.. '·C ll8JILIM napaMeTpOM npn cTapmeii nponaBOABOH, MaTeM. 38M8TKR 6, .M 2
(1-969), · 237-248.
29. KanTopOBHtJ JI. B., <l>YHKD;IIOH8JILHLIH auaJill8 B npnKJia,u;HaH llaTOMUTHKa,
',. YMH. 3,. B&Ill. 6 (28) (1948), 89-181. -
30. ,KBH r., o pemeunu B0ROTOp:&IX CHCT0H JIHB0HH&IX aJire6paBtIOCKH~ ypanue-
1· -· ··BBii 'BLlcot<oro · nop.HJJ;Ra, C6. « Bwmcn. M8TOALI H nporpaMHHpoBanue >>,
BLIU. 3, lfap;-uo l\ff:V, 1965, 134-146. · ·
BIBLIOGRAPHIE

31. l:{oJIMoroP.OB :A. H., TnxoMBpoB B. M., 1M~HTpoDHJ1 .n s-e1rmocT1> MHomecTB


e ql~OB8JILBLIX npocTpaBCTBaX, YMH 14, BHll. 2 (i959), 3-86.
,32. I{peim C. r., ma6~mlJI H. o., 06 YCTOH'WBOCTH paSBOCTBLIX cxeM ,[l,JIJI
88Aâ1lll -Komu, m.. BLmlCJI. MaTeM. li M8T8?,[. qina. 6, .M 4 (1966), 648-664.
33. M opo30B B. A.' o BOCCTaBOBJI8WIII q,yu~ii MeTOAOM perym1p11aa~11,
jK. BLOOICJI. M8T8M. H M8T8M. qlll8. 7, J.& 4 (1967), 874-881.
34. Mopoaoe B. A., O 3aµ;a"le AJHpqiepe~pOBa.B;HJ[ u ueKoTopLIX anropnTMax
np:e:6JIB,R8BBJI 3KCneplWBBT8JILBOii BB<pOpM~BH, C6. (( B!ifCDICJI. M8TO)];f>I
n nporpa!rWllpOeaBlie », eLin. 14, Ha1,1;-eo M ry, 1970, ·46-62.
35. M.bICOBC~ H. n., o Ky6aTypuLIX qiop11ynax ,[l,JUI BWUIC~8BWI HBTerpanoB
no noeepxuocm cqiephl, Cn6. MaTeM. m. 5, .M 3 (1964), 721-723 . .
36. Oraeea B. B., MeTop; « nporouKH >> AJIJI pememrn paauocTBLIX ypaBuemdi,
. 1K. Bf>l'DICJI. MaTCM. n MaTeu. tpll3. 7, .M 4 (1967),· 803:-812.
37. Iloeaacp A. R., Ilaenon B. B., 06 OJlBOM MBTOAe 11ncneuuoro BBTerpnpo-
nawn CBCTBM o6hlKBOBBBBhl.X AHtpq,epe~aJILBlil ypanaenuii, m. BH"lBCJI.
M8TBM. H M8T8M. (f,na. 3, ~ 4 (1973), 256-259.
38. llpDK8811HKOB B. r., 0ABOPOAB6le paanocTB6l8 CX8M6l BhlCOKoro nopn,u,Ra
T01UIOCm JJ;JUI aaµ;a-qu IlITyp:ua - JinyeHJIJIJI, m. BH1111CJI. M8T8M. B ll8T8M.
cf,ua. 9. .M 2 (1969), 315-336. . . -
39. PaKnTc1rni IO. B., MeT01,1;11Ka nocne.o;oeaTen&uoro ynenn11cBl,UI mara 'DIC-
~eBBoro BBTerpnpOBaBBJI ClICTBM o6LIKBOB8BBldX AJiq,q,epeB1U18Jil>BLL"t . ypae-
ueBBii, ){AH CCCP 207, .M 4 (1972), 793-795. , . .
40. P.a6eu&Kni B. C.' Heo6XOAHMLIC li . p,OCT8T01JIU,l8 YCJIOBlf~ xopome:ă: ooycJIOB-
JI8BBOCm KpaBBhlX aa,o;a-q AJIJI CHCTBll 06.blKBOBeBBLIX paaaocTBLIX ypanaeHBii,
il-t Bhl1DICJI. MaTe?tC. u M8T0M. q,na. 4, .M 2 (1964), 242-255.
41. CaJI11xoa H. n., O nonnpuLIX 11eT0Aax pemeuun aaAa1111 KomH ,n;JU1 cucTeM
066lKBOB0BBLIX AJidMfiepe~HBJibB&IX ypanneBHii, iK. BbI"IJHCJI. M8T81tf. n M8T0M.
d>na. 2, .M 4 (1962), 515-528.
42. Ca11apcKHii A. A., TnxouoB A. H., 06 o,1U1opo,1U1LIX paauocTBLIX cxeiiax,
)K. Bltl1111CJI. M3T0M. B M8T0M. qlll3, f, ,N2 1 (1961), 5-63.
43. Co6ones C. JI., HeKOTOp6le 3a1,1011au1111 o 1111cneBBOM pemenuu UBTerpan&BLIX
ypaeueBH:ă:, lise. AH CCCP, cep.- MaTeM. 20, .M 4 (1956), 413-436.
44. Co6onen C. JI., O q,opuyna.x MeX8Bll118CJWX Ky6aTyp ua noeepxuocTn cq,ephl,
Cu6. M8T0M. '"• 3, .M 5 (1962), 769-796.
45. TUXOBOB A. H., o pememm B8KOppeKTBO nocTaBJieBBhlX aaµ;aq B MeTOA0
perynapuaa~u, nAH CCCP 151, .M 3 (1963), 501-504.
46. THXOBOB A. H., 06 ycTOHlJIIBOCTD anropHTMOD AJI.R pemeBBJI BLlPOiK,IJ;0BBLIX
CHCT8M JIHBBHBLIX anre6p~eCKBX ypanueuuii, m.
BhllJHCJI. M8T8M. H M8T811.
qlB3. 5, ,M 4 (1965), 718-122.
47. Tuxouon A. H., O BeKoppeI<THLIX aa,n;aqax onTDMaJILuoro unawpoeaaun,
iK. BLI1111CJI. M8T8M. li M8T8:&(. (f,ua, 6, .N; 1 (1966), 81-89.
48. Tru:ouon A. H., rop6yuon A. ,li,., AcmmToTnecJWe paanomeBllJI norpem-
uocTu pa8BOCTHOro MeToµ;a pcmewrn 88)];81111 KomD AJI.fl CBCT0Mhl o6hlRBO-
Belllll,I.X )Ulif>4'epeHIJ.ll8JII,BLlX yp8BB0BBH, )«. BbJTDICJI. M8T8M. ll M8T8M.
(f,ua. 2, .M 4 (1962), 536-548.
49. Tuxouon A. H., rop6yuon A. ,11,., On.enKH norpemuocrn :ueToµ;a Tuna Pyure -
. KyTTa D BL160p OllTHMaJILBLlX CeTOK, )«. DLAIICJI, M8TCM. H M8T8M. cfma. 4,
.M 2 (1964), 232-241.
50. Tnxouoa A. H., rop6yuon A. ,D,., ra:iicapna C. C., OnncaBBe anropBTMa
IIOCTpoeBBJI onTHM8JILB6lX CeTOK npn pemeBHll 38A8"'111 Komn JJ;JIJI o6hlKBODen-
HbIX .n11q,r1>e.peun.11an1>B.blX ypaBneuui MBT0µ;011 Pyure - KyTTa, C6. << BLI1JHc-
JIHTMLBLie M0TOALI li nporpumnponaBH0 », BLIU. 6, Haµ;-BO MrY' 1966,
17-20.
51. Tnxouon A. H., CaMapc1rn:ii A. A., PasaocTuan aa,i:aqa IlITYpMa - Jb1y-
nunn11, jl{. BL11111CJI. M8TC1I. li M8T0M, qlll3. f, J\; 5 (1961), 784-805. .
52. Illamrnu A. <l>.' 3aMhlK8Bll8 ADYX Bhl1JUCJIBT8JlbBhlX aJiropnTMOB, OCBOean-
HLIX ua n.o;ee opToroeanuaau.m,, JH'.. BLI"IJHCJI. MaTe11. 11 MaTeM. q,ua. 7, .M 2
(1967), 411-416.
602 BIBLIOGRAPHIE

53. Bulirsch R., Bemerkungen zur Romberg-Integration, Numer. Math. 6,


.M 11 (1964), 6-16. .
54. Butcher I. Ct, A Modified Multistep method for the numerical integration
of ordinary differential equations, J. Assoc. Comput. mach. voi. 12, .M 1
(1965), 124-135.
55. Dahlquist Y., Convergence and stability in the numerica! integration of
ordinary differential equations, Math. Skand., vol. 4, .M 1 (1956), 33-53.
56. Distefano G. P., Causes of instabilities in numerica! integration techniques,
Internat. J. Comput. Math. voi. 2, .M 2 (1968), 123-142.
57. Filippi S., Kraske F., Neue verallgemeinerte Multistep Methoden., ZAMM
48, .M 8 (1968), Sonderh, 65-66.
58. Fyfe D. J ., Economic evaluation of Runge-Kutta formulae, Math. Comp.
20, 95 (1966), 392-398.
59. Gragg W. B., Stetter H. I., Generalized Multistep Predictor Corrector
Methods, 1. Assoc. Comput. Mach., vol 11, .M 2 (1964}, 188-209.
60. Grane R. L., Klopenstein. A Predictor-Corrector Algorithm with an Increa-
sed Range of Absolute Stability, J. Assoc. Comput. Mach., voi. 12, .M 2
(1965), 227-242.
61. Haber S., Numerica! evaluation of multiple integral, SIAM Uev., vol. 12,
J\12 4 (1970), 481-526.
62. Lini ger W., A criterion for a stabili ty of linear mul tistep in tegration
formulae, Computing 3, .Ni? 3 (1968), 280-285.
63. Reinsch R., Smoothing by Spline Functions, Numer. Mat. to (1967), 177-183.
INDEX

Acceleration de la convergence de la Entropic 252


methode de Monte-Carlo 296, 299 e-entropic 255
Application contractante 392. Equation caracteristique 50
Approximation d'un schema aux differences 459
d'une condition aux limitos 521 Equation differentiolle donnee sous
d 'une equation differentielle par un forme implicite 495
schema aux differences 454, 518 Equation aux differcnces lineaire
ă coefficients constants 49, 55
Borne superieure d'une erreur 24 d'ordre k 46
Equntion aux differences majorante
Chiffre(s) 588
exact 21 Equations aux differences finies 46
significatifs 21 Errour
Coefficionts de Fourier discrets 211 absolue 21
Colonne de controlc d'un systeme 316 d'approximation d'une equation
Conditionnement differentielle par un schema aux
de la matrice d' un systome 375 differences 454
d'un systeme 375 de calcul 17
Condition a 464 - dans la derivation numerique 91
Conditions de convergence dans la - dans l'integration numerique 589
resolution du probleme de Cauchy - dans l'interpolation numerique
par Ies methodes des differences 75
finies 464, 504 - dans la, resolution des problemes
initiales pour un schema aux diffe- d' algebre 317, 330, 593
rences finies 492 - - du· probleme de Cauchy 443,
Controle de l'erreur par pas 442 465, 587
- - des problemes aux limites 528,
Degagement de la fonction de poids 179 550, 592, 593
Derivation numerique 88 de formulation 20
Derivee d'un operateur 396 dans une formule de quadrature sur
Differences une classe de fonctions 102, 135,
ascendantes 61 281
centrales 61 inheronte 17, 20
desccndantes 61 de methode 17
divisees 37 - sur une classe de problemes 60,
finies 61 135 .
d' ordre superieur 61 - sur un pas 436, 470
du premier ordre 64 relative 21
Dissipation 414 Espace metriquo 30
Domaine de convergence d'une metho- Espace vectoricl 30
de 391 norme 30
strictement norme 31
Elevation de l'ordre de precision d'un Estimation lineaire d 'une erreur 25
schema aux differences 518 Estimations garanties de l'erreur sur
Elimination des racines 405 une classe de fonctions 289
604 INDEX

Evaluation de l'erreur de calcul par de Gregory 160-161


. changement d'echelle 317, 592 d'Hermite 115
Evaluation pratique de Lobatto 112
de l'erreur dans des formules de de Markov 112
quadrature 117, 161 de Newton-Cotes 94
de l'erreur d'interpolation 41, 66, optimales 130, 135, 136
507-508 ' aux points aleatoires 299
de l'erreur resultant de la resolu- des rectangles 94, 97
tion d' equations differentielles de R omberg 169
473, 519, 592 de Simpson 99 ·
- - - de systemes lineaires 317, de Tchebycheff 101
336 des trapezes 94, 98
Extrapolation 32
lnegalite de Tchebycheff 290
Fermeture Integration ·
d'un algorithme de· calcul 536 des equations differentielles dans un
irreguliere 537 grand intervalle 447, 487, 490, ·
·de la methode du balayage 538, 555 597 .
reguliere 537 · des fonctions oscillantes ·122 ·
Fonction(s) de systemes d'equations 483
economique 420 Interpolation 32, 34
elementaires 239 basee sur des points multiples 42
· de Gi'een discrete 522 inverse 77
majorante 522 lineaire 69
de. poids 95 quadratiquo 70
Fonction-spline 24 7 trigo~ometrique 211
Formule(s) Inversion de matrices. 319 · .
. d 'Adams 450 '.
de Filon 123 Macbine
ele Gregory 160-161 travaillant cn virgule fixe ' 20
d'Hermite 115 - - flottante 20
de Lobatto · t 12 Matrice
de Markov 112 · (2m + ·I )-diagonale 533
de Newton 65 · d'orthogonalisation. 80
des rectangles 94, 97 Meilleur approximant .201
- ă point multiple 98 M.eilleure approximation uniforme 215
de Romberg 168 Methode(s) · ·· ,
de Sim pson 99 d 'Adams 451 :
des trapezes 94, 98 d,' Adams-Stormer 500, 502 ·
Formules de derivaţion numeriquc 88 d'amelioration de la precision par
unilaterales 91 ·· · des differences d'ordre· superieur
Formules d'interpolation 449 520 · ·:
· de Bessel 68 asymptotiqucment optimale . -142
d' Everett · 7i du halayage 530, 551 . •
de Gauss 67 - ortbogonnl di fferentiel 5.55, 557,
- pour l'interpolation en arriere 67 559
- - en avant 67 · - par remontec .53t
de Lagrange 36 · · - en sens direct 531 . :
de Newton pardifferences divisees 39 hilaterales d 'integration numerique
- pour l'interpolatioil en arrierc 65 508 . ,
- - en avant 65 - d'interpolation: 500 .
- pour des points equidistants 65 - do resolution des ·equations dif.:..
Formules de quadrature · f erentielles 511 ·
composites 128 de la boule pesante 416 · .
d'Euler 159 do Butcher 457
de Filon 123 des coefficients indetermines . 34,
de Gauss 106 260, 454, 500
generalisees 128 de descente 405
IN·DEX 605

Methode(s) . Nombre de conditionnement


. de descente · sequentielle 352, 405,: · d'une matrice 375
408 ' ' . · d'un probleme· 547
. !..- ~, optimalo 408 d'un systeme 375
des differences finies ·449 Normalisation d'un schema aux dif-
d'elimination .de Gauss 312 ferences finies 456
d' enc3:dremeii.t' 404, 560-561 Normes 30
d'·Euler 434, 474 · associees 322
explicite 449, Ş00 equivalentes 325
d'extrapolation 449, 500 des ·vecteurs et des matrices 322·
de Gauss 312
- avec choix du pivot 316 Objectif 420 -
- directe ·315 Operateur difference finie 63
- par remontee 315, 531 Optimisation
de Gerschgorin 522 de l'estimation d'une erreur d'inter-
du gradient 355, 408 polation 60
- conjugue 358 des methodes 60, 131
implicite 449, 494, 500 de la repartition des points d'inte-
d'integrati~n numerique a. ·pas lies . gration 142, 145, 582
444 . de la . vite~se de convergence des
- - - · separes 444 processus ·i teratifs 339
d'interpolation 449, 500 . Ordre d'une methode 395 ·
iterative de .construction du poly- Ordre 1 de grandeur
nome de meilleure appro~ation de- l' approximation 455
uniforme 225 de l' erreur dans la methode de R un-
- avec utilisation des operateurs ge-Kutta 436
. spectralem~nt equivalents 371
iterative simple 322, 391 Parametrisation d'un probleme 422,
de Markov 112 · 561 ·
de Milne 474 Partie principale de l'erreur
des moindres carres 261 dans des formules de quadrature 154
de Mante-Carlo 289 dans l'integrationnum.erique d'equa-
- pour des systemes d'ăquations tions differentielles 448, 469, 519
lineaires 364 Pas d 'un tableau 61
de Newton pour des systemes d 'equa- Point du spectre d'une familie de ma-
tions non lineaires 396 trices 330
optimale 60, 131 Points d'interpolation 34
d orthogonalisation 320 Points du support de Tchebycheff 217
des paraboles 405 Polynome(s)
de la plus grande pante 355, 408 d 'Hermite 85
probabiliste 302 de Jacobi 84
de la racine carree 317 de Laguerre 85
des ravins 412 de Legendre 84
de regularisation 263, 379 de meilleure approximation unifor-
de rela:x:ation 354 me 216
des rotations de recherche des va- orthogonaux 80, 84
leurs propres 385 qui s'ecartent de zero le moins pos-
de Runge-Kutta 434 sible 57
de la secante 401 de Tchebycheff 55
de Seidel 349, 394 - de deuxieme espece 85
de stationnarisation 414 - de premiere espece 85
de surrelaxation 355 Probleme avec couche limite 567, 585
telescopique 223 Probleme aux limites bien condition-
du tir 528, 560-561 ne (bien pose) 547
Probleme de valeurs propres
Nombre global 380
grand 21 local 380
tres irand 2t Problemes mal poses 377
606 INDEX

Procede Serie de Fourier discrete, finie 211


d'Aitken 40 Sous-espace vectoriel 30
62 d' acceleration de la convergence Spectre d 'une famille de matrices 330
338 Symetrisation d'un systeme d'equa-
Processus iteratif tions 340, 348, 379
lineaire optimal 346 Systeme(s)
ă pas lies 343 hien conditionnes 377
- separes 343 d'elements lineairement d6pendants
Produit direct des formules d'intcgra- 30
tion, d'interpolation, de derivation - - independants 30, 78
277, 278, 308 - orthonorme 80
Programmes usuels el 'integration nu- fondamental de solutions 53
merique 185, 192 mal conditionnes 377
orthogonal 78
Rayon spectral
d'une familie de matrices 331 Tahleau de differences divisees d 'une
d'une matrice 331 fonction 38
Reduction de la dimension Theoreme
des problemes d'optimisation 410 d'altemance de 'fchebycheff 216
des systemes non lineaires 413 sur l'evaluation d'erreur 465
Hegle de Run~e 162, 473, 519 de la partie principale de l'erreur470
Remplissage d un tableau 72 de Vallee Poussin 216
Rcste de la formule de Lagrange 36 Transformation de Fourier
Schema(s) discrete 208
aux differences finies 449 rapide 212
explicite 449, 494, 500
homogenes 573 Variation du pas de l'integration
implicite 449, 494, 500 numerique 191, 496
A NOS LECTEURS

Les Editions Mir vous seraient tres reconnaissantes de bien


vouloir laur communiquer votre opinion sur le contenu de ce
livre, sa traduction et presentation, ainsi que touteautresuggestion.

Ecrire a l'adresse: Ier Rijski pereoulok, 2,


Moscou, 1-278, U.R.S.S.

Imprtme en Unlon Soviettque

Vous aimerez peut-être aussi