Vous êtes sur la page 1sur 22

Méthodes numériques de base

Analyse numérique
par Claude BREZINSKI
Docteur ès sciences mathématiques
Professeur à l’université des Sciences et Technologies de Lille

1. Arithmétique de l’ordinateur ................................................................ AF 1 220 - 2


1.1 Virgule flottante normalisée ....................................................................... — 2
1.2 Opérations arithmétiques et conséquences.............................................. — 2
1.3 Conditionnement d’un problème ............................................................... — 3
1.4 Correction de l’arithmétique....................................................................... — 3
2. Interpolation.............................................................................................. — 4
2.1 Polynôme d’interpolation et son calcul ..................................................... — 4
2.2 Erreur d’interpolation .................................................................................. — 5
2.3 Choix des points d’interpolation ................................................................ — 5
2.4 Convergence ................................................................................................ — 5
2.5 Polynôme d’interpolation d’Hermite.......................................................... — 6
2.6 Exemples d’interpolation non polynomiale .............................................. — 6
2.7 Fonctions splines ......................................................................................... — 6
3. Quadrature numérique ........................................................................... — 9
3.1 Quadrature de type interpolation............................................................... — 9
3.2 Convergence et stabilité.............................................................................. — 9
3.3 Méthodes des trapèzes et de Romberg ..................................................... — 10
3.4 Méthode de Gauss et polynômes orthogonaux ....................................... — 11
4. Intégration des équations différentielles.......................................... — 12
4.1 Définition du problème ............................................................................... — 12
4.2 Méthodes à pas séparés ............................................................................. — 13
4.3 Méthodes à pas liés..................................................................................... — 15
4.4 Problèmes aux limites................................................................................. — 18
5. Approximation .......................................................................................... — 18
5.1 Meilleure approximation. Théorie .............................................................. — 18
5.2 Meilleure approximation. Exemples .......................................................... — 19
5.3 Approximation de Padé............................................................................... — 20
5.4 Ondelettes .................................................................................................... — 21
Pour en savoir plus ........................................................................................... Doc. AF 1 221

l est bien connu que les méthodes utilisées en mathématiques classiques


I sont incapables de résoudre tous les problèmes. On ne sait pas, par exemple,
donner une formule pour calculer exactement le nombre x unique qui vérifie
x = exp (– x) ; on ne sait pas non plus trouver la solution analytique de certaines
équations différentielles ni calculer certaines intégrales définies. On remplace
alors la résolution mathématique exacte du problème par sa résolution numé-
rique qui est, en général, approchée. L’analyse numérique est la branche des
mathématiques qui étudie les méthodes de résolution numérique des pro-
blèmes, méthodes que l’on appelle constructives. Par méthode constructive, on
entend un ensemble de règles (on dit : algorithme) qui permet d’obtenir la
solution numérique d’un problème avec une précision désirée après un nombre
fini d’opérations arithmétiques.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 1

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

L’analyse numérique est une branche assez ancienne des mathématiques.


Autrefois, en effet, les mathématiciens développaient les outils dont ils avaient
besoin pour résoudre les problèmes posés par les sciences de la nature. C’est
ainsi que Newton était avant tout un physicien, Gauss un astronome... Ils s’aper-
çurent rapidement que les problèmes pratiques qui se posaient étaient trop
compliqués pour leurs outils et c’est ainsi que, peu à peu, s’élaborèrent les tech-
niques de l’analyse numérique. Ces méthodes ne connurent cependant leur
essor actuel qu’avec l’avénement des ordinateurs à partir des années 1945-1947.
Ce qui suit n’est pas un cours théorique d’analyse numérique. Il existe
d’excellents livres pour cela. Ce n’est pas non plus un catalogue de méthodes
et de recettes. Pour être utilisées correctement et pour que leurs résultats
soient interprétés correctement, les méthodes d’analyse numérique nécessitent
une connaissance des principes de base qui ont guidé les mathématiciens ; il
est très difficile, voire impossible, d’utiliser un algorithme d’analyse numérique
comme une boîte noire. Pour ces raisons, une voie médiane a été choisie et les
algorithmes sont toujours replacés dans leur contexte théorique ; le lecteur
soucieux des démonstrations pourra se référer à la littérature correspondante.
Les méthodes d’analyse numérique sont destinées à être programmées sur
ordinateur. L’arithmétique de l’ordinateur n’a qu’une précision limitée (par la
technologie), ce qui pose souvent des problèmes extrêmement importants qu’il
faut pouvoir analyser et éviter. C’est pour cela que le premier paragraphe est
consacré à cette question.

Il existe, naturellement, de très nombreux ouvrages d’analyse numérique. Comme références,


on pourra consulter [2] [6] [22] [25] [30] [37] [40].

1. Arithmétique de l’ordinateur l’ordinateur. L’erreur commise en remplaçant a par fl (a ) s’appelle


erreur d’affectation. Elle est donnée par le théorème 1.

1.1 Virgule flottante normalisée Théorème 1.


a – fl ( a )  K a 10 – t
Soit a un nombre réel. On peut toujours l’écrire sous la forme :
avec t nombre de digits décimaux de la mantisse des mots
a = ± 0, a 1 a 2 a 3 ... 10 q de l’ordinateur,
K = 10 si l’ordinateur travaille par troncature ou K = 5
avec q nombre entier relatif,
s’il travaille par arrondi.
a 1, a 2 ... a i chiffres décimaux de a avec a 1 ≠ 0.
On dit alors que a est écrit en virgule flottante normalisée. En
général, la mantisse a 1 a 2 a 3 ... de a possède une infinité de chiffres 1.2 Opérations arithmétiques
(on dit : digits ou bits).
et conséquences
Dans un ordinateur, chaque nombre est placé dans un mot. Un
mot est un ensemble (fini) de petites cases qui peuvent contenir un Les quatre opérations arithmétiques élémentaires (+, –, × et /) ne
0 ou un 1 car les ordinateurs travaillent, pour des raisons techno- s’effectuent pas directement dans la mémoire centrale de l’ordi-
logiques, dans un système de numération dérivé du système nateur, mais dans une unité arithmétique dont les mémoires
binaire. Le problème qui se pose maintenant à nous est simple : comportent plus de t digits. Une fois le calcul effectué dans cette
comment placer un nombre ayant une infinité de digits dans un mot unité arithmétique, le résultat est renvoyé dans la mémoire de
qui n’en comporte qu’un nombre fini ? l’ordinateur ; celui-ci doit donc le tronquer ou l’arrondir puisqu’il
Il y a deux façons de procéder : la troncature ou l’arrondi. Sup- possède plus de t digits. Par conséquent, l’erreur commise sur une
posons qu’un mot de l’ordinateur ne puisse contenir que t digits de opération arithmétique élémentaire est régie par le théorème pré-
la mantisse (pour simplifier le raisonnement, nous supposerons cédent, d’où l’on déduit le théorème 2.
que notre ordinateur travaille lui aussi en base 10, ce qui ne chan-
gera pratiquement rien à nos conclusions). On peut tout simple-
ment couper la mantisse de a après son t ième digit : c’est la Théorème 2.
troncature. On peut aussi, suivant la valeur du digit a t +1 , arrondir a  b – fl ( a  b )  K a  b 10 –t
le digit a t : si a t +1  5 , on remplacera at par a t +1 et l’on tron- où  désigne l’une des opérations +, –, × ou /.
quera, sinon on tronquera directement. La plupart des ordinateurs
travaillent en arrondi. Le nombre réel a est donc représenté dans
l’ordinateur par une valeur approchée, que nous noterons fl (a ), Voyons maintenant les conséquences pratiques fondamentales
obtenue par troncature ou par arrondi selon la technologie de qui se déduisent de ce résultat.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 2 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

Soit à calculer 1 + ε. On voit que, si l’ordinateur travaille par 1.3 Conditionnement d’un problème
arrondi et si | ε | < 5 × 10–t (ou si |ε | < 101 – t dans le cas de la tron-
cature), alors on aura : À la notion de stabilité numérique d’un algorithme vient
fl (1 + ε ) = 1 s’adjoindre une notion liée au problème mathématique lui-même :
La même conclusion restera valable dans le calcul de a ± b si les le conditionnement. Avant de résoudre un problème, il faut intro-
ordres de grandeur de a et de b sont très différents puisque : duire les données dans l’ordinateur. Celles-ci sont entachées d’une
erreur d’affectation et le problème que l’on va résoudre diffère donc
a ± b = a (1 ± b /a) un peu de celui que l’on aurait dû résoudre. Il se peut que la solution
On peut penser que l’erreur commise est minime, mais il n’en exacte du problème ainsi perturbé soit très différente de la solution
est rien. En effet, soit à calculer : exacte du problème initial non perturbé : c’est la notion de
conditionnement d’un problème.
(y + x) – x y + (x – x) On dit qu’un problème est bien conditionné si une petite varia-
u = --------------------------- et v = ---------------------------
y y tion des données n’entraîne qu’une petite variation des résultats.
où y ≠ 0 et où les parenthèses indiquent celle des opérations à effec- Inversement, un problème est mal conditionné si une petite varia-
tuer en premier. On a u = v = 1. Sur l’ordinateur si l’on prend x = 1 tion des données peut entraîner une grande variation des résultats.
et y = ε tel que fl (1 + ε ) = 1, alors on obtient fl (v ) = 1 et fl (u ) = 0. Naturellement, les notions de petite et grande variations
Par conséquent, sur ordinateur, l’addition n’est pas associative et dépendent de t , le nombre de digits de la mantisse des mots de
n’est pas commutative. L’exemple précédent montre également que l’ordinateur. On voit que la notion de conditionnement est liée au
les erreurs peuvent être importantes et qu’une formule mathé- problème mathématique lui-même et qu’elle est indépendante de
matiquement exacte peut conduire, sur ordinateur, à des résultats la stabilité numérique de l’algorithme qui sera ensuite utilisé pour
complètement faux. le résoudre. Ces deux notions sont à prendre en compte simul-
Calculons maintenant sur ordinateur la différence a = b – c tanément dans l’analyse des résultats numériques fournis par
lorsque b et c sont très voisins. l’ordinateur, de même qu’il faudra également tenir compte de la
précision de la méthode de résolution utilisée, puisque nous avons
Exemple : si b = 0,183 256 et c = 0,183 255 et si t = 6, on obtient dit, dans l’introduction, que la majorité des méthodes d’analyse
a = 0,000 001, c’est-à-dire 0,100 000 × 10–5 en virgule flottante nor- numérique étaient des méthodes approchées.
malisée, résultat parfaitement exact. Il faut cependant bien voir que les
cinq 0 qui suivent le 1 dans le résultat n’ont aucune signification et
qu’ils sont complètement arbitraires puisque l’on ne connaissait que
les 6 premiers chiffres significatifs de b et de c. Si l’on utilise main- 1.4 Correction de l’arithmétique
tenant la valeur de a dans des calculs ultérieurs, tout se passera donc
comme si l’on ne disposait plus que d’un seul chiffre significatif exact, En face des erreurs dues à l’arithmétique de l’ordinateur, on peut
comme si l’ordinateur ne travaillait plus qu’avec t = 1. avoir plusieurs attitudes. On peut d’abord chercher à estimer ces
erreurs en se basant sur les majorations des théorèmes 1 et 2. On
On voit donc le risque énorme que l’on prend en continuant les se place alors dans le pire des cas, celui où les erreurs ne se
calculs. C’est l’erreur de cancellation qui se produit dans la dif- compensent jamais, et les bornes obtenues ainsi ne sont pas
férence de deux nombres voisins ; elle est la principale source réalistes. À de telles majorations, il vaut mieux préférer une esti-
d’erreur sur ordinateur. mation statistique des erreurs dues à l’arithmétique de l’ordinateur :
c’est la méthode de permutation-perturbation due à La Porte et
Exemple d’erreur de cancellation : soit à calculer les deux racines Vignes [18] [43]. On trouvera le logiciel correspondant à cette
de : méthode sur le site http://www-anp.lip6.fr/cadna/. Une autre attitude
ax 2 + bx + c = 0 consiste à corriger l’arithmétique de l’ordinateur. Comme c’est dans
une somme de termes que les erreurs peuvent le plus s’accumuler,
à l’aide des formules classiques. nous allons montrer comment essayer de corriger un tel calcul par
Pour a = 10– 4, b = 0,8 et c = – 10– 4, les racines sont – 8 × 103 et une méthode due à Pichat [36]. Soit à calculer :
– 1,25 × 10– 4. Un ordinateur travaillant par arrondi avec t = 6 trouve bien n
la première racine mais donne 5,96 × 10– 4 pour la seconde. L’erreur pro- S = ∑ xi
vient de la cancellation dans le calcul de – b + b 2 – 4ac : on dit que i=1
l’algorithme utilisé est numériquement instable.
et soit fl (S ) la valeur obtenue sur ordinateur après calcul. Pour
obtenir fl (S ), on effectue une boucle. On pose :
Si l’on veut obtenir un algorithme qui ne présente pas cet incon-
vénient, un algorithme numériquement stable, il faut éliminer la S1 = x 1
différence de nombres voisins qui engendre une erreur de cancel-
lation. Cela est possible. En effet, l’une des deux racines est puis on calcule :
toujours bien calculée : celle pour laquelle le signe devant la racine Si = Si –1 + xi pour i = 2, ..., n
carrée est le même que celui de – b. Posons donc :
On obtient :
2
x 1 = ( – b + ε b – 4ac )/2a Sn = fl (S )
avec ε = + 1 si b < 0 et ε = – 1 si b  0 . Soit ei l’erreur faite sur la i ième somme. Naturellement, on aura :
x 1 sera toujours bien calculé. Il faut alors se souvenir que le
n–1
produit des racines est égal à c /a. On calculera donc la seconde
racine par : S = fl (S ) + ∑ ei
x 2 = c /ax 1 i=1

x 2 sera toujours bien calculé : l’algorithme est numériquement Les ei se calculent à l’aide des formules :
stable, nous en avons éliminé les causes possibles d’erreurs de
cancellation.  –Si + Si – 1 + xi si Si – 1  x i
ei = 
Cette notion de stabilité numérique est liée à un algorithme.  –Si + xi + Si – 1 si Si – 1 < x i

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 3

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

n–1 (i )
On montre que les autres polynômes T peuvent se calculer
Tous les chiffres décimaux de T = S n + ∑ ei sont exacts.
récursivement à l’aide du schéma de Neville-Aitken :
k

i=1
(i) (i + 1)
Exemple : calculer : (i) ( x i + k + 1 – x ) T k (x ) – ( x i – x ) T k (x )
T k + 1 (x ) = ---------------------------------------------------------------------------------------------------------------
1 000 xi + k + 1 – xi
–6
S = 1+ ∑ 10 = 1,001
pour k = 0, ..., n – 1 et i = 0, ..., n – k – 1.
i=1
(0)
Sur un ordinateur travaillant en arrondi avec t = 6, on obtient Le polynôme T n ainsi obtenu est le polynôme d’interpolation
fl (S ) = 1,000 95 et T = 1,001 00. de f en x 0 , ..., xn . On place habituellement ces polynômes dans un
tableau à double entrée :

T (0) (x) = f (x0)


0
T (0)
2. Interpolation T (1) (x) = f (x1)
1
0 T (0)
2
T (1)
T (2) (x) = f (x2)
0
1 ......
2.1 Polynôme d’interpolation

..............
et son calcul T (0)
n

Soit f une fonction réelle d’une variable réelle (ou, ce qui ne


change rien, une fonction complexe d’une variable complexe). On
......
suppose que l’on connaît les valeurs de f (x0 ), f (x1 ), ..., f (x n ) et T (n—1) (x) = f (xn—1)
l’on cherche un polynôme P tel que : 0
T (n—1)
1
P (x i ) = f (x i ) pour i = 0, ..., n T (n) (x) = f (xn)
0
On dit que P est le polynôme d’interpolation de f (ou qu’il inter- On voit que l’on se déplace dans ce tableau à partir de la colonne
pole f ) en x 0 , x 1 , ..., x n . On a le résultat fondamental du de gauche qui est connue, en allant vers la droite et de haut en bas.
théorème 3 en supposant qu’au moins l’une des quantités f (x i ) est Les flèches indiquent comment obtenir, à l’aide de la formule
différente de zéro. (i)
précédente, un polynôme T k + 1 de la colonne k + 1 à partir de deux
(i) ( i + 1)
Théorème 3. Une condition nécessaire et suffisante pour qu’il polynômes T k et T k de la colonne k. Si l’on garde en
existe un unique polynôme P de degré au plus égal à n qui inter- (n) (n – 1) (0 )
pole f en x 0 , x 1 , ..., x n est que les abscisses d’interpolation mémoire la dernière diagonale montante T 0 , T 1 , ..., T n , il
x 0 , x 1 , ..., x n soient toutes distinctes les unes des autres. est alors facile d’ajouter un nouveau point d’interpolation.
Le polynôme d’interpolation peut également s’exprimer à l’aide
Pour obtenir ce polynôme P, il y a deux possibilités principales. des différences divisées. Celles-ci sont définies récursivement de la
La première est d’utiliser la formule d’interpolation de Lagrange manière suivante :
qui dit que P est donné par :
[ xi ]f = f ( xi )
n
[ x i + 1 , ..., x i + k ] f – [ x i , ..., x i + k – 1 ] f
P (x ) = ∑ L i (x ) f ( x i ) [ x i , ..., x i + k ] f = ---------------------------------------------------------------------------------------------
xi + k – xi
-
i=0

avec Le polynôme d’interpolation P est alors donné par la formule :


n
Li ( x ) = ∏ ( x – x j ) / ( xi – xj ) P (x ) = [x 0 ]f + (x – x 0 ) [x 0 , x 1 ]f + (x – x 0 ) (x – x 1) [x 0 , x 1 , x 2 ]f
j=0 + ... + (x – x 0 ) ... (x – xn –1) [x 0 , ..., xn ]f
j≠i
On peut ainsi adjoindre de nouveaux points d’interpolation un
Il est facile de voir que L i (x i ) = 1 et que L i (x k ) = 0 pour k ≠ i, par un. Pour passer du polynôme d’interpolation de degré n au
donc d’après l’unicité du polynôme d’interpolation, cette formule polynôme de degré n + 1 sur les mêmes points et un point supplé-
nous fournit bien P puisque P (x k ) = f (x k ) pour k = 0, ..., n. Naturel- mentaire, il suffit de rajouter un terme dans la formule précédente.
lement, les Li dépendent de n et donc, si l’on veut ajouter de
nouveaux points d’interpolation et augmenter n, tous les calculs L’erreur s’exprime par :
seront à recommencer. f (x ) – P (x ) = (x – x 0 ) ... (x – xn ) [x 0 , ..., xn , x]f .
Pour cette raison, on utilise souvent le schéma de Neville-Aitken Définissons l’opérateur ∆ et ses puissances par ∆0f (x i ) = f (x i ) et
qui est particulièrement bien adapté à l’adjonction de nouveaux ∆k +1 f (x i ) = ∆k f (xi +1) – ∆k f (x i ) pour k  0 . Lorsque les points
(i ) d’interpolation sont équidistants, c’est-à-dire xi = x 0 + ih pour
points d’interpolation. Appelons T le polynôme de degré au
k i = 0, 1, ..., on a k ! hk [xi , ..., xi +k ] f = ∆k f (xi ) et le polynôme d’inter-
plus égal à k qui interpole f en x i , ..., xi +k , c’est-à-dire que : polation P s’exprime à l’aide de la formule de Newton :
(i )
T k ( xj ) = f ( xj ) pour j = i , ..., i + k ∆f ( x 0 ) ∆ 2 f ( x 0)
P ( x ) = f ( x 0 ) + ( x – x 0 ) -----------------
- + ( x – x 0 ) ( x – x 1 ) ---------------------
-
1!h 2!h 2
D’après cette définition, on a donc :
n
∆ f (x )
(i ) + ... + ( x – x 0 ) ... ( x – x n – 1 ) -----------------0---
T 0 (x) = f ( xi ) pour i = 0, ..., n
n ! hn

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 4 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

2.2 Erreur d’interpolation 2.4 Convergence


Dans la pratique, l’interpolation polynomiale sert à remplacer une Puisque l’on cherche à approximer une fonction f par un poly-
fonction f, qui est soit inconnue, soit trop compliquée, par une nôme d’interpolation, il est une seconde question qu’il est naturel
fonction plus simple, en l’occurrence un polynôme. On dit que l’on de se poser : celle de la convergence (en un sens à préciser) de ces
approxime f par le polynôme d’interpolation P. Quand on utilise une polynômes d’interpolation lorsque n augmente indéfiniment.
approximation, comme c’est le cas dans de nombreuses méthodes On se donne n et des abscisses d’interpolation distinctes
d’analyse numérique, il est fondamental d’étudier l’erreur (n) (n) (n)
d’approximation. Naturellement, sauf cas particulier, l’expression x 0 , x 1 , ..., x n . Soit Pn le polynôme tel que :
de l’erreur ne permet pas de calculer cette erreur exactement (car,
s’il en était ainsi, il n’y aurait plus d’erreur) ; elle peut cependant être (n) (n)
Pn ( x i ) = f (x i ) pour i = 0, ..., n
très utile pour en calculer une borne supérieure. C’est ainsi que,
pour l’interpolation polynomiale, on démontre le théorème 4. Soit C ∞ [– 1, + 1] l’espace des fonctions continues sur [– 1, + 1]
muni de la norme :
f = max f (x)
Théorème 4. Soit I un intervalle contenant x 0 , ..., xn et x . Si f x ∈ [ – 1 , +1 ]
est (n + 1) fois continûment dérivable sur I, alors il existe ξ ∈I et
dépendant de x tel que : On démontre le résultat négatif du théorème 5.

v(x) (n + 1)
f ( x ) – P ( x ) = --------------------- f (ξ)
( n + 1 )! Théorème 5. Quelles que soient les abscisses x i pour
(n)

avec v (x ) = (x – x 0) (x – x 1 ) ... (x – xn ) i = 0, ..., n et pour n = 0, 1, ..., il existe au moins une fonction


f ∈C∞ [– 1, + 1] telle que la suite des polynômes d’interpolation
(Pn ) ne converge pas vers f dans C∞ [– 1, + 1], c’est-à-dire telle
Cette expression ne permet pas de calculer la valeur exacte de
que :
l’erreur parce que, en général, ξ est inconnu. Elle peut permettre
d’en calculer une majoration ou de choisir les points d’interpolation max f ( x ) – Pn ( x )
x ∈ [ – 1 , +1 ]
x 0 , ..., xn de façon optimale lorsque ceux-ci ne sont pas imposés.
ne tende pas vers zéro lorsque n tend vers l’infini.

2.3 Choix des points d’interpolation On voit donc qu’il faut faire attention : le résultat ne sera pas
toujours meilleur en augmentant n . Nous avons obtenu un résultat
Supposons que x 0 , ..., xn et tous les points x possibles négatif parce que nous demandions beaucoup : nous avons seu-
appartiennent à l’intervalle [– 1, + 1] (auquel on pourra toujours se lement imposé à f d’être continue et nous n’avons imposé aucune
ramener par changement de variable). On a alors : (n)
contrainte sur les points d’interpolation x i . Dans la pratique, il
1 (n + 1) n’y a pas lieu d’être aussi pessimiste car, dès que l’on demande
max f ( x ) – P ( x ) B --------------------- max v ( x ) max f (x)
x ∈ [ –1 , + 1 ]
( n + 1 )! x ∈ [ –1 , +1 ] x ∈ [ – 1 , +1 ] moins, en imposant soit des conditions sur f, soit des conditions
(n)
sur les x i , on obtient des résultats positifs. C’est ainsi que l’on a
La borne supérieure de l’erreur ainsi obtenue contient deux le théorème 6.
termes : un qui dépend de f (n + 1) et sur lequel on ne peut rien et
un qui dépend uniquement des points d’interpolation, c’est :
Théorème 6. Quelle que soit f ∈C∞ [– 1, + 1], il existe des
max v (x) (n)
x ∈ [ – 1 , +1 ] abscisses x i (i = 0, ..., n et n = 0, 1, ...) telles que :
On peut alors se poser la question de savoir comment choisir les max f ( x ) – Pn ( x ) = 0
lim
points d’interpolation x 0 , ..., xn de façon à rendre ce terme le plus n → ∞ x ∈ [ – 1, +1 ]
petit possible. On aura ainsi minimisé une borne supérieure de
l’erreur (et non pas l’erreur elle-même, ce qui est différent). Ce pro-
blème, très célèbre en mathématiques, a été posé et résolu par (n)
Cependant, il n’existe pas de famille d’abscisses x i qui
Tchebychev et les polynômes qui répondent à cette question ont conviennent pour toutes les fonctions continues et il est plus inté-
reçu son nom. Les polynômes de Tchebychev vérifient la relation ressant d’ajouter des conditions sur f comme le montre le
de récurrence : théorème 7.
T 0 (x ) = 1 T 1 (x ) = x
T n +1 (x ) = 2x Tn (x ) – Tn –1 (x ) pour n = 1, 2, ... Théorème 7. Si f ∈C∞ [– 1, + 1] a une dérivée k ième continue
Tn est de degré n et, sur [– 1, + 1], on a : (pour un certain k  1 ), alors :

Tn (x ) = cos (n arccos x ) pour n = 0, 1, ... lim max f ( x ) – Pn ( x ) = 0


n → ∞ x ∈ [ – 1, +1 ]
On montre que, parmi les polynômes v de degré n + 1, ayant un
(n)
coefficient du terme de plus haut degré égal à 1 et leurs racines lorsque les x i sont les racines de T n +1 .
toutes réelles, distinctes et dans [– 1, + 1], celui qui minimise De plus, on a :
max v ( x ) est Tn + 1 (x )/2n.
x ∈ [ – 1 , +1 ] max f ( x ) – P n ( x ) = o ( lgn/n k )
Le choix optimal des points d’interpolation consiste donc à x ∈ [ – 1, +1 ]
prendre les racines x 0 , ..., xn de Tn +1 qui sont données par :
2i + 1 On trouvera les démonstrations des résultats précédents ainsi
x i = cos ------------------ π pour i = 0, ..., n
2n + 2 que de nombreux autres résultats théoriques dans [19] [31].

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 5

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

2.5 Polynôme d’interpolation d’Hermite Puis on calcule les polynômes Ak et Bk par :


(0)
Jusqu’à présent, nous avons imposé à notre polynôme d’inter- A –1 ( x ) = 1 A0 ( x ) = ρ0
polation P de satisfaire à : B –1 ( x ) = 0 B0 ( x ) = 1
P (xi ) = f (xi ), pour i = 0, ..., n (0) (0)
A k + 1 ( x ) = ( ρ k + 1 – ρ k – 1 )A k ( x ) + ( x – x k )A k – 1 ( x )
Nous allons maintenant lui imposer de satisfaire en plus à : (0) (0)
B k + 1 ( x ) = ( ρ k + 1 – ρ k – 1 )B k ( x ) + ( x – x k )B k – 1 ( x ), pour k = 0, 1, ...
P ′ (xi ) = f ′ (xi ), pour i = 0, ..., n
en supposant naturellement connues les valeurs de f ′ (x 0), ..., f ′ (xn ). A 2k , A 2k +1 et B 2k +1 sont des polynômes de degré k au plus et
On dit alors que P est le polynôme d’interpolation d’Hermite de f B 2k est un polynôme de degré k – 1 au plus sous certaines conditions
en x 0 , ..., xn . Nous avons le théorème 8. d’existence que nous ne détaillerons pas ici. On démontre que la
fraction rationnelle :

Théorème 8. Une condition nécessaire et suffisante pour qu’il Rn (x ) = An (x )/Bn (x )


existe un unique polynôme d’interpolation d’Hermite de f en interpole f en x 0 , ..., x 2n , c’est-à-dire que :
x 0 , ..., xn de degré au plus égal à 2n + 1 est que les abscisses
x 0 , ..., xn soient toutes distinctes les unes des autres. Rn (xi ) = f (xi ), pour i = 0, ..., 2n

■ Voyons maintenant un second exemple. Soit g 0 , ..., gn des


On montre que ce polynôme est donné par la formule : fonctions données. Nous allons rechercher P de la forme :
n n P (x ) = a 0 g 0 (x ) + ... + an gn (x )
P (x) = ∑ Hi ( x ) f ( xi ) + ∑ Vi ( x ) f ′ ( xi ) qui interpole f en x 0 , ..., xn , c’est-à-dire tel que :
i=0 i=0
2 P (xi ) = f (xi ), pour i = 0, ..., n
avec Hi ( x ) =  1 – 2 ( x – x i ) Li′ ( x i )  L i (x)
2 On voit que ce problème généralise l’interpolation polynomiale
Vi ( x ) = ( x – xi ) Li ( x )
n que l’on retrouve pour gi (x ) = x i. Il existe, pour calculer P, un algo-
et Li ( x ) = ∏ ( x – xj ) / ( xi – xj ) rithme qui généralise le schéma de Neville-Aitken et qui est dû à
(i )
j = 0 Mühlbach [34]. Soit P k tel que :
j≠i
(i )
Pour l’erreur, on a le théorème 9. P k ( x ) = a 0 g 0 ( x ) + ... + a k g k ( x )
(i )
et P k ( xj ) = f ( xj ) pour j = i, ..., i + k
Théorème 9. Soit I un intervalle contenant x 0 , ..., xn et x. Si f
est (2n + 2) fois continûment dérivable sur I, alors il existe ξ ∈ I et Naturellement, comme dans le schéma de Neville-Aitken pour
dépendant de x tel que : l’interpolation polynomiale, les coefficients a 0 , ..., ak dépendent de
(i )
v 2(x) k et de i . On montre que ces P k peuvent être calculés récur-
f ( x ) – P ( x ) = -------------------------- f ( 2n +2 ) ( ξ ) sivement à l’aide du schéma suivant :
( 2n + 2 )!
(i)
avec v (x ) = (x – x 0 )(x – x 1 ) ... (x – xn ) P 0 ( x ) = f ( x i )g 0 ( x )/g 0 ( x i ) pour i = 0, 1, ...
(i)
g 0, j ( x ) = g j ( x i ) g 0 ( x ) / g 0 ( x i ) – g j ( x ) pour i = 0, 1, ... ; j = 1, 2, ...
(i + 1) (i) (i ) (i + 1)
2.6 Exemples d’interpolation (i) g + 1 (x) P k (x) – g k,k + 1 (x) P k (x)
P k + 1 ( x ) = -------k,k
---------------------------------------------------------------------------------------------------------
(i + 1) (i )
non polynomiale g k,k + 1 (x) – g k,k + 1 (x)
pour i , k = 0, 1, ...
Jusqu’à présent, nous avons toujours interpolé f par un poly-
nôme parce que c’est un cas simple et qui couvre de nombreuses (i + 1) (i ) (i ) (i + 1)
(i) g + 1 (x) g k,j (x) – g k,k + 1 (x) g k, j (x)
applications. g k + 1,j ( x ) = -------k,k
-----------------------------------------------------------------------------------------------------------
(i + 1) (i )
g k,k + 1 (x) – g k,k + 1 (x)
Cependant, les polynômes auront du mal à approcher correc-
tement la fonction tan x qui présente des pôles ou la fonction
exp (– x ) qui tend vers zéro lorsque x tend vers l’infini. Il est donc pour i , k = 0, 1, ... ; j = k + 2, ...
utile d’étudier l’interpolation par des familles autres que poly-
(0)
nomiales, mais c’est un problème qui devient rapidement difficile On aura P ( x ) = P n ( x ) si aucune division par zéro ne se produit
même dès les conditions d’existence. Nous en donnerons dans l’algorithme. On trouvera dans [34] une étude de ces conditions
cependant deux exemples. ainsi que des résultats théoriques concernant cet algorithme.

■ Le premier exemple concerne l’interpolation par des fractions


rationnelles. On commence par définir les différences réciproques
de f par :
2.7 Fonctions splines
(i ) (i ) Représenter une fonction par un polynôme sur un intervalle
ρ –1 = 0 et ρ0 = f ( xi ) pour i = 0, 1, ...
nécessite souvent un degré élevé pour obtenir une bonne précision.
(i ) (i + 1) xi + k + 1 – xi On peut alors diviser l’intervalle en sous-intervalles et représenter
ρ k + 1 = ρ k – 1 + ---------------------------------
- pour k , i = 0, 1, ... la fonction par un polynôme de faible degré sur chacun d’eux. On
(i + 1) (i )
ρk – ρk obtient ainsi une approximation polynomiale par morceaux. Afin

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 6 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

que cette fonction par morceaux soit la plus lisse possible, on On pose :
demandera à ces polynômes de se raccorder aux points de la s
s–r
subdivision ainsi que leurs dérivées jusqu’à un certain ordre. Une b rs ( x ) = ∑ bi B i – r ( x )
telle fonction s’appelle une fonction spline. i=r
Sur les fonctions splines, voir [23] et [24]. On a :
Nous commencerons par étudier les polynômes de Bernstein qui brr (x ) = br
forment une base de l’espace vectoriel des polynômes ainsi que la
représentation de Bézier d’un polynôme. et brs (x ) = (1 – x )br, s –1(x ) + xbr +1, s (x ), r < s

On a b0n (x ) = P (x )
n!
2.7.1 Polynômes de Bernstein et P ( k ) ( x ) = ---------------------- ∆ k b 0n ( x )
et représentation de Bézier ( n – k )!

où l’opérateur ∆ agit sur le premier indice inférieur.


Les polynômes de Bernstein sont définis par :
La représentation de Bézier et l’algorithme de De Casteljau
n k k n! s’étendent aux courbes paramétrées et aux surfaces. Ce sont des
B k ( x ) = C n ( 1 – x )n – k xk , 0  k  n, C n = ---------------------------- ingrédients majeurs dans la représentation de courbes et de sur-
k! ( n – k )!
faces par des fonctions splines.
n
Pour tout k, B k est un polynôme de degré k et l’on a :
n+1 n
B0 ( x ) = ( 1 – x )B 0 ( x ) 2.7.2 Courbe de Bézier
n+1 n n
B k (x) = (1 – x )B k ( x ) + xB k – 1 ( x )
Soit Pi , pour i = 0, ..., n, des points de R 2 . On définit par récur-
n+1 n
B n + 1(x) = xB n ( x ) rence la suite d’applications de [0, 1] dans R 2 de la manière
suivante :

n
B 0 (Pi )(t ) = Pi , ∀i
n
De plus ∑ B k (x) = 1
B k ( P i , ..., P i + k ) ( t ) = ( 1 – t ) B k – 1 ( P 0 , ..., P i + k – 1 ) (t )
k=0

n
+ tB k – 1 ( P i + 1 , ..., P i + k ) (t ) , k  1
k n
∑ ----B
n k
(x) = x
L’arc paramétré Bn (P 0 , ..., Pn ) : t Œ Bn (P 0 , ..., Pn )(t ) s’appelle
k=0
courbe de Bézier associée aux points de Bézier P 0 , ..., Pn . Pour
n simplifier, on notera Brs ( r  s ∈  ) l’application qui à t fait corres-
k(k – 1) n
∑ ---------------------
n(n – 1) k
- B (x) = x2 pondre Bs – r (P r , ..., Ps )(t ). On démontre que :
k=0
s
s–r
n
B rs ( t ) = ∑ B i – r ( t ) Pi
Pour n  1 , le polynôme Bk
admet les points 0 et 1 comme i=r
racines avec les multiplicités respectives k et n – k et il atteint son En particulier :
maximum en k /n.
n
n
n
Les polynômes de Bernstein B 0 , ..., B n forment une base de
n B 0n ( t ) = ∑ Bi ( t ) Pi
l’espace vectoriel des polynômes de degré au plus égal à n. Tout i=0
polynôme P (x ) = a 0 + a 1 x + ... + an xn peut donc être écrit dans et le support de cet arc paramétré est contenu dans l’enveloppe
n n
cette base P ( x ) = b 0 B 0 ( x ) + ... + b n B n ( x ) . Cette forme s’appelle la convexe de P 0 , ..., Pn .
représentation de Bézier de P et b 0 , ..., bn sont ses coefficients de Soit f une fonction définie sur un certain intervalle. Par un
Bézier. Ces coefficients bi sont reliés aux ai par b 0 = a 0 et bi = – ∆ia 0i changement de variable, on peut ramener cet intervalle à [0, m ],
(∆ agit sur le premier indice inférieur), où aki = bk pour k = 0, ..., i – 1 m ∈  . Sur chaque sous-intervalle [k , k + 1], pour k = 0, ..., m – 1, f
sera représentée par un polynôme Pk de degré n avec la condition
i k
et a ii = – a i / C n . Réciproquement a k = C n ∆ k b 0 pour k = 0, ..., n. de raccordement Pk (k + 1) = P k +1 (k + 1). Pour utiliser la représen-
tation de Bézier, on effectue le changement de variable t = x – k
Dans R 2 , les points (i /n, bi ), pour i = 0, ..., n, sont les points de dans [k , k + 1].
Bézier (ou points de contrôle) et la ligne polygonale qui les relie Soit bnk , ..., bnk +n les coefficients de Bézier pour l’intervalle
s’appelle le polygone de Bézier de P. Il contient le graphe de P et [k , k + 1], c’est-à-dire b 0 , ..., bn pour le premier sous-intervalle,
a une forme similaire. De plus, les points (0, b 0 ) et (1, bn ) appar- bn , ..., b 2n pour le second et ainsi de suite jusqu’à bnm – n , ..., bnm
tiennent au graphe de P. Pour modifier P afin d’obtenir une forme pour le dernier. On obtient ainsi une approximation polynomiale par
désirée, il suffit de modifier la position des points de Bézier. C’est
cette propriété qui fait tout l’intérêt de la représentation de Bézier morceaux f˜ de f qui, pour le choix P (k + 1) = P (k + 1) = f (k + 1),
k k +1
en conception géométrique assistée par ordinateur [CAGD (Com- interpole f aux points 1, ..., m – 1. La fonction f˜ est définie par les
puter Aided Geometric Design ) ou CAO (Conception assistée par nm + 1 coefficients b 0 , ..., bnm et elle peut être calculée en tout point
ordinateur)]. x ∈[0, m ] par l’algorithme de De Casteljau. Pour cela, il faut
Il est possible de calculer récursivement les valeurs de P et de commencer par déterminer k ∈{0, ..., nm – 1} tel que x ∈[k , k + 1],
ses dérivées en tout point par l’algorithme de De Casteljau à partir puis appliquer l’algorithme de De Casteljau aux coefficients de
des coefficients de Bézier. Bézier b , ..., b
nk . Le graphe de f˜ est une courbe de Bézier et
nk +n
Soit 0  r  s  n . elle est contenue dans l’enveloppe convexe des points de Bézier.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 7

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

On peut imposer des conditions de raccordement supplémen- Posons hi = xi +1 – xi pour i = 1, ..., n – 1. Dans chaque sous-intervalle,
taires à f˜ . Ainsi, cette fonction sera de classe C 1 si et seulement si S est un polynôme de degré 3 au plus. En écrivant les conditions
n (bnk – bnk –1 ) = n (bnk +1 – bnk ), c’est-à-dire : d’interpolation S (xi ) = yi pour i = 1, ..., n et la continuité des dérivées
premières en x 2 , ..., x n –1 , on obtient le système tridiagonal :
2bnk = bnk –1 + bnk +1 pour k = 1, ..., m – 1
     
f˜ sera de classe C 2 si, de plus : H 1   z2   v2 
h2 
    
2bnk –1 – bnk –2 = 2bnk +1 – bnk +2 pour k = 1, ..., m – 1 h 2 H2 h3   z   v3 
   3   
Et ainsi de suite pour des conditions de raccordement sur les  .. .. ..    =  

...

...
dérivées d’ordres supérieurs.  . . .     
     
La représentation de Bézier et l’algorithme de De Casteljau  hn – 3 Hn – 3 h n – 2 z n – 2   vn – 2 
     
s’étendent à  m . 


hn – 2 H n – 2 z
 n–1 
 v
 n – 1
     
2.7.3 Spline et spline naturelle
Soit D = {x 0 , ..., xn +1 } une subdivision de [a , b ] avec avec zi = S ′′ (xi ) pour i = 1, ..., n,
a = x 0 < x 1 < ... < xn < xn +1 = b. Une fonction S : [ a , b ] Π est une z 1 = zn = 0 puisque S est affine sur [a, x 1 ] et [xn , b],
fonction spline de degré k par rapport à D si et seulement si S est Hi = 2 (hi + hi +1), i = 2, ..., n – 2,
un polynôme de degré k au plus sur chaque sous-intervalle
[xi , xi+1 ] pour i = 0, ..., n et est de classe C k –1 sur [a , b ], c’est-à-dire, vi = [(yi +1 – yi ) / hi – (yi – yi –1) / hi –1 ] / 6, i = 2, ..., n – 1
pour i = 1, ..., n :
En résolvant ce système, on obtient :
– +
S ( j ) ( x i ) = S ( j ) ( x i ), j = 0, ..., k – 1
zi + 1 zi
L’espace vectoriel des splines de degré k par rapport à D est p i ( x ) = ------------
- ( x – x i ) 3 + ---------- (x – x )3
6h i 6h i i + 1
dénoté Sk,D .
yi + 1 hi y h
Posons : - – ------- z i + 1  ( x – x i ) +  -----i- – ------i- z i  ( x i + 1 – x )
+  -------------
 h 6  h 6 
i i
k  ( x – xi )k si x  x i
( x – xi )+ = 
0 si x < x i
pour i = 1, ..., n – 1.
La fonction S s’appelle une spline naturelle de degré 2k – 1 par S = αx + β est déterminé sur [a, x 1 ] par y 1 et p 1′ ( x 1 ) , et par yn
rapport à D si c’est un polynôme de degré 2k – 1 au plus sur
chaque sous-intervalle ]xi , xi +1 [ pour i = 1, ..., n – 1, si c’est un et p n′ – 1 ( x n ) sur [xn , b ].
polynôme de degré k – 1 au plus sur [a, x 1 [ et ]xn , b ], et si elle est
de classe C 2k –2 sur [a , b ]. L’espace vectoriel des splines naturelles
N 2.7.5 B -splines
par rapport à D est dénoté S k,D . Une fonction S : [ a , b ] Œ  est
une spline naturelle de degré 2k – 1 par rapport à D si et seulement La base de Sk ,D telle qu’elle vient d’être construite est non locale.
si elle est de la forme : D’autre part, elle est mal conditionnée si deux points x i sont
n voisins. On peut construire une base de Sk ,D consistant en des
2k – 1
S ( x ) = p0 ( x ) + ∑ ai ( x – xi )+ fonctions positives à support compact, appelées B -splines.
i=1 Les B -splines de degré k sont définies par :
avec p 0 polynôme de degré k – 1 au plus et si les coefficients ai ,
k
i = 1, ..., n , satisfont : N i ( x ) = ( – 1 ) k + 1 ( x i + k + 1 – x i ) [ x i , ..., x i + k + 1 ] g
n k
j avec g ( t ) = ( x – t ) + .
∑ ai x i = 0, j = 0, ..., k – 1
i=1
Elles satisfont la relation de récurrence :
( 2k – 1 ) + ( 2k – 1 ) –
On a a i = ( S (x i ) – S ( x i ) )/ ( 2k – 1 ) !. Quels que soient x – xi xi + k + 1 – x
k k–1 k–1
x 1 , ..., xn ∈[a , b ], y 1 , ..., yn , et k ∈{1, ..., n }, il existe une unique N i ( x ) = -----------------------
-N ( x ) + --------------------------------------
-N ( x ), k 1
xi + k – xi i xi + k + 1 – xi + 1 i + 1
N
spline naturelle d’interpolation S ∈ S k,D telle que S (x i ) = yi pour
n
i = 1, ..., n . k
Si, sur chaque sous-intervalle, les polynômes sont écrits dans
Soit S ( x ) = ∑ d i N i ( x ) une spline de degré k par rapport à
i = –k
leur représentation de Bézier, alors les conditions de raccordement
des polynômes et de leurs dérivées jusqu’à un certain ordre aux D écrite dans la base des B-splines. Pour tout x ∈[a , b[, elle peut
points de la subdivision se traduisent par des conditions sur les être calculée par l’algorithme de de Boor :
coefficients de Bézier correspondants à chaque sous-intervalle. 0
soit 0  j  n tel que x ∈[xj , x j +1 [. On pose d i = d i et, pour
m  1 , on calcule :
2.7.4 Splines cubiques d’interpolation
m k–m+1 m–1 k–m+1 m–1 m x – xi
Les splines cubiques sont parmi les plus utilisées. Elles corres- di = αi di + (1 – α i )di–1 avec α i = -----------------------
-
pondent à k = 3, ou à 2k – 1 = 3 dans le cas des splines naturelles. xi + m – xi

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 8 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

m
Pour m  1 , les d i sont des fonctions de x et l’on a, pour Soit donc a  x 0 < x 1 < ... < x n – 1 < x n  b et soit Pn le polynôme
1  m  k :
d’interpolation de f (et non pas de fω ) en ces points. Nous avons,
j
m k–m d’après le théorème 9, f (x ) = Pn (x ) + En (x ) où En (x ) est l’erreur
S (x ) = ∑ di Ni (x )
d’interpolation en x . Par conséquent :
i = j–k+m

  
b b b
Donc, pour m = k : f ( x ) ω ( x ) dx = P n ( x ) ω ( x ) dx + E n ( x ) ω ( x ) dx
k a a a
S (x ) = d j (x )
En remplaçant Pn par son expression donnée par la formule de
Si k  1 , on peut utiliser cet algorithme pour x = b avec j = m . Lagrange (§ 2.1), on obtient :
I = In + Rn
2.7.6 Cas multivarié n
(n)
Un avantage important de la représentation de Bézier est qu’elle avec In = ∑ Ai f ( xi )
s’étend facilement au cas de plusieurs variables. En effet, les i=0
n m
polynômes de Bernstein B r ( x ) et B s ( y ) forment une base de

b
(n)
l’espace vectoriel des polynômes de degré au plus n et m par rap- Ai = L i ( x ) ω ( x ) dx
port aux variables x et y et l’on a donc : a


n m b
n m E n ( x ) ω ( x ) dx
P ( x, y ) = ∑ ∑ bik B i (x )B k (y ) Rn =
a
i=0k=0
In est une valeur approchée de I et Rn est l’erreur de la formule
Les coefficients de Bézier constituent maintenant une matrice. Si de quadrature.
y est fixé, le polynôme en x , P (x , y ), a comme coefficients de Bézier
m Par construction même de cette formule et d’après le théorème 9,
m
les nombres b i ( y ) = ∑ b ik B k ( y ) . Ainsi, pour y fixé, l’algorithme on a le théorème 10.
k=1
de De Casteljau appliqué à chaque ligne de la matrice de Bézier
Théorème 10. Si f est un polynôme de degré n au plus, alors
génère les coefficients de Bézier de P (x , y ) pour y fixé [23].
In = I.
Les fonctions de plusieurs variables peuvent aussi être représen-
tées par des fonctions à base radiale. On suppose que la fonction
n
f est connue sur un ensemble discret de points D ∈  . Soit On dit que In est exact sur  n , l’espace vectoriel des polynômes
φ :  + Œ  une fonction donnée. Un approximation à base radiale de degré inférieur ou égal à n. Ce résultat est valable quel que soit
de f a la forme générale : le choix des abscisses d’interpolation. Nous allons donc, dans un
premier temps, nous borner à un choix particulièrement simple
S (x ) = ∑ λr φ ( x – r ), x ∈ n des xi . On pose :
r∈D
h = (b – a )/n
Exemple : le plus simple est φ (r ) = r.
et l’on prend :
D’autres choix intéressants sont φ (r ) = r 2 lnr (splines plaque mince ),
φ (r ) = (r 2 + c 2)1/2 où c est un paramètre positif (multiquadriques ) et xi = a + ih pour i = 0, ..., n
φ (r ) = exp (– αr 2 ) avec α un paramètre positif (cas gaussien ) [11] [44].
(n)
Le premier travail est de calculer les coefficients A i de la
formule de quadrature. Lorsque ω (x ) = 1 (ce qui est le cas le plus
courant et nous nous placerons dans ce cas jusqu’à nouvel avis),
(n)
3. Quadrature numérique il existe des tables qui donnent les valeurs numériques des A i .
C’est ainsi que l’on a :
(1) (1)
A0 = A1 = ( b – a )/2
3.1 Quadrature de type interpolation
(2) (2) (2)
Nous allons maintenant nous intéresser à l’obtention d’une A0 = A2 = ( b – a )/6 et A1 = 4 ( b – a )/6
valeur numérique approchée de l’intégrale définie :
Les formules correspondantes s’appellent : formules de quadra-

b
ture de Newton-Cotes.
I = f ( x ) ω ( x ) dx
a

avec ω (x ) > 0, ∀ x ∈]a , b [, 3.2 Convergence et stabilité



b
( x ) dx < + ∞ . La première question importante qu’il nous faut résoudre est
a celle de la convergence : la suite (In ) converge-t-elle vers I lorsque
L’idée de base des méthodes numériques pour résoudre ce n tend vers l’infini, ∀ f ∈C ∞ [a , b ] ?
problème (que l’on appelle : méthodes de quadrature) est de La seconde question à laquelle il nous faut répondre est celle de
remplacer la fonction f que l’on ne sait pas intégrer par son poly- la stabilité numérique de la formule de quadrature. En effet, dans
nôme d’interpolation. On a une méthode de quadrature de type la pratique, les f (xi ) ne sont pas connus exactement parce qu’ils
interpolation. proviennent de mesures ou parce qu’ils sont entachés d’une erreur

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 9

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

de calcul due à l’arithmétique de l’ordinateur. Donc, au lieu de cal- Cette formule s’appelle méthode des trapèzes et l’on démontre
culer In , on calcule : que :
n
( b – a )3
(n) T n – I = ----------------------- f ′′ ( ξ ) avec ξ ∈ [ a, b ]
∑ Ai ( f ( xi ) + εi )
12n 2
i=0
La méthode des trapèzes est de la forme :
La différence entre ce que l’on calcule réellement et ce que l’on
voulait calculer est donc : n
(n)
n
(n)
Tn = ∑ Ai f ( xi )
∑ A i εi i=0
i=0
avec xi = a + ih
On dira qu’une formule de quadrature est stable s’il existe une
constante M telle que pour tout n et quels que soient ε 0 , ..., ε n on (n) (n)
A0 = An = h /2
ait :
(n)
n Ai = h pour i = 1, ..., n – 1
(n)
∑ Ai εi  M max
0  i  n
εi
i=0 On a donc :
n n
(n) (n)
On démontre les théorèmes 11 et 12. ∑ Ai = ∑ Ai = b–a
i=0 i=0

Théorème 11. Une condition nécessaire et suffisante pour qui est une constante indépendante de n. Par ailleurs, d’après la
qu’une méthode de quadrature soit convergente sur C ∞ [a , b ] formule de l’erreur, on voit que la méthode des trapèzes est
est que : convergente lorsque f est un polynôme ; par conséquent, nous
a ) elle soit convergente lorsque f est un polynôme ; avons démontré le théorème 14.
b ) il existe une constante M telle que, pour tout n :
n Théorème 14. La méthode des trapèzes est stable et conver-
(n)
∑ Ai  M gente sur C ∞ [a , b ].
i=0

Par contre, les résultats fournis par cette méthode ne sont


souvent pas très précis et la suite (Tn ) ne converge pas très vite
Théorème 12. Une condition nécessaire et suffisante pour vers I. Nous allons donc voir comment améliorer la précision de la
qu’une méthode de quadrature soit stable est que la condition b formule des trapèzes ou, ce qui revient ici au même, comment
du théorème 11 soit satisfaite. accélérer la convergence de (Tn ). L’idée est d’abord d’utiliser la
méthode des trapèzes pour différentes valeurs du pas h. On obtient
On démontre que, pour la méthode de Newton-Cotes, cette ainsi différentes valeurs approchées de I :
condition n’est pas vérifiée et, par conséquent, on a le théorème 13. T (h 0 ), T (h 1 ), T (h 2 ), ...

telles que lim T ( h n ) = I si lim h n = 0 . Puis, on fait passer un


Théorème 13. La méthode de Newton-Cotes n’est ni stable ni n→∞ n→∞
convergente sur C ∞ [a , b ]. polynôme d’interpolation par ces valeurs de T (hi ) et enfin on
calcule la valeur en 0 de ce polynôme d’interpolation, ce qui nous
fournit, en général, une valeur approchée de I bien meilleure que
3.3 Méthodes des trapèzes et de Romberg les T (hi ). Pour des raisons de stabilité numérique et de mini-
misation du nombre d’évaluations de f à effectuer, on prend
En raison du théorème 13, on ne peut pas utiliser directement la hi +1 = hi /2. Pour des raisons basées sur la justification théorique de
méthode de Newton-Cotes, mais on est obligé de passer par le cette procédure, on effectue le changement de variable x = h 2 dans
biais d’une méthode de quadrature composite. On écrit que : le polynôme qui interpole les T (hi ). Enfin, dans la pratique, le
schéma de Neville-Aitken est particulièrement bien adapté au
   
b x1 x2 xn
calcul des valeurs en 0 de ces polynômes d’interpolation. Appelons
f ( x ) dx = f ( x ) dx + f ( x ) dx + ... + f ( x ) dx (n)
a x0 x1 xn – 1 Tk la valeur en 0 du polynôme d’interpolation de T (h ) en
x n = h n , ..., x n + k = h n + k = h n  2 2 k .
2 2 2
et l’on va calculer séparément une valeur numérique approchée de
chacune de ces n intégrales en utilisant la plus simple de toutes les
formules de Newton-Cotes, celle à deux points qui est de la forme Nous obtenons l’algorithme suivant :
(cf. fin § 3.1) : (n)
= T ( hn ) = T ( h0 ⁄ 2 n )

x i +1 T0 pour n = 0, 1, ....
x i+1 – x i
f ( x ) dx ≈ ----------------------
- [ f ( x i ) + f ( x i+1 ) ] (n + 1) (n)
xi 2 (n) 4k + 1 T k –Tk
T k + 1 = ---------------------------------------------------
- pour k, n = 0, 1, ...
En prenant les abscisses xi équidistantes, comme nous l’avons 4k + 1 – 1
fait dans les méthodes de Newton-Cotes, on obtient une valeur
approchée de I que nous noterons Tn ou T (h ) selon qu’il vaut mieux Si l’on suppose f suffisamment dérivable, alors on démontre
faire ressortir sa dépendance en n ou celle en h [on rappelle que que :
h = (b – a )/n ] : (n) (n)
n–1 — lim T k = lim T k = I ;

∑ f ( a + ih ) + f ( b ) 
n→∞ k→∞
h
2 
T n = ----- f ( a ) + 2
i=1
(n)
— T k – I = O (h n
2k + 2
) lorsque n tend vers l’infini ;

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 10 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

(n ) On démontre le théorème 17.


— la suite ( T k + 1 ) pour k fixé converge vers I plus vite que
(n )
(T k ) , c’est-à-dire que, pour tout k :
Théorème 17. Toute famille de polynômes orthogonaux {vk }
satisfait à une relation de récurrence de la forme :
(n) (n)
lim ( T k + 1 – I )/ ( T k – I ) = 0
n→∞
vk +1 (x ) =
(Ak +1 x + Bk +1) vk (x ) – Ck +1 vk –1 (x ), pour k = 0, 1, ...
(n)
Les Tk ainsi obtenus sont, en général, bien plus précis que les avec v –1 (x ) = 0, v 0 (x ) = t 0
(n)
T0 fournis par la méthode des trapèzes. Cette méthode s’appelle Ak +1 = tk +1 / tk
méthode de Romberg.
sk + 1 s
B k + 1 = A k + 1  ------------ – -----k-
t t k+1 k

3.4 Méthode de Gauss Ck + 1


t k – 1 tk + 1 hk
= ------------------------
- -------------
2 hk – 1
et polynômes orthogonaux tk


b
Revenons maintenant au cas général avec une fonction ω 2
vérifiant : et hk = v k x ω ( x )dx
a


b
∀ x ∈ ]a, b [ , ω ( x ) > 0 et (x)dx < + ∞
a Comme les polynômes vk sont déterminés à une constante
multiplicative près (car alors les racines restent inchangées), on
Nous avons vu que, quel que soit le choix de x 0 , x 1 , ..., xn , In est peut toujours prendre, dans les relations précédentes, tk = 1 pour
exact sur  n (théorème 10). Peut-on avoir mieux ou, en d’autres tout k . Connaissant vk –1 et vk on peut alors calculer vk +1 .
termes, est-il possible de choisir x 0 , ..., xn de sorte que In soit exact Comme nous venons de le voir, les racines de vk possèdent éga-
pour des polynômes de degré le plus élevé possible ? Nous allons lement certaines propriétés intéressantes. On a ainsi le théorème 18.
maintenant étudier un tel choix. On démontre le théorème 15.
Théorème 18. Pour tout k , les racines de vk sont réelles, dis-
Théorème 15. Une condition nécessaire et suffisante pour que tinctes et appartiennent à [a, b ] ; vk et vk +1 n’ont pas de racine
In soit exact sur  2n + 1 est que : commune. Entre deux racines consécutives de vk il y a une et
une seule racine de vk +1 et inversement.

 a
b
x i v n +1 ( x ) ω ( x ) dx = 0, pour i = 0, ..., n
Après avoir calculé récursivement le polynôme vn +1 grâce à la
avec vn +1 (x ) = (x – x 0)(x – x 1) ... (x – xn ) relation de récurrence du théorème 17, il faut calculer ses racines.
Nous verrons dans le dossier [AF 1 221], § 1 des méthodes numé-
riques qui permettent de résoudre ce problème (par exemple, la
Ce théorème nous permet donc de répondre à la question que méthode de Bairstow). Il nous faut ensuite calculer les coefficients
(n )
nous nous étions posée. Il faut d’abord rechercher un polynôme Ai de la formule de quadrature de Gauss. On démontre que ces
vn +1 , de degré n + 1, qui satisfait aux relations du théorème 15 (les
coefficients sont tous strictement positifs et que l’on a :
relations d’orthogonalité). On démontre que, grâce aux conditions
imposées sur ω, un tel polynôme existe toujours, que ses racines (n) An + 1 hn
x 0 , x 1 , ..., xn sont réelles, distinctes et appartiennent à [a, b ]. On Ai = --------------------------------------------- pour i = 0, ..., n

vn + 1 (x i ) v n ( x i )
construit donc In en prenant pour abscisses d’interpolation x 0 , ..., xn
les racines de vn +1 qui satisfont bien aux conditions précisées au avec x 0 , ..., xn racines de vn +1 .
début de ce paragraphe (x 0 , ..., xn dépendent bien évidemment
Non seulement les méthodes de Gauss sont optimales par rap-
(n)
de n ). On calcule les coefficients A i par la formule donnée au port à un choix arbitraire des abscisses d’interpolation puisque In
paragraphe 3.1. La méthode de quadrature ainsi obtenue s’appelle est exact sur  2n + 1 au lieu de n mais de plus on a le
méthode de Gauss. On démontre qu’elle est optimale car on a le théorème 19.
théorème 16.
Théorème 19. Les formules de quadrature de Gauss sont
Théorème 16. Dans la méthode de quadrature de Gauss, In stables et convergentes sur C∞ [a, b ].
n’est pas exact sur  2n + 2 (c’est-à-dire qu’il existe au moins un
f ∈  2n + 2 tel que In ≠ I ). On démontre de plus que :


b ( 2n + 2)
2 f (ξ)
On dit que la famille de polynômes {v 0 , v 1 , v 2 , ...}, qui satisfait Rn = I – In = v n + 1 ( x ) ----------------------------- ω (x ) dx
aux conditions d’orthogonalité du théorème 15, forme la famille a ( 2n + 2 ) !
de polynômes orthogonaux sur l’intervalle [a, b ] par rapport à la
fonction poids ω. Les familles de polynômes orthogonaux ont des avec ξ dépendant de x.
propriétés caractéristiques importantes. D’abord ils vérifient une Nous allons maintenant passer en revue les familles de polynô-
relation de récurrence à trois termes qui permet de les calculer mes orthogonaux les plus couramment utilisées. Ces polynômes
récursivement. Écrivons vk sous la forme : ont des applications dans de nombreux autres problèmes d’ana-
lyse numérique. Chaque famille a reçu un nom particulier et est
vk (x ) = tk x k + sk x k – 1 + ... désignée par une lettre souvent normalisée.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 11

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

■ Polynômes de Legendre Pn Il existe de nombreuses autres familles importantes de poly-


nômes orthogonaux. Nous renvoyons le lecteur intéressé aux
Ils sont définis sur [– 1, + 1] avec ω (x ) = 1. Leur relation de récur-
ouvrages sur cette question, par exemple [26].
rence est :
Estimation de l’erreur
(n + 1) Pn +1 (x ) = (2n + 1) x Pn (x ) – n Pn –1 (x ) pour n = 1, 2, ...
Un principe général en analyse numérique est que, si l’on dispose
avec P0 (x ) = 1 et P1 (x ) = x. de deux valeurs approchées d’une même quantité, leur différence
On a : est, en général, une bonne estimation de l’erreur sur la moins bonne
des deux approximations. Selon ce principe, on peut donc estimer
2 l’erreur d’une formule de quadrature de Gauss à n + 1 points (exacte
(n) 2(1 – x i )
Ai = ----------------------------------------- pour i = 0, ..., n sur  2n + 1 ) par sa différence avec le résultat fourni par une formule
2 2
(n + 1) Pn (x i ) de Gauss à n + 2 points. Cependant, l’estimation de l’erreur ainsi
obtenue ne sera pas très bonne car la seconde formule, qui est
2n + 3 4 censée fournir une solution de référence, n’est exacte que sur
2 [ ( n + 1 )! ] ( 2n + 2 )
et R n = ------------------------------------------------------ f
3
(ξ) avec ξ ∈ [ – 1, +1 ]  2n + 3 .
( 2n + 3 ) [ ( 2n + 2 )! ]
L’idée de la procédure de Kronrod est de bâtir une seconde for-
mule de quadrature meilleure. Elle est construite en conservant les
■ Polynômes de Laguerre Ln n + 1 points de la première formule de quadrature (les racines du
polynôme orthogonal vn +1) et en leur ajoutant n + 2 nouveaux
Ils sont définis sur [0, + ∞) avec ω (x ) = exp (– x ). Leur relation de
points choisis au mieux, c’est-à-dire afin que cette seconde formule
récurrence est :
soit exacte sur  3n + 4 . On montre que ces nouveaux points doi-
(n + 1) Ln +1 (x ) = (2n + 1 – x ) Ln (x ) – n Ln –1 (x ) pour n = 1, 2, ... vent être les racines du polynôme de Stieltjes sn +2 tel que :


avec L 0 (x ) = 1 et L1 (x ) = 1 – x. b
i
On a : x s n + 2 ( x ) v n + 1 ( x ) ω ( x ) dx = 0, pour i = 0, ..., n + 1
a
2
(n) [ ( n + 1 )! ]
Ai = ---------------------------------------- pour i = 0, ..., n
x i [ Ln′ + 1 ( x i ) ]
2 Un tel polynôme sn +2 existe toujours mais, pour conduire à une
formule de quadrature, ses racines doivent être réelles, dans [a, b],
[ ( n + 1 )! ]
2 distinctes entre elles et distinctes de celles de vn +1. Ces restrictions
( 2n + 2 )
et R n = ----------------------------- f (ξ) avec ξ ∈ [ 0, + ∞] ne sont vérifiées que pour certaines fonctions poids ω, comme
( 2n + 2 )! celles qui correspondent aux polynômes de Tchebychev, de
Gegenbauer et de Jacobi. La procédure de Kronrod nécessite le
■ Polynômes d’Hermite Hn calcul de f en 2n +3 points comme cela aurait été le cas en faisant
appel à deux formules de Gauss, mais l’estimation de l’erreur ainsi
Ils sont définis sur (– ∞, + ∞) avec ω (x ) = exp (– x 2 ). Leur relation obtenue est de bien meilleure qualité. Cette procédure s’étend aux
de récurrence est : approximants de Padé qui peuvent être considérés comme des
quadratures de Gauss formelles (cf. dossier [AF 1 221]).
Hn +1 (x ) = 2x Hn (x ) – 2n Hn –1 (x ) pour n = 1, 2, ...
Sur la méthode de quadrature de Gauss et la procédure de
avec H0 (x ) = 1 et H1 (x ) = 2x. Kronrod, on pourra consulter la référence [26].
On a :
n+2
(n) 2 ( n + 1 )! π
Ai = --------------------------------------------- pour i = 0, ..., n
2
[ Hn′ + 1 ( x i ) ]
4. Intégration des équations
( n + 1 )!
et Rn = π --------------------------------------- f
n+1
( 2n + 2 )
(ξ) avec ξ ∈ (– ∞, + ∞) différentielles
2 ( 2n + 2 )!

■ Polynômes de Tchebychev de première espèce Tn 4.1 Définition du problème


2
Ils sont définis sur [– 1, + 1] avec ω (x ) = 1/ 1 – x . Leur rela- Soit [a, b ] un intervalle fermé de  , soit f une application de
tion de récurrence est : p p
× dans  et soit y une application différentiable de  dans
Tn +1 (x ) = 2x Tn (x ) – Tn –1 (x ) pour n = 1, 2, ... p
 . On appelle système différentiel du premier ordre la relation :
avec T0 (x ) = 1 et T1 (x ) = x.
y ’ (x ) = f (x, y (x ))
Ce sont les polynômes que nous avons déjà rencontrés dans le
paragraphe 2.3. On a : On dit que y est solution de ce système sur [a, b ] si y vérifie
cette relation pour tout x de [a, b ]. On sait que la solution y d’un
2i + 1 tel système dépend de constantes arbitraires. Ces constantes peu-
x i = cos ----------------- π pour i = 0, ..., n
2n + 2 vent être déterminées par la connaissance de la solution en un
(n) point. On appelle problème de Cauchy le système différentiel pré-
Ai = π /(n + 1) pour i = 0, ..., n cédent auquel on adjoint la condition initiale :

2π ( 2n + 2 )
y (a ) = y 0
et R n = ----------------------------------------- f
2n + 2
(ξ) avec ξ ∈ [– 1, + 1]
2 ( 2n + 2 )! avec y 0 vecteur donné de  .
p

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 12 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

Le théorème 20 nous donne des conditions qui assurent l’exis- On a le résultat suivant qui nous permet de savoir si une
tence et l’unicité de la solution de ce problème de Cauchy. méthode à pas séparés est consistante.

p Théorème 21. Une condition nécessaire et suffisante pour


Théorème 20. Si f est définie et continue sur [ a, b ] ×  et s’il
qu’une méthode à pas séparés soit consistante est que pour tout
existe une constante L strictement positive telle que, pour tout x ∈[a, b ] et pour tout u ∈  on ait : φ (x, u, 0) = f (x, u ).
x ∈[a, b ] et pour tout u et tout v ∈  p , on ait :
On voit que cette condition est particulièrement simple à vérifier
f ( x, u ) – f ( x , v )  L u – v
dans la pratique.
alors le problème de Cauchy admet une solution unique quel Pour la stabilité, considérons les zn donnés par :
que soit y 0 ∈ p . z 0 ∈  arbitraire

On dit alors que f satisfait à une condition de Lipschitz et L est zn +1 = zn + h [φ (xn , zn , h ) + εn ] pour n = 0, ..., N – 1
sa constante de Lipschitz. Nous nous placerons toujours dans les
conditions de ce théorème.
Définition 2. On dit qu’une méthode à pas séparés est stable
Si l’on prend un problème de Cauchy très simple [par exemple s’il existe deux constantes positives M 0 et M 1 telles que, quels
y ’ = ay avec y (0) = 1], on sera capable d’obtenir sa solution exacte que soient h et ε 0 , ..., εN –1 , on ait :
par les méthodes de l’analyse mathématique [y (x ) = exp (ax ) dans
notre exemple]. On pourra alors calculer la valeur numérique exacte max yn – zn  M0 y0 – z0 + M1 max εn
de cette solution en tout point de l’intervalle [a, b ] en remplaçant, 0nN 0nN–1
dans cette formule, x par sa valeur numérique. Si le problème est
plus compliqué, on ne sera en général plus capable d’obtenir la solu-
tion à l’aide des outils de l’analyse mathématique classique et il fau- Le théorème 22 nous permet de savoir si une méthode à pas
dra faire appel à des méthodes d’analyse numérique qui nous séparés est stable.
fourniront seulement une valeur approchée de la solution en cer-
tains points x 0 , x 1 , ..., xN de l’intervalle d’intégration. Nous appel- Théorème 22. S’il existe une constante positive M telle que,
lerons y (xn ) la solution exacte (inconnue en général) en xn et yn la pour tout h suffisamment petit, pour tout x ∈[a, b ] et pour tout u
valeur approchée de la solution en xn fournie par la méthode d’ana- et tout v ∈  , on ait :
lyse numérique considérée. Les méthodes de calcul de y 0 , y 1 , ..., yN
se divisent en deux classes selon la façon de calculer ces yn : φ ( x, u, h ) – φ ( x, v, h )  M u – v
— les méthodes à pas séparés (ou à un pas) dans lesquelles le
calcul de yn +1 ne fait intervenir que yn ; alors la méthode à pas liés est stable.
— les méthodes à pas liés (ou à plusieurs pas) dans lesquelles
le calcul de yn +1 fait intervenir yn , yn –1 , ..., yn –k pour k fixé. Nous pouvons maintenant passer à l’étude de la convergence en
Soit h = (b – a )/N, le pas d’intégration. Nous allons prendre les commençant par la définition 3.
abscisses xn équidistantes dans [a, b ], c’est-à-dire :
x n = a + nh pour n = 0, ..., N Définition 3. On dit qu’une méthode à pas séparés est
convergente si :

4.2 Méthodes à pas séparés lim max yn – y ( xn ) = 0


h→0 0nN

Dans une méthode à pas séparés, les yn sont calculés par une
relation de la forme : Les notions intermédiaires de consistance et de stabilité nous
yn +1 = yn + hφ (xn , yn , h ) pour n = 0, ..., N – 1 permettent maintenant de répondre à cette question grâce au
théorème 23.
avec y 0 condition initiale donnée.
Les différentes méthodes se distinguent les unes des autres par Théorème 23.
le choix de φ.
Si une méthode à pas séparés est consistante et stable, alors
elle est convergente.
4.2.1 Notions théoriques
Le problème fondamental est celui de la convergence : la solution La convergence est une notion qualitative. Il est évident que, dans
approchée yn converge-t-elle vers la solution exacte y (xn ) en tout la pratique, il serait très intéressant de savoir comment la quantité
point de [a, b ] lorsque le pas h tend vers zéro ? Pour pouvoir max y n – y ( x n ) tend vers zéro avec h . Naturellement, puisqu’il
répondre plus facilement à cette question, on est obligé d’introduire 0nN
deux notions intermédiaires : la consistance et la stabilité (à ne pas était déjà trop difficile de répondre directement à la question de la
confondre avec la stabilité numérique). Nous allons donc étudier convergence, il sera encore plus difficile de répondre directement
cette question en nous restreignant au cas d’une seule équation, à cette nouvelle question. Pour cela, nous allons retourner à la
p = 1. définition 1 de la consistance où il y a aussi une quantité qui tend
vers zéro avec h et poser la définition 4.

Définition 1. On dit qu’une méthode à pas séparés est


consistante avec l’équation différentielle si, pour toute solution Défi nition 4 . On dit qu’une méthode à pas séparés est
y de celle-ci, on a : d’ordre r s’il existe une constante positive K telle que :

lim max ( y ( x n + 1 ) – y ( x n ) ) /h – φ ( x n , y ( x n ) , h ) = 0 max ( y ( x n + 1 ) – y ( x n ) )/h – φ ( x n , y ( x n ) , h )  Kh r


h→0 0nN–1 0nN–1

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 13

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

Grâce au théorème 24, nous allons connaître le comportement dans de nombreux domaines des mathématiques appliquées, il est
de l’erreur. important d’étudier ce phénomène et de savoir lui apporter une
solution. Cette question a donné lieu à une très abondante litté-
rature (cf. par exemple [28] [29]), mais on peut cependant l’étudier
Théorème 24. Si une méthode à pas séparés est d’ordre r et si sur un problème test qui, bien que très simple, est suffisant pour
elle vérifie la condition de stabilité du théorème 22, alors : analyser les difficultés.
max y n – y ( x n )  K ′h r Considérons l’équation différentielle :
0nN
y ′ (x ) = – λ y (x ), y (0) = 1
avec K ′ = K (exp[(b – a ) M ] – 1)/M
avec λ nombre complexe dont la partie réelle est strictement
positive.
Au cours de la démonstration du théorème 24, on obtient La solution de ce problème est :
l’inégalité :
e n + 1  ( 1 + hM ) e n + Kh r + 1 y (x ) = exp (– λ x )
et par conséquent lim y ( x ) = 0 .
avec en = yn – y (xn ). x→∞
Cela montre que l’erreur globale en xn + 1 , en + 1 , provient de Il est naturellement souhaitable que la solution approchée repro-
deux sources : l’erreur locale sur le passage de xn à xn + 1 (Kh r + 1) duise ce comportement asymptotique, c’est-à-dire tende vers zéro
et les erreurs qui se sont accumulées depuis l’abscisse initiale a. à l’infini. C’est ce qu’exprime la définition 5.
Ainsi, en cumulant des erreurs locales en h r + 1, on obtient une
erreur globale en h r, ce qui est normal puisque :
Définition 5. On dit qu’une méthode d’intégration numérique
Nh r + 1 = (b – a ) h r est A-stable si, lorsque l’on intègre le problème de Cauchy
y ’ = – λy, lim y n = 0 quel que soit le nombre complexe hλ dont
n→∞
4.2.2 Méthodes de Runge-Kutta
la partie réelle est strictement positive.
La plus simple de toutes les méthodes à pas séparés est la
méthode d’Euler qui consiste à prendre : Si, par exemple, nous appliquons la méthode d’Euler à ce
φ (x , u , h ) = f (x , u ) problème, nous obtenons :
C’est une méthode du premier ordre et les résultats qu’elle yn + 1 = (1 – h λ) yn
fournit ne sont pas très précis.
c’est-à-dire :
On appelle méthode de Runge-Kutta une méthode où la
fonction φ est définie par : yn = (1 – h λ)n

k 1 = f ( x, u ) Lorsque n tend vers l’infini, yn tend donc vers zéro si et seu-


lement si le nombre complexe 1 – h λ est de module strictement
k 2 = f ( x + θ 2 h , u + a 21 hk 1) inférieur à 1. Cette condition n’est évidemment pas satisfaite pour
tous les nombres h λ dont la partie réelle est strictement positive :

la méthode d’Euler n’est pas A-stable.


Par conséquent, si l’on choisit un pas h tel que |1 – h λ| > 1, yn
k m = f ( x + θ m h, u + a m 1 hk 1 + … + a m, m – 1 hk m – 1 ) tendra vers l’infini avec n au lieu de tendre vers zéro comme la
φ ( x , u , h ) = c 1 k 1 + c 2 k 2 + … + cm km solution exacte. On voit donc que c’est un ennui sérieux auquel il
faut absolument remédier. On doit naturellement choisir une
m s’appelle le rang et les constantes θi , a ij et ci sont en général valeur du pas h telle que la condition |1 – h λ| < 1 soit satisfaite.
choisies pour que la méthode soit d’ordre le plus élevé possible.
Exemple : si λ = 10 000, il faudra prendre h < 2 × 10 – 4 et le temps
Il n’y a qu’une seule méthode de rang 1 et d’ordre 1, c’est la de calcul sera très long alors que, puisque la solution est très rapide-
méthode d’Euler ; il y a une infinité de méthodes de rang m et ment presque nulle, on pouvait espérer prendre un pas relativement
d’ordre m pour m = 2, 3 et 4 ; il n’y a aucune méthode de rang 5 grand et avoir un temps de calcul court.
et d’ordre 5. Pour atteindre l’ordre 5, il faut aller au rang 6.
On démontre de même qu’aucune des méthodes de Runge-Kutta
La plus utilisée des méthodes de Runge-Kutta est la suivante qui
vues plus haut n’est A-stable. Il faut donc s’orienter vers un autre
est de rang et d’ordre 4 :
type de méthodes. Toutes les méthodes précédentes étaient
k1 = f (x, u ) explicites car, dès que yn était connu, la relation :

k 2 = f (x + h /2, u + hk 1 / 2) yn +1 = yn + h φ (xn , yn , h )

k 3 = f (x + h /2, u + h k 2 /2) nous permettait de calculer explicitement la valeur de yn+1 .


Lorsque ce n’est pas le cas, la méthode est dite implicite ; par
k 4 = f (x + h, u + h k 3 ) exemple, on peut avoir :
φ (x, u, h ) = (k 1 + 2k 2 + 2k 3 + k 4) / 6 yn + 1 = yn + h φ (xn , yn , xn + 1, yn + 1, h )

yn +1 est alors donné implicitement comme solution de cette


4.2.3 A-stabilité équation (ou de ce système d’équations) qui peut être non linéaire.
Pour calculer yn +1 , il faut utiliser les méthodes itératives étudiées
On appelle raides (ou stiff) les équations différentielles dont la dans le dossier [AF 1 221], § 1 . La plus simple de toutes ces
solution présente des variations très rapides. Cela pose de très méthodes est la méthode d’Euler implicite :
sérieux problèmes de stabilité numérique à la plupart des
méthodes numériques. De telles équations étant très fréquentes yn +1 = yn + hf (xn +1 , yn +1)

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 14 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

Appliquée à notre problème test, elle fournit : en série de Taylor et en comparant à la solution exacte. Puisque les
yn +1 = yn / (1 + h λ) c i et les a ij sont déjà connus, les c *i sont solution d’un système
d’équations linéaires.
c’est-à-dire :
yn = (1 + h λ)– n Exemple : considérons la méthode de Runge-Kutta d’ordre 4 :
k 1 (x, u ) = f (x, u )
Par conséquent, yn tend vers zéro quel que soit h λ dont la partie
réelle est strictement positive : la méthode d’Euler implicite est k 2 (x, u ) = f (x + h /3, u + hk1 / 3)
A-stable.
k 3 (x, u ) = f (x + 2h / 3, u – hk1 / 3 + hk 2)
Il existe des méthodes de Runge-Kutta implicites définies par :
k 4 (x, u ) = f (x + h , u + hk 1 – hk 2 + hk 3)
k 1 = f ( x + θ 1 h , u + a 11 hk 1 + … + a 1 m hk m )
avec Φ (x , u , h ) = (k 1 + 3k 2 + 3k 3 + k 4) / 8.
k 2 = f ( x + θ 2 h , u + a 21 hk 1 + … + a 2 m hk m ) La méthode emboîtée correspondante est d’ordre 3 et elle est
donnée par :

h
k m = f ( x + θ m h, u + a m 1 hk 1 + … + a mm hk m ) y*
n+1
= y n + -------- [ 2k 1 + 12k 2 + 6k 3 + 4f ( x n + 1 , y n + 1 ) ]
24
φ ( x , u , h ) = c 1 k 1 + c 2 k 2 + … + cm km
L’erreur locale sur y *
n+1
est estimée par la formule :
Si aij = 0 pour j > i , on dit que la méthode est semi-implicite ; le h
système non linéaire à résoudre à chaque pas est alors plus simple. y*
n+1
– y n + 1 = -------- [ – k 1 + 3k 2 – 3k 3 – 3k 4 + 4f ( x n + 1 , y n + 1 ) ]
24

Les méthodes emboîtées permettent de choisir le pas à utiliser


4.2.4 Mise en œuvre afin d’obtenir une précision désirée. On a, avec la valeur de h
Lors de la mise en œuvre effective d’une méthode d’intégration utilisée :
numérique, de nombreux autres problèmes pratiques se posent. Le
premier d’entre eux concerne le choix du pas h pour obtenir la yn + 1 – y *
n+1 = [ y n + 1 – ỹ ( x n + 1 ) ] – [ ỹ ( x n + 1 ) – y *
n+1 ]
précision désirée. Ensuite, si la solution varie beaucoup dans = O (h
s+1
) + O (h
s′ +1
) ≈ Ch
s′ +1
,C ∈ p
l’intervalle d’intégration, on peut être amené à changer la valeur du
pas soit pour le diminuer si la précision atteinte n’est pas suffi- y ( x n + 1 ) solution exacte en xn +1 telle que ỹ ( x n ) = y n .
avec ỹ
sante, soit pour l’augmenter si elle est beaucoup trop petite. Avec
les méthodes à pas séparés, cela ne pose aucune difficulté car il
La valeur optimale de h, dénotée ĥ , est choisie de sorte que
suffit de remplacer h par hn et de prendre :
s′+ 1
xn +1 = xn + hn
η ≈ C ĥ , où η est la tolérance prescrite pour l’erreur locale.
En éliminant ||C || entre ces deux relations, on trouve :
Mais, pour effectuer ces changements de pas à bon escient, il faut
1/ ( s ′ + 1 )
être capable de contrôler l’erreur globale. Cela se fait généralement ĥ = 0,9h ( η/ y n + 1 – y *
n+1 )
en programmant simultanément deux méthodes : une d’ordre r et
une d’ordre r + 1. En chaque point xn la différence entre les deux où le facteur 0,9 a été inclus pour des raisons de sécurité. Dans cette
valeurs approchées ainsi obtenues est une bonne estimation de formule, la norme utilisée est, en général, un mélange d’erreur rela-
l’erreur globale sur la méthode d’ordre r . Il faut aussi tenir compte tive et d’erreur absolue :
de la propagation des erreurs numériques dues à l’arithmétique de
l’ordinateur. Plus le pas h est petit et plus l’erreur de méthode est p
– y* 2
1 y n + 1, i 
faible. Mais plus le pas h est petit et plus il faut faire de calculs pour yn + 1 – y *
n+1 = -----
p ∑ 
----n----+----1,
-----i----------------------------
d
-

parcourir l’intervalle d’intégration, donc les erreurs dues à l’arith- i=1 i
métique de l’ordinateur augmentent lorsque h diminue. L’erreur
totale, qui est la somme de l’erreur de méthode et de l’erreur due avec d i = 1 + max ( y n + 1, i , y *
n + 1, i ) ,
à l’arithmétique de l’ordinateur, passe donc par un minimum en y n + 1, i et y *
fonction de h ; il existe une valeur optimale de h car il faut faire un n + 1, i respectivement les composantes des vecteurs
compromis entre une erreur de méthode petite et une erreur d’arith- y n + 1 et y *
n + 1.
métique importante ou l’inverse. Ces erreurs numériques sont plus
difficiles à contrôler que l’erreur de méthode. De plus, pour éviter de grandes variations dans le pas, on ajoute
Pour estimer l’erreur dans les méthodes de Runge-Kutta, on se souvent une restriction du type 0,2h  ĥ  5h . Le pas n’est modifié
sert de méthodes de Runge-Kutta emboîtées. Cette technique que si ĥ ne vérifie pas cette condition.
consiste à utiliser simultanément une méthode de Runge-Kutta
d’ordre s et une autre d’ordre s′ < s avec les mêmes ki afin d’éviter
de nouvelles évaluations de f. Ainsi nous avons :
4.3 Méthodes à pas liés
yn +1 = yn + h (c 1k 1 (xn , yn ) + ... + cr kr (xn , yn)), ordre s
Dans ces méthodes, les yn sont calculés récursivement par une
y n* + 1 = y n + h ( c * k ( x n , y n ) + ... + c *
1 1
k ( x n , y n ) ) , ordre s′<s
r r relation de la forme :
αk yn + k + ... + α 0 yn = h [ βk fn + k + ... + β0 fn ] pour n = 0, ..., N – k
Un terme supplémentaire hc *
r+1
f ( x n + 1 , y n + 1 ) peut être ajouté
à la seconde formule pour plus de flexibilité. La différence avec f i = f (xi , yi ).
y* – y n + 1 est une approximation de l’erreur locale sur y * . Les On voit que lorsque n = 0 il faut, pour calculer yk , connaître
n+1 n+1
y 0 , y 1 , ..., y k – 1 . y0 est notre condition initiale : elle est donc connue.
coefficients c *i s’obtiennent en développant les ki et f (xn + 1 , yn +1 ) y 1, ..., yk – 1 sont des valeurs approchées de y (x 1 ), ..., y (x k – 1 ). Elles

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 15

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

devront donc être calculées par une méthode à pas séparés ; une On voit que la différence avec le cas des méthodes à pas séparés
méthode à pas liés ne démarre pas toute seule. Nous reviendrons provient du fait que les méthodes à pas liés ne démarrent pas avec
sur ce point plus tard (théorème 29). On voit aussi que, si βk = 0, la seule connaissance de y 0 . On a le théorème 40.
on a une méthode à pas liés explicite tandis que si βk ≠ 0 elle est
implicite. Dans le cas d’une méthode implicite, il faut que la solution
yn + k de la relation précédente existe. En utilisant les théorèmes de Théorème 27. Une condition nécessaire et suffisante pour
points fixes démontré dans le dossier [AF 1 221], § 1, on démontre qu’une méthode à pas liés soit stable est que toutes les racines
le théorème 25. du polynôme α soient de module inférieur ou égal à 1 et que les
racines de module 1 soient des racines simples.

Théorème 25. Si βk ≠ 0, l’équation implicite précédente a une


solution unique pour tout n si : On voit que, contrairement au cas des méthodes à pas séparés,
on a maintenant une condition nécessaire et suffisante, ce qui nous
1 αk
h < ----- ------- permet d’obtenir les résultats du théorème 28. Auparavant
L βk donnons la définition 8.
avec L constante de Lipschitz de f (cf. § 4.1).
Définition 8. On dit qu’une méthode à pas liés est convergente
On voit que, si βk = 0, la condition précédente n’impose aucune si :
restriction sur h , ce qui est normal puisque la méthode est explicite lim max y n – y ( x n ) = 0
h→0 0nN
et que yn + k existe toujours.
La supériorité des méthodes à pas liés sur les méthodes à pas lorsque lim y i = y 0 pour i = 0, 1, ..., k – 1.
h→0
séparés réside dans le fait qu’elles ne nécessitent pas d’évaluations
de f en des points intermédiaires (sauf au démarrage). Par rapport
à une méthode de Runge-Kutta du même ordre, le temps de calcul
est donc réduit dans une proportion importante. Il est tout à fait normal d’être obligé d’imposer, dans cette défi-
nition, que les k valeurs approchées y 0 , y 1 , ..., yk – 1 convergent
Il existe de nombreux livres entièrement consacrés aux méthodes vers la valeur exacte y 0 lorsque h tend vers zéro.
numériques pour les équations différentielles [12] [16] [28] [29].

Théorème 28. Une condition nécessaire et suffisante pour


4.3.1 Notions théoriques qu’une méthode à pas liés soit convergente est qu’elle soit
Comme pour les méthodes à pas séparés, il nous faut main- consistante et stable.
tenant nous occuper de la consistance et de la stabilité. Nous
avons la définition 6.
Pour l’ordre nous repartons, comme dans le cas des méthodes
à pas séparés (§ 4.2.1), de la définition 6 de la consistance.
Définition 6. On dit qu’une méthode à pas liés est consistante
avec l’équation différentielle si, pour toute solution y de celle-ci,
on a : Définition 9. On dit qu’une méthode à pas liés est d’ordre r s’il
k k
existe une constante positive K telle que :
1
lim max ----- ∑ αi y ( xn + i ) – ∑ βi f ( xn + i , y ( xn + i ) ) = 0
--1--
k k
h→0 0nN–k h
i=0 i=0 max
0nN–k h ∑ αi y ( xn + i ) – ∑ βi f ( xn + i , y ( xn + i ) )  Kh r
i=0 i=0

Posons :
α (t ) = α0 + α1t + ... + αk t k
Théorème 29. Si une méthode à pas liés est d’ordre r, si elle
β (t ) = β0 + β1t + ... + βk t k est stable et si max y i – y ( x i ) = O ( h r ), alors :
0ik–1
On a le théorème 26.
max yn – y ( xn ) = O (h r )
0nN

Théorème 26. Une condition nécessaire et suffisante pour


qu’une méthode à pas liés soit consistante est que α (1) = 0 et
que α ′ (1) = β (1). Nous avons vu au début du paragraphe 4.3 qu’une méthode à
pas liés ne démarrait pas toute seule, mais qu’il fallait utiliser une
méthode à pas séparés pour calculer y 0 , y 1 , ..., yk – 1 . Le
Pour la stabilité, on considère les zn donnés par :
théorème 29 nous dit que ces valeurs doivent aussi être calculées
z 0, z 1, ..., zk – 1 ∈ arbitraires avec une méthode d’ordre r, ce qui est parfaitement logique. Si
l’on prenait une méthode à pas séparés d’ordre plus faible,
αk zn + k + ... + α 0 zn = h [ βn f (xn + k , zn + k ) + ... + β0 f (xn , zn ) + εn ] y 0 , ..., yk – 1 ne seraient pas assez précis ; d’un autre côté, il ne sert
pour n = 0, ..., N – k . à rien de les obtenir avec une trop grande précision qui serait
ensuite perdue.

Définition 7. On dit qu’une méthode à pas liés est stable s’il On a également le théorème 30.
existe deux constantes M 0 et M 1 telles que, quels que soient h et
ε 0 , ..., εN – k , on ait : Théorème 30. Une condition nécessaire et suffisante pour
max yn – zn  M0 max yi – zi + M1 max εn qu’une méthode à pas liés soit consistante est qu’elle soit au
0nN 0ik–1 0nN–k moins d’ordre un.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 16 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

4.3.2 Méthodes d’Adams successives est suffisamment bon, on peut se contenter de ne faire
qu’une seule itération : c’est ce que l’on appelle une méthode de
Les plus utilisées des méthodes à pas liés sont les méthodes prédiction-correction. On programme simultanément une méthode
d’Adams qui sont de la forme : à pas liés explicite, qui fournit la valeur de départ (c’est le pré-
dicteur), et une méthode implicite avec laquelle on ne fait qu’une
k
itération (c’est le correcteur). On a ainsi le schéma suivant :
yq – yj = h ∑ βi fn + i pour j  q
i=0
α *k y *n + k + α *k – 1 y n + k – 1 + ... + α *0 y n
Il en existe plusieurs types selon les valeurs de j et de q. Les = h [ β *k – 1 f n + k – 1 + ... + β 0 f n ]
coefficients βi dépendent de k. On a ainsi les méthodes suivantes :
α k y n + k + α k – 1 y n + k – 1 + ... + α 0 y n
■ Méthodes d’Adams-Bashforth :
= h [ β k f ( x n + k , y *n + k ) + β k – 1 f n + k – 1 + ... + β 0 f n ]
h
y n + 2 = y n + 1 + ----- ( 3f n + 1 – f n ) ordre 2
2
La première relation nous sert à calculer la valeur prédite y *n + k
h
y n + 3 = y n + 2 + ------ ( 23 f n + 2 – 16 f n + 1 + 5 f n ) ordre 3 à partir de yn , ..., yn + k – 1 et la seconde relation nous donne yn + k
12 à partir de yn , ..., yn + k – 1 et y *n + k .
h
y n + 4 = y n + 3 + ------ ( 55 f n + 3 – 59f n + 2 + 37f n + 1 – 9f n ) ordre 4 On a le théorème 31.
24

■ Méthodes d’Adams-Moulton : Théorème 31. Si le prédicteur est d’ordre r – 1 et si le


correcteur est d’ordre r, alors :
h
y n + 1 = y n + ----- ( f n + 1 + f n ) ordre 2
2 max yn – y ( xn ) = O (h r )
0nN
h
y n + 2 = y n + 1 + ------ ( 5 f n + 2 + 8 f n + 1 – f n ) ordre 3
12 à condition que :
h
yn + 3 = y n + 2 + ------ ( 9 f n + 3 + 19f n + 2 – 5f n + 1 + f n ) ordre 4 max yi – y ( xi ) = O (h r )
24 0ik–1

■ Méthodes de Nyström :
On voit que le correcteur a amélioré le résultat du prédicteur et
y n + 2 = y n + 2h f n + 1 ordre 2 qu’il est inutile de prendre un prédicteur d’ordre supérieur car la
h précision serait ensuite perdue.
y n + 3 = y n + 1 + ---- ( 7 f n + 2 – 2 f n + 1 + f n ) ordre 3
3 L’avantage que possèdent les méthodes de prédiction-correction
h est que le contrôle de l’erreur globale est facile à effectuer. En effet,
yn + 4 = y n + 2 + ---- ( 8 f n + 3 – 5f n + 2 + 4f n + 1 – f n ) ordre 4
3 la différence y *n + k – y n + k entre les valeurs prédite et corrigée est
une bonne estimation de l’erreur globale.
■ Méthodes de Milne-Simpson :

y n + 2 = y n + 2h f n + 2 ordre 2 4.3.4 Méthodes de différenciation rétrograde


h
yn + 3 = y n + 1 + ---- ( f n + 3 + 4 f n + 2 + f n + 1 ) ordre 3 Ces méthodes sont obtenues par une approche complémentaire
3
de celle des méthodes d’Adams. Elles consistent à approximer la
Il a été démontré qu’aucune méthode à pas liés explicite ne dérivée première de y, c’est-à-dire f, par la dérivée du polynôme
pouvait être A -stable. On est donc, là encore, obligé de s’orienter d’interpolation q qui satisfait :
soit vers les méthodes implicites, soit vers les méthodes explicites
q (xn –i +1) = yn –i +1 pour i = 0, ..., k
non linéaires.
Les questions posées par la mise en œuvre d’une méthode à pas et q ′ (xn +1) = f (xn +1, q (xn +1))
liés sont similaires à celles évoquées pour les méthodes à pas
séparés. Lorsque l’on veut changer de pas en cours d’intégration, On obtient ainsi les méthodes implicites suivantes d’ordre
une difficulté supplémentaire se présente du fait que les méthodes respectif 2, 3, 4, 5 et 6
à pas liés demandent impérativement un pas constant. Supposons
1 2h
que, arrivé à l’abscisse xn , nous désirions changer la valeur du pas. y n + 2 = --- ( 4 y n + 1 – y n ) + --------- f n +2 ordre 2
Cela est possible en utilisant de nouveau la méthode à pas séparés 3 3
du démarrage sur k pas pour calculer yn + 1 , ..., yn + k – 1 avec la 1 6h
nouvelle valeur du pas. Après, on continuera avec la méthode à y n + 3 = ------- ( 18y n +2 – 9y n +1 + 2y n ) + --------- f n +3 ordre 3
11 11
pas liés. Le contrôle de l’erreur s’effectue, comme dans le cas des
méthodes à pas séparés, en utilisant simultanément une méthode 1 12h
d’ordre r et une méthode d’ordre r + 1. y n + 4 = ------- ( 48y n +3 – 36y n +2 + 16y n +1 – 3y n ) + ------------f n +4 ordre 4
25 25
1
4.3.3 Méthodes de prédiction-correction y n + 5 = ----------- ( 300y n +4 – 300y n +3 + 200y n +2 – 75y n +1 + 12y n )
137
60h
Si l’on désire utiliser une méthode à pas liés implicite, il faut nor- + ------------f n + 5 ordre 5
137
malement à chaque pas résoudre l’équation implicite pour obtenir
1
yn + k . Pour cela, il faut mettre en œuvre la méthode des approxi- y n +6 = ----------- ( 360y n +5 – 450y n +4 + 400y n +3 – 225y n +2 + 72y n +1 – 10y n )
mations successives comme cela sera expliqué dans le dossier 147
60h
[AF 1 221] § 1, ce qui risque d’être coûteux en temps de calcul. + ------------f n +6 ordre 6
147
Cependant, si le point de départ de la méthode des approximations

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 17

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

L’un des avantages de ces méthodes est que le changement de Les idées et les méthodes de l’analyse fonctionnelle jouent un
pas y est facilité. Ainsi, en exprimant le polynôme q à l’aide des dif- rôle important, voire fondamental, en analyse numérique quand
férences divisées, elles peuvent s’écrire (hn a été conservé de part les mathématiques du problème dépendent beaucoup de l’analyse
et d’autre pour une raison d’uniformité avec les autres formules) : fonctionnelle (par exemple, dans les équations aux dérivées par-
tielles), lorsque l’on cherche à traiter d’un seul coup une classe
k j–1 entière de méthodes (par exemple, les méthodes de quadrature de
∑ hn ∏ ( xn + 1 – xn + 1 – i ) [ xn + 1 , ..., xn – j + 1 ]y = hn f ( xn + 1 , yn + 1 ) type interpolation) ou encore à démontrer l’existence de méthodes
j=1 i=1 numériques présentant certaines caractéristiques. L’analyse fonc-
tionnelle apporte alors une simplification importante ; elle joue, par
avec [xn + 1 , ..., xn – j + 1]y différence divisée de y aux points entre contre, un rôle moins fondamental pour étudier un algorithme pré-
crochets (cf. § 2.1). cis ou pour résoudre un problème spécifique et ne sera d’aucune
utilité en ce qui concerne l’implémentation d’une méthode sur
ordinateur. Actuellement, l’analyse fonctionnelle est un outil essen-
4.4 Problèmes aux limites tiel pour comprendre bon nombre de méthodes d’analyse numéri-
que, mais on peut également trouver de nouvelles méthodes
Considérons le cas d’un système d’équations différentielles. numériques sans son secours.
Jusqu’à présent, nous avons considéré le cas d’un problème de
Cauchy, c’est-à-dire le cas où les constantes d’intégration étaient Réciproquement, certains algorithmes découlent directement des
déterminées par la donnée des conditions initiales y (a ) = y 0 . Mais méthodes de l’analyse fonctionnelle. On doit la considérer comme
la situation peut également se présenter de façon différente : il se un outil privilégié pour résoudre certains problèmes d’analyse
peut que l’on connaisse certaines composantes du vecteur y à numérique, mais on ne peut pas, inversement, considérer l’analyse
l’abscisse initiale a et les autres composantes de y à l’abscisse b. numérique comme une branche de l’analyse fonctionnelle ; ce sont
C’est ce que l’on appelle un problème de conditions aux limites. deux domaines différents mais complémentaires puisque l’analyse
On peut transformer ce problème en un problème de Cauchy en numérique peut suggérer l’étude de nouvelles questions d’analyse
recherchant les conditions initiales manquantes telles que les fonctionnelle et que, inversement, celle-ci est le pivot de certains
conditions connues en b soient satisfaites. On a donc à résoudre sujets d’analyse numérique.
un système d’équations non linéaires dont les inconnues sont les
conditions initiales manquantes. De façon plus générale, il faut
trouver les conditions initiales à prendre de sorte qu’un certain
système de p équations non linéaires soit satisfait : 5.1 Meilleure approximation. Théorie
g (y (x 1), y (x 2), ..., y (xq )) = 0
Comme y (x 1), y (x 2), ..., y (xq ) dépendent des conditions initiales Nous allons maintenant étudier le problème de la recherche de
inconnues y 0 on a bien à résoudre un système de p équations à p la meilleure approximation qui peut se formuler ainsi : soit H un
inconnues. espace vectoriel normé et C une partie de H ; on dit que g ∈C est
la meilleure approximation de f ∈H dans C si, pour tout g ∈C,
Pour résoudre un tel système, on utilise une méthode d’inté-
gration numérique du système différentiel, couplée à une méthode f – g  f – g . On a le résultat d’existence donné par le
itérative pour résoudre le système d’équations non linéaires. On théorème 32.
part d’une valeur arbitraire des conditions initiales manquantes et
l’on itère sur cette valeur jusqu’à ce que les équations non linéaires
soient satisfaites à la précision demandée. Naturellement, dans les Théorème 32. Si C est soit une partie compacte de H , soit un
équations g, les valeurs exactes y (x 1), ..., y (xq ) de la solution sous-espace vectoriel de dimension finie de H , alors, quel que
seront remplacées par les valeurs approchées y 1 , ..., yq obtenues soit f ∈H , il existe au moins une meilleure approximation g de
par intégration numérique. C’est ce que l’on appelle une méthode f dans C .
de tir. Du point de vue pratique, il faut choisir une méthode de
résolution du système non linéaire qui ne fasse pas intervenir les
dérivées des fonctions g par rapport aux composantes de y 0 ; on Nous allons maintenant supposer que H est muni d’un produit
pourra, par exemple, utiliser les méthodes quasi-Newton (cf. scalaire ; on dira que c’est un espace préhilbertien et l’on posera
dossier [AF 1 221], § 1.7. ||.||2 = (.,.). On a le résultat de caractérisation donné par le
théorème 33.

5. Approximation Théorème 33. Si H est un espace préhilbertien et si C est un


sous-espace vectoriel de dimension finie de H , alors une
condition nécessaire et suffisante pour que g ∈ C soit meilleure
La théorie de l’approximation constitue une partie fondamentale approximation de f dans C est que pour tout g ∈C :
de l’analyse numérique. De nombreuses questions étudiées dans
les paragraphes précédents peuvent se formuler dans le cadre de (f – g , g – g )  0
cette théorie : approximation d’une fonction par un polynôme
d’interpolation, d’une intégrale par une somme finie, de la solution
d’une équation différentielle, etc. Finalement, on a le théorème 34.
Nous allons donner les notions de base de la théorie de
l’approximation ; elles feront appel à un minimum de connaissan-
ces en analyse fonctionnelle, mais nous n’entrerons pas dans les Théorème 34. Sous les hypothèses du théorème 33, la
détails qui pourront être étudiés dans [19] [31] ; nous nous intéres- meilleure approximation g de f dans C est unique.
serons plus à des exemples pour montrer la richesse de cette théo-
rie et la puissance de l’outil que constitue l’analyse fonctionnelle.
Le premier mathématicien à attirer l’attention sur l’intérêt que pou- Après avoir démontré l’existence et l’unicité de g et l’avoir
vait présenter l’analyse fonctionnelle dans le développement de caractérisé, nous allons passer à la question qui intéresse l’ana-
l’analyse numérique fut le Russe L.V. Kantorovich en 1948. lyste numéricien : la construction effective de g .

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 18 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

Soit g 1 , g 2 , ..., gn des éléments linéairement indépendants de H 5.2 Meilleure approximation. Exemples
et soit C le sous-espace engendré par leurs combinaisons linéaires
finies. On a d’abord le théorème 35.
5.2.1 Approximation au sens des moindres carrés
Théorème 35. Une condition nécessaire et suffisante pour que Il faut distinguer le cas continu et le cas discret.
g 1 , ..., gn soient linéairement indépendants est que leur déter-
minant de Gram : ■ Soit C [a , b ] l’espace des fonctions continues sur [a , b ] et soit ω
une fonction poids strictement positive sur ]a , b [. Nous suppose-
( g 1 , g 1 ) ........ ( g 1 , g n )

b
D ( g 1 , ..., g n ) = .................................... rons que f ( x ) ω ( x ) d x existe pour toute fonction f de C [a , b ] et
a
( g n , g 1 ) ........ ( g n , g n ) nous définirons le produit scalaire par :


b
soit différent de zéro.
( f, g ) = f (x) g (x) ω(x) dx
a

Puisque g ∈ C et que C est engendré par g 1 , ..., g n , g peut Soit g 0 , ..., gn des éléments linéairement indépendants de H et
soit C le sous-espace vectoriel qu’ils engendrent. D’après ce qui
s’écrire comme combinaison linéaire des gi avec des coefficients précède, on a :
donnés par le théorème 36.
g = a 0 g 0 + ... + a n g n

Théorème 36. La meilleure approximation g de f (∉C ) dans C où les ai sont solutions du système :
s’écrit :

 
n b b
g = a 1 g 1 + ... + a n g n
∑ ai a
gi ( x ) gj ( x ) ω ( x ) d x =
a
f ( x ) gj ( x ) ω ( x ) d x
où les ai sont solutions du système : i=0
pour j = 0, ..., n
n
• Si gi (x ) = xi,
on retrouve l’approximation polynomiale, ce qui
∑ ai ( gi , gj ) = ( f , gj ) pour j = 1, ..., n
montre l’importance des familles de polynômes orthogonaux étu-
i=1
diées au paragraphe 3.4.
et l’on a : • Si g 0 (x ) = 1, g 1 (x ) = sin x ; g 2 (x ) = cos x , ..., g 2n –1 (x ) = sin nx ;
f– g 2
= D ( g 1 , ..., g n , f ) /D ( g 1 , ..., g n ) g 2n (x ) = cos nx ; a = – π et b = π
on est dans le cas de l’approximation trigonométrique.
g 0 , ..., g 2n forment un système orthonormé et :
On voit que la solution de ce système est immédiate dans le cas
où (gi , gj ) = 0 pour j ≠ i . Cela montre l’importance des systèmes n
orthogonaux en approximation, par exemple les polynômes ortho-
gonaux en approximation polynomiale. Si, de plus, le système est
g ( x ) = a0 + ∑ ( ak cos kx + bk sin kx )
k=1
normé, c’est-à-dire si (gi , gj ) = 1, alors on a :
■ Étudions maintenant l’approximation discrète au sens des
n moindres carrés. Définissons le produit scalaire par :
2
∑ ai
2
ai = ( f , gi ) et f– g = f 2 –
N
i=1
(f , g ) = ∑ f ( xi ) g ( xi ) ω ( xi )
On dit alors que les ai sont les coefficients de Fourier de f rela- i=0
tivement au système orthonormé g 1 , ..., g n et g est appelé
somme de Fourier. où les xi sont distincts les uns des autres et ω (xi ) > 0.
Soit C le sous-espace engendré par des éléments g 0 , ..., g n linéai-
Étant donné une base quelconque g 1 , ..., gn de C, il est toujours
possible de la transformer en une base orthonormée h 1 , ..., hn à rement indépendants. On aura g = a 0 g 0 + ... + a n g n avec les ai
l’aide du procédé d’orthonormalisation de Gram-Schmidt : solutions du système :

h 1 = g 1 / ||g 1 || n N N

∑ ai ∑ gi ( xk ) gj ( xk ) ω ( xk ) = ∑ f ( xk ) gj ( xk ) ω ( xk )
i–1 i=0 k=0 k=0

ui = gi – ∑ ( gi , hj ) hj pour j = 0, ..., n
j=1
Posons :
hi = ui / ||ui || pour i = 2, ..., n b =  ω ( x 0 ) f ( x 0 ), ..., ω ( xN ) f ( xN )  T

Pour des raisons de stabilité numérique, on lui préfère le pro- a = (a 0 , ..., an )T


(1)
cédé de Gram-Schmidt modifié. Il consiste à poser hi = g i pour
 ω ( x 0 ) g 0 ( x 0 )....... ω ( x 0 ) g n ( x 0 ) 
(i ) (i )  
i = 1, ..., n , puis, pour i = 1, ..., n , à calculer h i = hi / hi 2 et, A =  .......................................................... 
(i + 1) (i ) (i)
 
pour j = i + 1 , ..., n , h j = h j – ( hi , h j ) hi .  ω ( x N ) g 0 ( x N )....... ω ( x N ) g n ( x N )

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 19

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

Le système précédent s’écrit AT Aa = AT b. La matrice AT A étant On a le théorème de caractérisation suivant.


symétrique définie positive, la méthode de Cholesky cf. dossier
[AF 1 221], § 2.1.3 est particulièrement bien adaptée à la résolution
de ce système. Théorème 38. Si la condition de Haar est vérifiée et s’il existe
g ∈C tel que :
Si gi (x ) = xi
on obtient l’approximation polynomiale discrète. Si
N = n , on retrouve l’interpolation polynomiale (§ 2.1) et l’on a f (xi ) – g (xi ) = c (– 1)i ai pour i = 0, ..., n

f– g = 0. avec c = ± 1, ai > 0 et a  x 0 < x 1 < ... < x n  b ,


alors la meilleure approximation uniforme g de f dans C
■ Prenons maintenant pour H l’espace vectoriel H q [a , b ] ( q  1 )
vérifie :
des fonctions définies sur [a , b ] qui ont une dérivée (q – 1)ième abso-
lument continue et une dérivée q ième de carré sommable, f– g  min ai
0  i  n
c’est-à-dire que :


b
f ( q ) ( x ) 2 dx < + ∞ Donnons maintenant le théorème d’alternance de Tchebychev
a
(théorème 39).
On considère le produit scalaire :
Théorème 39. Une condition nécessaire et suffisante pour que

b N
(f , g ) =
a
f (q) ( x ) g (q) ( x ) d x + c ∑ f ( xi ) g ( xi ) g soit meilleure approximation uniforme de f dans C est que
i=1 les conditions :
f ( xi ) – g ( xi ) = f – g
où les xi sont distincts les uns des autres et où c est un paramètre
non négatif. Si C est un sous-espace vectoriel de H q [a , b ], les f ( x i ) – g ( x i ) = – ( f ( x i +1 ) – g ( x i +1 ) )
résultats théoriques précédents s’appliquent. On dit alors que g
est la fonction spline d’ajustement de f . On peut également définir soient satisfaites en au moins n + 1 abscisses [a, b ].
des fonctions spline d’interpolation. Ces sujets sont développés
dans [31].
La construction effective de g est réalisée grâce à l’algorithme
de Rémès.
5.2.2 Meilleure approximation uniforme Dans le cas gi (x ) = x i, i = 0, ..., n, on voit immédiatement que la
condition du théorème 36 est vérifiée et donc que la meilleure
Soit maintenant C ∞ [a , b ] l’espace vectoriel des fonctions approximation uniforme par des polynômes est unique. Nous
continues sur [a , b ] muni de la norme : renvoyons le lecteur intéressé aux ouvrages spécialisés [31].

f = max f (x ) La meilleure approximation uniforme par des polynômes


x ∈ [ a, b ] s’obtient à l’aide de l’algorithme de Rémès.
D’après un théorème de Weierstrass, toute fonction continue
et soit C un sous-espace vectoriel de C ∞ [a , b ]. g est meilleure peut être approchée aussi près que l’on veut par des polynômes au
approximation uniforme de f dans C si pour tout g ∈C , on a : sens de la norme uniforme. Une réponse constructive à ce résultat
est obtenue à l’aide des polynômes de Bernstein (cf. § 2.7.1). Si f
max f ( x ) – g ( x )  max f ( x ) – g ( x ) est une fonction continue dans [0, 1], alors la suite de polynômes :
x ∈ [a, b] x ∈ [a, b]
n
n
Nous avons rencontré un exemple de meilleure approximation Bn ( x ) = ∑ f ( k /n ) B k ( x )
uniforme lorsque nous avons étudié les polynômes de Tchebychev k =0
au paragraphe 2.3.
converge uniformément vers f dans [0, 1].
C ∞ [a , b ] n’est pas un espace préhilbertien et les résultats des
théorèmes 33, 34, 35, 36 ne sont plus valables. Il nous faut donc
donner une caractérisation de la meilleure approximation uniforme
(quelquefois appelée approximation au sens de Tchebychev),
démontrer des résultats d’unicité et en fournir un procédé de
5.3 Approximation de Padé
construction.
La solution de nombreux problèmes s’obtient sous forme de
Nous prendrons toujours pour C le sous-espace engendré par
développement en série formelle au voisinage de zéro. Souvent,
des éléments linéairement indépendants g 1 , ..., gn de C ∞ [a , b ].
seuls les premiers coefficients sont connus. D’autre part, la série
Nous commencerons par un résultat connu sous le nom de peut ne pas converger ou, quand elle le fait, sa convergence peut
condition de Haar (théorème 37). être très lente.
Soit donc :
Théorème 37. Une condition nécessaire et suffisante pour que f (t ) = c 0 + c 1t + c 2t 2 + ...
la meilleure approximation uniforme g de f dans C soit unique
pour tout f ∈C ∞ [a , b ] est que tout g ∈C admette au plus n – 1 Nous allons en chercher une approximation par une fraction
racines dans [a , b ]. rationnelle.
Un approximant de Padé de f est une fraction rationnelle dont le
On dit alors que les gi forment un système de Tchebychev sur développement en série coïncide avec celui de f aussi loin que
[a , b ]. possible, c’est-à-dire jusqu’au terme dont le degré est la somme

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 20 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008
_______________________________________________________________________________________________________ MÉTHODES NUMÉRIQUES DE BASE

des degrés du numérateur et du dénominateur inclusi vement. Soit L2 (  ) l’espace vectoriel des fonctions de carré intégrable
Soit : avec le produit scalaire :


p

∑ ai t i ( u,v ) = u ( x )v ( x )dx
P ( t ) = -----------------
[ p /q ] f ( t ) = ---------------
i =0
-


Q (t ) q

∑ i ib t On va construire une base de cet espace de la manière suivante.


On considère la fonction w à support compact [0, 1] :
i =0

un tel approximant. On veut que :  0 si x<0



f ( t ) Q ( t ) – P ( t ) = O ( t p+q+1 ), (t → 0)  1 si 0x < 1/2
w(x) = 
– 1 si 1/2  x < 1
En identifiant les coefficients des termes de même degré, on  0 si 1x
trouve que : 
On a :
a0 = c0 b0
(w (x ), w (2x )) = (w (x ), w (2x – 1)) = (w (2x ), w (2x – 1)) = 0
a1 = c1 b0 + c0 b1
De même, la fonction w (2jx – k ) est à support compact dans
[k 2–j, (k + 1)2–j], et ∀r, s avec r ≠ j ou s ≠ k, on a :

(w (2jx – k ), w (2rx – s )) = 0
a p = c p b 0 + c p –1 b 1 + … + c p –q b q ∀ j, k ∈  , on pose :
wjk (x ) = 2j/2 w (2jx – k )
0 = c p +1 b 0 + c p b 1 + … + c p –q +1 b q
On a :
(wjk (x ), wrs (x )) = δjr δks

0 = c p +q b 0 + c p +q –1 b 1 + … + c p b q ce qui montre que ces fonctions sont orthonormales. Une fonction


w qui conduit à une base de L2 (  ) après dilatation et translation
avec ci = 0 si i < 0. s’appelle une ondelette. Les ondelettes forment une base de
L2 (  ) comme on va le voir dans un cas particulier (les autres cas
Puisqu’une fraction rationnelle n’est déterminée qu’à un coef-
sont similaires).
ficient multiplicatif près, on prendra b 0 = 1 (ce terme ne doit pas
être nul pour ne pas réduire l’ordre de l’approximation). Les q Considérons la fonction φ définie par :
dernières équations donnent alors b 1 , ..., bq comme solution d’un
système linéaire, puis les p + 1 premières équations fournissent  0 si x<0
directement a 0 , ..., ap . Le calcul de [p /q ]f nécessite la connais- 
φ(x) =  1 si 0x < 1
sance des coefficients c 0 , ..., cp+q . 
 0 si 1x
Il existe des méthodes de calcul récursif des suites d’approxi-
mants de Padé adjacents (c’est-à-dire dont les degrés diffèrent
On a :
d’une unité). Elles sont basées sur les polynômes orthogonaux
w (x ) = φ (2x ) – φ (2x – 1)
formels [4].
Bien que la convergence d’une suite d’approximants de Padé vers De plus :
la fonction f n’ait pu être démontrée que pour certaines classes de 1. {φ (x – k ), k ∈ } est un système orthonormal ;
séries (comme les séries de Stieltjes), ils fournissent souvent 2. φ (x ) = φ (2x ) + φ (2x – 1).
d’excellentes approximations et sont très utiles dans de nom- Une telle fonction φ s’appelle une fonction d’échelle.
breuses branches des mathématiques appliquées, en particulier
Considérons la famille de sous-espaces Vj engendrés par
pour le calcul des fonctions spéciales. Ils sont reliés aux fractions
φ (2jx –k ) pour k ∈  . On a :
continues [32].
Les approximants de Padé peuvent s’interpréter comme des for- ... ⊂ V–1 ⊂ V0 ⊂ V1 ⊂ ...
mules de quadrature de Gauss formelles. Il est donc possible d’en et :
estimer l’erreur en leur adaptant la procédure de Kronrod décrite
dans le paragraphe 3.4. Les racines des polynômes de Stieltjes 1. Vj a une base orthonormale {φjk (x ) = 2j/2 φ (2jx – k ), k ∈  } ;
n’ont alors même plus à être calculées et aucune restriction ne leur 2. f (x ) ∈Vj si et seulement si f (2k–j x ) ∈Vk ;
est imposée. 3. ∩ j ∈  V j = { 0 } et ∪j ∈  V j = L 2 (  ) .
Sur les approximants de Padé, on pourra consulter les Cette famille est un exemple d’analyse multirésolution.
références [4] et [9] en [Doc. AF 1 221]. Cependant, l’ensemble des fonctions φjk n’est pas une base de
L2 (  ) . Si l’on a déjà une base orthonormale de Vj , on obtient une
base orthonormale de Vj+1 en ajoutant le complémentaire ortho-
5.4 Ondelettes gonal Wj de Vj dans Vj+1 :
Vj+1 = Vj ⊕ Wj
Le problème du développement en série de Fourier d’une
fonction est qu’elle n’est pas locale (cf. dossier [AF 141] dans ce Les fonctions {wjk , k ∈  } forment une base de Wj et Wj est un
traité ainsi que le paragraphe 5.2.1). espace d’ondelettes. De plus, ∀ i  j :
Pour un x donné, il faut donc sommer un très grand nombre de Vj+1 = Vi ⊕ Wi ⊕ Wi+1 ⊕ ... ⊕ Wj
termes pour obtenir une bonne précision. L’idée des ondelettes est
d’utiliser des fonctions de base ayant soit un support compact soit Par conséquent, {wjk (x ), j, k ∈  } est une base orthonormale de
une décroissance exponentielle. L2 (  ) . Ces ondelettes s’appellent ondelettes de Haar.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
© Techniques de l’Ingénieur AF 1 220 − 21

Dossier délivré pour


DOCUMENTATION
19/09/2008
MÉTHODES NUMÉRIQUES DE BASE ________________________________________________________________________________________________________

Supposons que les fonctions wjk , j, k ∈  forment un système Si, pour n fixé, les coefficients βjn , j ∈  sont connus, il existe des
orthonormal d’ondelettes pour L 2 (  ) . Alors, toute fonction formules simples reliant les βjn aux αjn et aux βj, n–1 . Ainsi, on uti-
f ∈L2 (  ) peut être représentée comme : lise βjn pour calculer les αjn et l’on obtient 2n coefficients en O (2n )
opérations arithmétiques. Pour les ondelettes de Haar, chaque
nouveau terme ne demande qu’une addition et une multiplication
f(x) = ∑ ( f ( x ),w jk ( x ) )w jk ( x ) supplémentaires.
j, k ∈ 
Les ondelettes de Haar sont les seules à support compact qui
En pratique, on n’utilise qu’un nombre fini de termes selon la soient à la fois orthogonales et symétriques. Puisqu’elles ne sont
précision désirée. Les coefficients se calculent par une procédure pas continues, d’autres types d’ondelettes ont été étudiées, en par-
similaire à celle de la transformée de Fourier rapide. On pose : ticulier les ondelettes biorthogonales.
αjk = (f (x ), wjk (x )) Sur les ondelettes, on pourra consulter les références [15] et [17]
en [Doc AF 1 221] ainsi que les dossiers [AF 4 510], [AF 4 511] et
βjk = (f (x ), φjk (x )) [AF 210] dans ce traité des Techniques de l’Ingénieur.

Toute reproduction sans autorisation du Centre français d’exploitation du droit de copie est strictement interdite.
AF 1 220 − 22 © Techniques de l’Ingénieur

Dossier délivré pour


DOCUMENTATION
19/09/2008