Académique Documents
Professionnel Documents
Culture Documents
d’Analyse numérique
Rachid Eloulaïmi
Cours
d’Analyse numérique
M ODULE
DE
SMIA4
AUTEUR
RACHID ELOULAIMI
PARU LE
R.E
L’ I nterpolation polynomiale est un procédé numérique qui permet de joindre, par une fonction
polynomiale, un ensemble de données discrètes d’une fonction ou d’une table de valeurs
relatives à un certaine grandeur lors de l’étude d’un phénomène. Le but est d’approcher les don-
nées manquantes de la grandeur étudiée par celles d’un polynôme ayant un degré minimal, ce
qui aide à mieux comprendre l’évolution du phénomène. Par exemple, interpoler par un polynôme
les températures relevées dans une localité au cours des trois premiers et trois derniers jours de
chaque mois, facilite la connaissance de l’évolution de la température effective dans cette localité
pendant toute l’année. Le choix des polynômes est évidemment judicieux car ce sont des fonctions
simples à manipuler numériquement.
Dans ce chapitre nous commençons par des notions simples de géométrie élémentaire et d’al-
gèbre linéaire qui permettent d’avoir une idée sur la théorie d’interpolation polynomiale. Ensuite
nous verrons que le polynôme de l’interpolation peut être calculé à l’aide des méthodes de La-
grange et de Newton. La comparaison de ces deux méthodes va permettre de connaitre leurs
points forts et leurs points faibles. À la fin du chapitre nous énonçons le théorème sur l’estima-
tion d’erreur qui aide à déterminer le degré de précision du résultat trouvé.
Tout le monde sait que par deux points distincts du plan, passe une seule droite qui est le plus
court chemin joignant ces deux points. Par exemple, la droite qui joint les points (0, 0) et (1, 1)
a pour équation y = x. De même la droite horizontale, parallèle à l’axe des abscisses, joignant
2 Interpolation polynomiale
les points (1, 0) et (2, 0) a pour équation y = 0. Plus généralement, en considérant deux points
M0 ( t 0 , y0 ) et M1 ( t 1 , y1) distincts quelconques, situés sur le graphe d’une certaine fonction f ( x),
alors il est évident que leurs abscisses t 0 et t 1 sont nécessairement distinctes, et que la droite joi-
gnant ces deux points a pour équation cartésienne réduite y( t) = a 0 + a 1 t. C’est donc un polynôme
P1 ( t) de degré inférieur ou égal à un, qui vérifie le système linéaire suivant
a 0 + a 1 t 0 = y0 1 t0
ayant pour matrice (1.1.1)
a +a t = y
0 1 1 1 1 t1
3
B
b
A
b
1
f
g
0
−4 −3 −2 −1 0 1 2 3 4 5 6
−1
−2
Comme les abscisses t 0 et t 1 sont distinctes, alors cette matrice est inversible car son détermi-
nant ( t 1 − t 0 ) est non nul. Par conséquent, les réels a 0 , a 1 existent et sont uniques et on dit que
le polynôme P1 ( t) est l’interpolant de la fonction f en ces deux points. Le verbe interpoler signifie
corriger ou redresser intercaler ou insérer.
ces points ; ce qui permet de dire dans ce cas aussi qu’il existe un seul polynôme de degré inférieur
ou égal à deux qui passe par ces trois points.
a 0 + a 1 t 0 + . . . + a n t 0n = y0
a 0 + a 1 t 1 + . . . + a n t n = y1
1
.. (1.1.2)
.
a + a t + . . . + a tn = y
0 1 n n n n
Les inconnues de ce système sont, bien entendu, les a i et sa résolution conduit à une matrice
de Vandermonde d’ordre n + 1. Rappelons que la i eme ligne de cette matrice est une progression géo-
métrique de raison égale à t i . Son déterminant se calcule par récurrence, en remplaçant chaque
colonne C i , 1 ≤ i ≤ n + 1, par C i − t 0 C i−1 tout en commençant par la dernière colonne.
C n+1 → C n+1 − t 0 C n
↓
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t 0 · · · t 0n−1 t 0n ¯ ¯1 t 0 · · · t 0n−1 0
¯ ¯ ¯ ¯
¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯
¯1 t 1 · · · t1 n − 1 n ¯
t 1 ¯¯
¯
¯1 t 1 · · · t1 n − 1 n −1
( t 1 − t 0 ) t 1 ¯¯
¯
¯ ¯
Vn+1 = ¯ ¯ = ¯ ¯
¯. . .. .. ¯ ¯. . .. ..
¯ .. .. ¯ .. ..
¯ ¯
¯ ··· . .¯ ¯ ··· . . ¯
¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t
¯ n · · · t nn−1 t nn ¯¯ ¯1 t
¯ n · · · t nn−1 ( t n − t 0 ) t nn−1 ¯¯
C n → C n − t 0 C n−1 C1 → C1 − t0 C0
↓ ↓
4 Interpolation polynomiale
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t 0 0 0 ¯1 0 0 0
¯ ¯ ¯ ¯
··· ¯ ··· ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
( t 1 − t 0 ) t 1n−2 ( t 1 − t 0 ) t 1n−1 ¯¯ ( t 1 − t 0 ) t 1n−2 ( t 1 − t 0 ) t 1n−1 ¯¯
¯ ¯ ¯ ¯
¯1 t 1 ··· ¯1 t 1 − t 0 ···
¯ ¯
=¯ ¯··· = ¯ ¯
¯. . .. .. ¯. .. .. ..
¯ .. .. ¯ ..
¯ ¯
¯ ··· . . ¯
¯ ¯ . ··· . . ¯
¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t
¯ n ··· ( t n − t 0 ) t nn−2 ( t n − t 0 ) t nn−1 ¯¯ ¯1 t − t
¯ n 0 ··· ( t n − t0 ) t n n −2 n −1
( t n − t 0 ) t n ¯¯
¯ ¯
¯ ¯ ¯ ¯
¯ n
¯ t1 − t0 · · · ( t1 − t0 ) t1 −2 n −
( t1 − t0 ) t1 ¯1 ¯
1
¯ n −
¯
¯ ¯ ¯
¯ 1 t 1 · · · t 1 ¯¯
¯ ¯ ¯. . .. ¯¯
= ¯ ... .. ..
¯ = ( t 1 − t 0 )( t 2 − t 0 ) · · · ( t n − t 0 ) ¯¯ .. .. · · ·
¯ ¯
· · · . . . ¯
¯ ¯ ¯ ¯
n−1 ¯
¯ ¯
1
¯
¯
¯ t − t · · · ( t − t ) t n−2 ( t − t ) t n−1 ¯
¯ ¯ t n · · · t n ¯
¯ n 0 n 0 n n 0 n ¯
De proche en proche (à l’aide d’une hypothèse de récurrence), on arrive à avoir
Y ¡ ¢
Vn+1 = t j − ti (1.1.3)
0≤ i < j ≤ n
La méthode de Lagrange que nous exposons ici, est très utile dans le calcul explicite du po-
lynôme d’interpolation P n ( t) aux nœuds M i ( t i , yi ). Elle permet d’écrire ce polynôme en fonction
des ordonnées y0 , y1 , . . . , yn , en exhibant à l’avance une autre base de polynômes appelée base de
Lagrange associée aux abscisses t i .
Méthode de Lagrange 5
Pour construire les polynômes de cette base nous supposons, pour chaque i ∈ [0, n] fixé, que
toutes les valeurs yk sont nulles sauf celle de yi qui est égale à un. D’après le 1.1.1 , il existe alors
un seul polynôme l i ( t) de degré inférieur ou égal à n tel que l i ( t k ) = δ ik (symbole de Kronecker).
Ceci entraine que le polynôme l i ( t) admet n racines distinctes et que son degré est exactement
égal à n. Il s’écrit donc
Y
l i ( t) = α i ( t − t 0 ) . . . ( t − t i−1 )( t − t i+1 ) . . . ( t − t n ) = α i (t − t k )
0≤ k ≤ n
k6= i
1
Par ailleurs, l i ( t i ) = 1 entraine que α i = Q .
(t i − t k )
0≤ k ≤ n
k6= i
Ainsi, on obtient un système unique de n + 1 polynômes { l 0 ( t), l 1 ( t), . . . , l n ( t)} tel que
l i ( t k ) = δ ik
Q ( t− t k )
l i ( t) = (t i −t k )
0≤ k ≤ n
k6= i
Montrons ensuite que ce système est une base de Rn [ X ]. La dimension de l’espace Rn [ X ] est
égale à n + 1 , il suffit de montrer qu’il est libre.
Soient λ0, . . . , λn des scalaires tels que λ0 l 0 ( t) + ... + λn l n ( t) = 0, alors en particulier pour t = t0,
on a l 0 ( t 0 ) = 1 et l j ( t 0 ) = 0, j 6= 0 et donc λ0 = 0. De proche en proche, on montre ainsi que tous les
scalaires λ j sont nuls. On peut donc énoncer le théorème suivant
P n ( t) = y0 l 0 ( t) + y1 l 1 ( t) + . . . + yn l n ( t) (1.2.4)
Y (t − t i )
l k ( t) = (1.2.5)
0≤ i ≤ n ( t k − t i )
i 6= k
= ( 12 t2 − 21 t) − 2(1 − t2 ) − 3( 12 t2 + 21 t)= t2 − 2 t − 2
P2
M0
b
M1
b
M2
b
P n ( t) = f ( t 0 ) l 0 ( t) + f ( t 1 ) l 1 ( t) + . . . + f ( t n ) l n ( t) (1.2.6)
P2
M2
b
M1
b
M0
b
La méthode de Lagrange a l’inconvénient de ne pas être récursive, car elle ne fournit aucun
moyen simple pour calculer le polynôme P k en fonction de P k−1 . A chaque fois lorsqu’on ajoute
un nœud, on est obligé de refaire le calcul de ces polynômes de Lagrange, ce qui est décourageant
pour le calcul numérique. La méthode de Newton que nous présentons ici, permet dans le cas
d’ajout d’un nœud, de déterminer le nouveau polynôme interpolant à partir du précédent d’une
façon beaucoup plus simple. Dans cette méthode, les polynômes d’interpolation seront écrits dans
une base de polynômes échelonnés et peuvent être calculés de proche en proche ; ce qui permet
ensuite d’ajouter un nœud sans refaire les calculs.
8 Interpolation polynomiale
Pour commencer, considérons une fonction réelle y( x) et un point x0 . Alors il est clair que l’inter-
polant de y( x) en ce point est le polynôme constant P0 ( x) = y( x0 ). Si on ajoute un autre point x1
distinct de x0 , on obtient un polynôme P1 ( x) (qui est une droite) avec deg P1 ≤ 1 qui interpole la
fonction y( x) en ces deux points.
En posant R 1 ( x) = P1 ( x) − P0 ( x), on a R 1 ( x0 ) = 0 et alors R 1 ( x) = a 1 ( x − x0 ).
En particulier, R 1 ( x1 ) = a 1 ( x1 − x0 ), ce qui donne
y( x1 ) − y( x0 ) y( x1 ) − y( x0 )
a1 = et P 1 ( x ) = P 0 ( x ) + ( x − x0 )
x1 − x0 x1 − x0
y( x1 ) − y( x0 )
En posant y( x0 , x1 ) = et compte tenu de P0 ( x) = y0 ( x), on obtient
x1 − x0
P1 ( x) = y( x0 ) + y( x0 , x1 )( x − x0 ) (1.3.7)
y( x1 ) − y( x0 )
Définition 1.3.1. Le rapport y( x0 , x1 ) = est appelé différence divisée du premier
x1 − x0
ordre entre x0 x1 , et par convention y( x0 ), est appelée différence divisée d’ordre zéro. On remarque
tout de suite que la différence divisée première est symétrique, i.e. y( x0 , x1 ) = y( x1 , x0 ).
R 2 ( x2 ) y( x2 ) − [ y( x0 ) + ( x2 − x0 ) y( x0 , x1 )]
a2 = =
( x2 − x0 ) ( x2 − x1 ) ( x2 − x0 ) ( x2 − x1 )
[ y( x2 ) − y( x1 )] + [ y( x1 ) − y( x0 )] − ( x2 − x0 ) y( x0 , x1 )
=
( x2 − x0 )( x2 − x1 )
£ ¤ £ ¤
y( x1 , x2 )( x2 − x1 , ) + y( x0 , x1 )( x1 − x0 ) − ( x2 − x0 ) y( x0 , x1 )
=
( x2 − x0 )( x2 − x1 )
y( x1 , x2 )( x2 − x1 ) − [( x2 − x1 ) y( x0 , x1 ) y( x1 , x2 ) − y( x0 , x1 )
= =
( x2 − x0 )( x2 − x1 ) ( x2 − x0 )
Cas de plusieurs points 9
y( x1 , x2 ) − y( x0 , x1 )
y( x0 , x1 , x2 ) =
( x2 − x0 )
On obtient,
P2 ( x) = y( x0 ) + y( x0 , x1 )( x − x0 ) + y( x0 , x1 , x2 )( x − x0 )( x − x1 ) (1.3.8)
y( x1 , x2 ) − y( x0 , x1 )
Définition 1.3.2. la fraction y( x0 , x1 , x2 ) = est appelée différence divisée d’ordre
( x2 − x0 )
deux entre les arguments x0 , x1 , x2 .
Exemple 1.3.2.
P2 ( x) = 13 + ( x + 1) − ( x + 1)( x − 1) = − x2 + x + 15
Ce schéma est un moyen simple et pratique pour calculer les différences divisées ainsi que le
polynôme d’interpolation. Les cases encadrées dans la diagonale supérieure, désignent respecti-
vement y(−1), y(−1, 1), y(−1, 1, 2).
Ces différences finies permettent d’écrire, comme on l’a déjà vu, le polynôme d’interpolation
d’un nombre quelconque de nœuds, dans une base de polynômes à degrés échelonnés appelée base
de Newton.
Lemme 1.4.1. Étant donnés n points x0 , x1 · · · xn−1 deux à deux distincts, alors en posant v0 ( x) = 1
et vk ( x) = ( x − x0 ) · · · ( x − xk−1 ) pour 1 ≤ k ≤ n, le système {v0 ( x), v1 ( x), · · · vn ( x)} est une base de
l’espace vectoriel Rn [ X ] appelée base échelonnée de Newton aux points x0 , x1 , · · · xn−1 .
Théorème 1.4.1. Étant donnés une fonction réelle y( x) et n + 1 points deux à deux distincts
x0 , x1 · · · , xn , alors le polynôme d’interpolation de y( x) s’écrit dans la base de Newton :
P n ( x) = y( x0 ) + ( x − x0 ) y( x0 , x1 ) + ( x − x0 )( x − x1 ) y( x0 , x1 , x2 ) + . . .
(1.4.9)
+ ( x − x0 )( x − x1 )....( x − xn−1 ) y( x0 , x1 , x2 , ...xn )
Exemple 1.4.1.
−1 → 13
ց
1
ր ց
1 → 15 −1
ց ր ց
x k −1 1 2 4 5 −2 1
ր ց ր ց
yk 13 15 13 33 67 2 → 13 4 0
ց ր ց ր
10 1
ր ց ր
4 → 33 8
ց ր
34
ր
5 → 67
Erreur d’interpolation 11
Rappelons, comme on l’a vu précédemment, que dans ce schéma les cases encadrées dans la dia-
gonale supérieure, désignent les différences divisées qui sont les coefficients du polynôme d’inter-
polation dans la base de Newton.
Lemme 1.5.1.
n+1)
π(n ( x) = ( n + 1)! avec πn ( x) = ( x − x0 )( x − x1 ) . . . ( x − xn )
n=0 π0 ( x) = ( x − x0 ) n=1 π1 ( x) = ( x − x0 )( x − x1 )
n+1 = 2 π′′
1 ( x) = 2 = 2!
n = 2 π2 ( x) = ( x − x0 )( x − x1 )( x − x2 )
π′1 ( x) = ( x − x0 ) + ( x − x1 )
π′2 ( x) = ( x − x0 ) ( x − x1 ) + ( x − x1 ) ( x − x2 ) + ( x − x2 ) ( x − x0 )
π′′
2 ( x) = [( x − x0 ) + ( x − x1 )] + [( x − x1 ) + ( x − x2 )] + [( x − x2 ) + ( x − x0 )]
= 6 x − 2( x0 + x1 + x2 )
n+1 = 3 π(3)
2
( x) = 6 = 3!
π(n−) 1 = n!
n
Hypothèse de récurrence :
12 Interpolation polynomiale
h i′ h¡ ¢ ( n ) i′
n+1)
πn ( x) = ( x − xn )πn−1 ( x) −→ π(n ( x) = π(n ) ( x) = ( x − xn )πn−1 ( x)
n
E n ( x) ≡ f ( x) − P n ( x) (1.5.11)
Théorème 1.5.1. Étant donnés n + 1 points x0 < x1 < . . . < xn appartenant à un intervalle [a, b] et
une fonction f ∈ C n+1 [a, b], alors pour tout x ∈ [a, b] il existe ξ x ∈ (min( x, x i ), max( x, x i )) tel que
i i
( x − x0 ) ( x − x1 ) . . . ( x − xn ) (n+1)
E n ( x) ≡ f ( x) − P n ( x) = f (ξ x ) (1.5.12)
( n + 1)!
Preuve. La formule est évidemment vraie lorsque x = x i car le premier terme E n ( x i ) est nul
ainsi que le deuxième terme. Supposons donc que x 6= x i pour tout i et considérons la fonction
f ( x) − P n ( x)
ϕn ( t) = (P n ( t) − f ( t)) + π n ( t) (1.5.13)
π n ( x)
Cette fonction, qui est définie sur l’intervalle [a, b], s’annule au moins n + 2 fois entre min( x, x i ) et
i
max( x, x i ), en x et aux points x i , a sa dérivée qui s’annule, d’après le théorème de Rolle, au moins
i
n + 1 fois. Ce même théorème montre que la dérivée seconde de ϕn s’annule au moins n fois. En
réitérant ce procédé on établit facilement l’existence d’un réel ξ x tel que ϕ(nn+1) (ξ x ) = 0.
Et on conclut en vertu de π(nn+1) ( t) = ( n + 1)! (Lemme 1.4.1) et de P n(n+1) ≡ 0. ä
( b − a)n+1
||E n ||∞ ≤ M n+1
( n + 1)!
M n+1
∀ x ∈ [a, b], |E n ( x)| ≤ |( x − x0 )( x − x1 ) . . . ( x − xn )| (1.5.15)
( n + 1)!
0 → 1
ց
1
ր ց
−1 → 0 −1
ց ր ց
0 −1/3
ր ց ր
1 → 0 −1/3
ց ր
−1
ր
2 → −1
P3 ( x) = 1 + x − x(1 + x) − 13 x(1 + x)(1 − x) = 31 ( x − 3) x2 − 1
¡ ¢
4
||E 3 ||∞ ≤ 34! M4 f (k) ( x) = ( π2 )k cos( π2 x + k π2 ) → M4 = max ¯( π2 )4 cos( π2 x + 4 π2 )¯ = ( π2 )4
¯ ¯
−1≤ x≤2
4
|E 3 ||∞ ≤ 34! × ( π2 )4 = 128
27 4
π = 20. 547
³ ´³ ´
E e f f ( 13 ) =
f ( 31 ) − P3 ( 13 ) = cos( π6 ) − 31 31 − 3 1
9 −1
= 7. 590 2 × 10−2 = 0.0759
Cette erreur est donc commise par défaut
Remarque 1.5.1. Pour terminer, signalons que le principal défaut de cette méthode d’interpola-
tion réside dans le fait que l’augmentation des nœuds d’interpolation n’est pas toujours bonne, car
la différence entre une fonction et son polynôme d’interpolation peut devenir très grande lorsqu’on
Pn ¯ ¯
considère un très grand nombre de nœuds à cause de la constante ¯ l i ( x)¯ appelée constante de
i =0
Lebesgue qui croît rapidement . C’est ce qu’on appelle le phénomène de Runge qui a été établi
avec certaines fonctions et leurs polynômes d’interpolation.
Il existe une première solution pour corriger cette anomalie, dans laquelle on montre que l’er-
reur d’interpolation atteint son minimum avec un choix judicieux des points d’interpolation. Plus
exactement ce sont les racines d’un polynôme orthogonal appelé polynôme de Tchebychev qui
permettent de minimiser cette erreur.
Une autre façon pour contrôler l’estimation de l’erreur consiste à utiliser des polynômes par mor-
ceaux avec un degré très bas. C’est la méthode des splines qui est hors-propos ici.
14 Interpolation polynomiale
Remarque 1.5.2. Signalons enfin que la réponse théorique générale au problème de l’approxi-
mation polynomiale est fournie par le théorème d’approximation de Stone-Weierstrass dans le
cas d’une fonction continue sur un intervalle [a, b] et qui montre que toute fonction f ∈ C [a, ]
peut être approchée uniformément par une suite de polynômes. Ce théorème assure l’existence
de polynômes d’approximation, mais malheureusement ne donne aucun moyen explicite pour les
construire.
Chapitre 2
Intégration numérique
L’ I ntégration numérique est un ensemble de techniques qui permettent de donner une valeur
approchée à une intégrale dont le calcul explicite est difficile, voire impossible, comme
R 2 R R
par exemple e−t , 1/ln t, sin ( t2 ), etc. Ces techniques, comme les autres techniques d’Analyse
numérique, sont d’une grande utilité dans diverses activités scientifiques et technologiques. La
valeur approchée d’une intégrale est obtenue à l’aide de formules de quadratures et en utilisant
des fonctions simples pour le calcul intégral comme les polynômes.
Une formule de quadrature est une expression qui sert à approcher la valeur de l’intégrale
d’une fonction sur un intervalle. Cette expression est censée être simple du point de vue calcul
numérique. Dans toute la suite de ce chapitre, nous utiliserons des méthodes de quadrature à
l’aide des polynômes d’interpolation. En effet, nous savons maintenant que toute fonction peut
être approchée par un polynôme qui l’interpole en un certain nombre de points. Ceci va nous per-
mettre d’approcher l’intégrale d’une telle fonction par l’intégrale de son polynôme d’interpolation.
Il y a deux raisons pour utiliser l’interpolation polynomiale :
1) L’intégrale d’un polynôme est simple à calculer.
2) Plusieurs fonctions ne sont données que par un ensemble de points.
Considérons donc une fonction f continue sur l’intervalle [a, b], pour laquelle on désire calculer
R
approximativement la valeur de l’intégrale I ( f ) = ab f ( x) dx. En faisant le changement de variable
x = ( b − a) t + a dans cette intégrale, on peut se restreindre à l’intervalle [0, 1].
16 Intégration numérique
Ainsi on obtient
Zb Z1
f ( x) dx = ( b − a) f (( b − a) t + a) dt (2.1.1)
a 0
R1
Ce qui permet de ramener l’étude d’approximation de l’intégrale I ( f ) à 0 g( t) dt, où g ∈ C [0, 1].
Définition 2.1.1. Étant donnée une fonction g, continue sur [0, 1]. On appelle formule de quadra-
ture de g, toute expression de la forme :
M
X
J ( g) = ω j g( t j ) (2.1.2)
j =0
où 0 ≤ t 0 , < t 1 , < · · · , t M ≤ 1 sont les points d’intégration et ω0 , · · · , ωM sont des nombres réels donnés,
qu’on appelle poids de la formule de quadrature.
Remarquons d’abord que J est linéaire et ceci est très intéressant car il permet d’utiliser la
linéarité de l’intégrale.
R1
Notre objectif est d’écrire 0 g( t) dt ≃ J ( g) et par conséquent ;
Zb
f ( t) dt ≃ ( b − a) J ( f (( b − a) t + a)). (2.1.3)
a
Nous verrons ensuite qu’un choix judicieux des points d’intégration et l’utilisation des poly-
nômes d’interpolation dans les poids de la formule, sont essentiels pour avoir une valeur appro-
chée acceptable d’une intégrale.
Dans la suite de ce chapitre nous allons étudier un certain nombre de méthodes parmi les plus
connues, qui permettent de déterminer les valeurs approchées de beaucoup d’intégrales et pour
lesquelles on doit d’abord chercher la valeur J ( f ) suivant le nombre de points d’intégration choisi.
Définition 2.2.1. On dit qu’une formule de quadrature J ( g) est de type interpolation si pour tout
© ª R
i ∈ 0, 1, · · · , M , ω i = 01 l i ( t) dt , où ( l i ( t))0≤ i≤ M est la base de Lagrange aux points t i , 0 ≤ i ≤ M .
Méthodes de quadratures usuelles 17
R1
Exemple 2.2.1. Pour M = 0, on a ω0 = 0 l 0 ( t) dt = 1 . En prenant par exemple t 0 = 3/4 ; alors il
est facile de vérifier que la base de Lagrange associée à un seul point t 0 est constituée du seul
R
polynôme constant l 0 (0) = 1. En intégrant ce polynôme, on obtient ω0 = 01 l 0 ( t) dt = 1 . Finalement,
on obtient, J ( g) = ω0 g(3/4) = g(3/4).
Commençons par la méthode la plus intuitive et la plus simple qu’on appelle méthode des
rectangles. C’est une méthode d’intégration numérique à un seul point comme dans l’exemple
b
point M0 ( t 0 , g( t 0 )) et ayant pour sommets (0, 0), (1, 0), (1, g( t 0 ) et (0, g( t 0 ).
yg yg
x b
x
0 1 0 3/4 1
Il y a en particulier parmi ces méthodes, les méthodes du point à gauche, celle du point à
droite et il y aussi la méthode du point milieu.
Méthode du point à gauche. Considérons une fonction g définie sur l’intervalle [0, 1] et dési-
gnons par J ( g) l’aire du rectangle de sommets A (0, g(0)), B(1, g(0)), C (1, 0) et D (0, 0). On a alors
J ( g) = g(0) et donc t 0 = 0 et ω0 = 1 . Cette formule de quadrature à un seul point est appelée
formule du point à gauche et on écrit
I ( g) ≃ J ( g) = g(0) (2.2.4)
Il est clair, d’après l’exemple précédent, que cette méthode est de type interpolation.
D’une manière générale, ces formules de quadrature pour une fonction f définie sur un intervalle
quelconque [a, b], sont données par :
J ( f ) = ( b − a) f ( a) J ( f ) = ( b − a) f ( b )
(2.2.6) (2.2.7)
point à gauche point à droite
g ( t) g ( t)
g g
b
b
F IGURE 2.3 – Point à gauche F IGURE 2.4 – Point à droite
Méthode du point milieu. Cette méthode est analogue aux méthodes précédentes. Elle aussi
est de type interpolation, et utilise un seul point situé au milieu de l’intervalle, i.e. t 0 = 1/2, ω0 =
R1
0 l 0 ( t) dt = 1 et M = 0. Ici le polynôme d’interpolation P 0 ( t) = g (1/2) l 0 ( t) est la droite horizontale
I ( g ≃ J ( g) = g(1/2) (2.2.8)
Géométriquement, J ( g) est l’aire du rectangle de sommets A (0, g(1/2)), B(1, g(1/2)), C (1, 0) et
D (0, 0).
g ( t)
b
Cette formule de quadrature, pour une fonction f définie sur un intervalle quelconque [a, b], est
donnée par :
³a+b´
J ( f ) = ( b − a) f
2 (2.2.9)
point milieu
Méthodes de quadratures usuelles 19
Rappelons d’abord qu’un trapèze est un quadrilatère (polygone à quatre côtés) ayant deux
côtés parallèles.
b b
H H
B B
On sait que l’aire d’un trapèze ayant pour petite base b, pour grande base B et pour hauteur H
1
est égale à A = H (B + b)
2
Soit maintenant une fonction g ∈ C [0, 1], alors la méthode des trapèzes consiste à utiliser une
R
méthode de quadrature qui approche l’intégrale 01 g( t) dt par l’aire du trapèze de bases g(0), g(1)
et de hauteur 1. On a donc
Z1
1
J ( g) = ( g(0) + g(1)) ≃ g( t) dt (2.2.10)
2 0
f ( t) f ( t)
Aire sous la courbe Aire du trapèze
a b a b
( b − a)
J( f ) = ( f (a) + f ( b)) (2.2.11)
2
20 Intégration numérique
Exemple 2.2.3. Considérons à nouveau la fonction sin t dans l’intervalle [π/4, π/2] et calculons sa
valeur approchée avec la méthode des trapèzes.
On a
π π
2−4 π π
J (sin t) = (sin + sin ) = 0.670 38
2 4 2
.
Proposition 2.2.1. La méthode des trapèzes est une méthode de type interpolation.
Preuve.
Si f ∈ C [a, b], alors le côté du trapèze qui joint les points (a, f (a)) et ( b, f ( b)) est la droite
Zb
( t − a)ϕ( b) − ( t − b)ϕ(a) 1
affine d’équation ϕ( t) = et donc ϕ( x) dx = ( b − a)(ϕ(a) + ϕ( b)) est l’aire
b−a a 2
du trapèze de bases ϕ(a), ϕ( b) et de hauteur ( b − a). alors en vertu de l’interpolation de Lagrange,
ϕ( t) est l’interpolant de f aux nœuds M0 (a, f (a)) et M1 ( b, f ( b))
y = ϕ( x)
b
A
b
a b x
O
F IGURE 2.8
La méthode de Simpson est la méthode la plus utilisée et la plus populaire. C’est une méthode
de type interpolation qui emploie, dans sa formule de quadrature, trois points régulièrement
espacés et ayant un polynôme d’interpolation de degré inférieur ou égal à deux. C’est donc une
parabole dans le cas où les trois nœuds ne sont pas alignés. Nous allons donc prendre trois points
équidistants dans l’intervalle [0, 1] , à savoir t 0 = 0, t 1 = 1/2 et t 2 = 1. i.e. M = 2
On obtient ,
R
P2 ( t) = g(0) l 0 ( t) + g(1/2) l 1 ( t) + g(1) l 2 ( t) et alors, J ( g) = 01 P2 ( t) dt
Formules de Newton-Cotes 21
b
C
Bb
f ( x) f ( x)
P 2 ( x)
A b
Remarque 2.2.1. Cette formule de Simpson à trois points est appelée 1/3. Cette terminologie est
due à la présence de cette fraction dans sa formule de quadrature. Il existe une autre méthode de
Simpson , qui utilise les quatre points d’intégration t 0 = 0, t 1 = 1/4, t 2 = 3/4 et t 3 = 1, interpolés par
un polynôme cubique et qu’on qualifie pour la même raison de 3/8.
Exemple 2.2.4.
R 2
Pour I ( f ) = 12 e t dt, on a a = 1, b = 2, a+ b
2 = 3/2,
2
J ( f ) = 1/2
3 (e + 4e
(3/2)
+ e4 ) = 15. 878
R 2
et donc 12 e t dt ≃ 15.878
Les méthodes des trapèzes, de Simpson et du point milieu sont de type interpolation avec
des points d’intégration répartis régulièrement dans l’intervalle considéré. On les appelle des
22 Intégration numérique
Remarque 2.3.1. Par convention, les méthodes du point à droite et du point à gauche ne sont
pas des méthodes de Newton-Cotes. Elles sont utilisées dans les sommes de Riemann.
Définition 2.4.1. On dit qu’une formule de quadrature J est exacte pour une fonction g si J ( g) =
R1
0 g ( t) dt. Dans le cas contraire, on dit qu’elle est inexacte pour g
Exemple 2.4.1.
2
La méthode de quadrature J ( g) = g(4/5) n’est pas exacte pour la fonction g( t) = e t car I ( g) =
R1 t2 16/25
0 e dt = 1. 462 7 et J ( g ) = g (4/5) = e = 1.8965
Alors qu’elle est exacte pour la fonction constante g( t) = 1 , puisque :
R R
I ( g) = 01 1 dt = 1 = J ( g) = 01 1 dt = g(4/5) = 1
Définition 2.4.2. On dit qu’une formule de quadrature a un ordre de précision égal à r , si elle est
exacte pour tout polynôme de Rr [ X ] et inexacte pour au moins un polynôme de degré égal à r + 1
Exemple 2.4.2. La méthode de quadrature J ( g) = g(3/4) est d’ordre zéro car pour g( t) = c, on a
J ( g) = g(3/4) = I ( g) = 01 cdt = c et pour g( t) = t, on a I ( g) = 01 tdt = 21 6= J ( g) = g(3/4) = 3/4
R R
La méthode du point à gauche est exacte pour les constantes et inexacte pour P ( x) = x.
En effet, on sait que J ( g) = g(0), donc en particulier pour un polynôme constant P ( x) = a avec
R
a ∈ R, on a J (P ) = a, or I (P ) = 01 adx = a, donc I (P ) = J (P ).
R
Par ailleurs, J ( x) = 0 6= I ( x) = 01 xdx = 1/2.
Par conséquent, l’ordre de précision de la méthode du point à gauche est égal à zéro. Le même
raisonnement montre que la méthode du point à droite a elle aussi un ordre égal à zéro
Intégration et interpolation 23
La méthode des trapèzes est elle aussi d’ordre un. En effet, si P ( x) = ax + b, alors J (P ) =
1 R1 R1
2 (P (0) + P (1)) = a/2 + b et I (P ) = 0 P ( x) dx = 0 (ax + b) dx = a/2 + b. Donc, J (P ) = I (P ) pour tout
P ∈ R1 [ X ]. Par ailleurs, J ( x2 ) = 21 ((0)2 + (1)2 ) = 1/2 et = 01 x2 dx = 31 . Donc, I ( x2 ) 6= J ( x2 )
R
Rappelons que les méthodes de quadratures précédentes que nous avons vues, sont de type
R
interpolation, c’est-à-dire que dans l’intervalle [0, 1], l’intégrale 01 g( t) dt peut être approchée par
R1
0 P M ( t) dt où P M ( t) est le polynôme d’interpolation de g aux points t 0 , t 1 , · · · t M et que chaque
méthode a un certain ordre de précision. Le théorème suivant permet, dans le cas général, de
caractériser ces méthodes de quadrature avec une minoration de leurs ordres de précision.
Théorème 2.5.1. Soient t 0 < t 1 , · · · < t M des points d’intégration dans [0, 1]. Alors, la formule de
M
P
quadrature J ( g) = ω j g( t j ) est exacte pour les polynômes de degré inférieur ou égal à M si et
Rj1=0
seulement si ωk = 0 l k ( t) dt où { l k ( t), 0 ≤ k ≤ M } est la base de Lagrange aux points t k .
Cela veut dire que l’ordre de précision d’une méthode d’intégration en M + 1 points est au
moins égal à M , si et seulement si elle est de type interpolation
24 Intégration numérique
Preuve. Supposons que la formule est exacte pour tout polynôme de degré inférieur ou égal à M ,
R
alors elle est en particulier exacte pour les polynômes de Lagrange l k . On a alors J ( l k ) = 01 l k ( t) dt
Q ³ t− t i ´ M M R
ω j δk j = ωk , donc ωk = 01 l k ( t) dt
P P
avec l k ( t) = t − t , or J ( l k ) = ω j l k (t j ) =
k i
0≤ i ≤ M j =0 j =0
i 6= k
R1 P
Réciproquement, si ωk = 0 l k ( t) dt , alors pour tout P ( t) ∈ RM [ X ] on a P ( t) = kM=0 P ( t k ) l k ( t).
En intégrant, on a : 01 P ( t) dt = kM=0 P ( t k ) 01 l k ( t) dt = kM=0 ωk P ( t k ) et donc finalement on obtient,
R P R P
R1
0 P ( t) = J ( P ) ä
R1
Conséquence 2.5.1. Avec le choix ω j = 0 l j ( t) dt, une méthode de quadrature en M + 1 points a
toujours un ordre supérieur ou égal à M . En particulier, on peut en fait montrer que si les points
sont uniformément espacés, la méthode qui est donc de Newton-Cotes, est exactement d’ordre
égal à M lorsque M est impair et elle est d’ordre égal à M + 1 lorsque M est pair.
Ainsi la méthode du point milieu correspond à M = 0 qui est pair a pour ordre M + 1 = 1. De même
pour la méthode des trapèzes, on a M = 1 lequel est impair et donc son ordre est égal à M = 1.
Enfin l’ordre de la méthode de Simpson, pour laquelle M = 2, est égal M + 1 = 3.
Remarque 2.5.1. Ajoutons enfin que l’ordre maximum d’une formule de quadrature de type
interpolation à M + 1 points, est au plus égal à 2 M + 1 car il y a 2 M + 2 inconnues.
( t − t i )2 de degré égal à 2 M + 2, on a
Q
En effet en considérant le polynôme Q ( t) = M i =0 Z1
P
J (Q ) = kM=0 ωk Q ( t k ) = 0, car t k est racine de Q or I (Q ) = Q ( t) dt > 0 donc I (Q ) 6= J (Q )
−1
Par conséquent, l’ordre de telles méthodes ne peut jamais dépasser la valeur maximale 2 M + 1.
Dans le cas où la formule est inexacte, chacune des formules de quadratures que nous avons
vue dans les paragraphes précédents, va engendrer une erreur qu’on cherchera par la suite à
estimer selon la méthode utilisée.
Définition 2.6.1. On appelle erreur commise dans le calcul approché de I ( g) par la formule la
formule de quadrature J ( f ), la différence
E ( g) = I ( g) − J ( g) (2.6.13)
On dit que l’erreur est commise par défaut lorsque E > 0. Dans le cas contraire on dit que
l’erreur est commise par excès.
Remarque 2.6.1. Il est clair que si la formule de quadrature J est précise pour une fonction g,
alors E ( g) = 0.
Erreur d’intégration 25
Avant d’énoncer les théorèmes d’estimations relatifs à chacune des méthodes de quadratures,
vues précédemment, nous allons commencer par énoncer le théorème de Peano qui permet de
calculer l’erreur commise par une large catégorie de formules de quadrature, en particulier celles
qui sont citées dans ce chapitre.
( b − a)2
| I ( f ) − J ( f )| ≤ M1 (2.6.14)
2
Preuve.
R R
E ( f ) = ab f ( t) dt − f (a) ( b − a) = ab [ f ( t) dt − f (a)] dt (point à gauche)
En utilisant l’expression de l’erreur d’interpolation donnée par 1.5.12 , et qui est dans ce cas
le théorème des accroissements finis dans l’intervalle [a, t] , on obtient :
R
f ( t) − P0 ( t) = f ( t) − f (a) = ( t − a) f ′ (ξ t ) avec ξ t ∈]a, t[ et donc, E ( f ) = ab ( t − a) f ′ (ξ t ) dt
Or la fonction t − a est positive dans l’intervalle [a, b], donc en appliquant le second théorème de
la moyenne (ou le théorème des valeurs intermédiaires à f ′′ ), on obtient :
2
E ( f ) = f ′ (ξ) ab ( t − a) dt = f ′ (ξ) 0b−a tdt = f ′ (ξ) (b−2a)
R R
Finalement on a ,
2 2
|E ( f )| = ¯ f ′ (ξ)¯ (b−2a) ≤ M1 (b−2a)
¯ ¯
ä
Remarque 2.6.2. Cette estimation est optimale car elle est réalisée par la fonction f ( t) = t
2
En effet, E ( f ) = I ( f ) − J ( f ) = ab tdt − ( b − a) a = (b−2a)
R
2
on a donc E ( f ) = (b−2a) M1 avec M1 = 1. Il n’y a donc pas d’autre meilleure estimation.
Terminons ce paragraphe en disant que l’estimation précédente est valable aussi pour la mé-
thode du point à droite.
( b − a)3
| I ( f ) − J ( f )| ≤ M2 (2.6.15)
12
¯ ¯
avec M2 = max ¯ f ′′ ( x)¯
a≤ x≤ b
26 Intégration numérique
Preuve.
On a pris f de classe C 2 comme dans l’erreur d’interpolation 1.5.12 où n = 1. On établit
facilement que
Rb ( b − a) 1 Rb
a f ( x) dx = ( f (a) + f ( b)) − a ( x − a) ( b − x) f ′′ ( x) dx
2 2
à l’aide de deux intégrations par parties dans l’intégrale du second terme. On en déduit en uti-
lisant le deuxième théorème de la moyenne, puisque f " est une fonction continue et ( x − a) ( b − x)
est positive, que
Rb ′′
Rb
a ( x − a) ( b − x) f ( x) dx = f "( c) a ( x − a) ( b − x) dx
Finalement,
¯ ¯ 3 3
¯ f ( x) dx − ( b − a) ( f (a) + f ( b))¯ = | f "( c)| ¯¯ b ( x − a) ( b − x) dx¯¯ = | f "( c)| ( b − a) ≤ M2 ( b − a)
¯R b ¯ ¯R ¯
¯ a 2 ¯ a
6 6
ä
( b − a)3
|E ( f )| ≤ M2 (2.6.16)
24
Preuve. Rappelons d’abord que si f est une fonction de classe C 2 sur un intervalle I, et si x0
est un point intérieur de I, alors pour tout réel h ∈ R tel que x0 + h ∈ I, on a
2
f ( x0 + h) = f ( x0 ) + h f ′ ( x0 ) + h2 f ′′ ( x0 + θ h) , avec θ ∈]0, 1[
Cette formule est appelée formule de Taylor-Lagrange à l’ordre deux au point x0
Et alors
E ( f ) = 21 ab ( t − m)2 f ′′ ( c t ) dt
R
Finalement on a l’estimation :
|E ( f )| ≤ 12 ab ( t − m)2 ¯ f ′′ ( c t )¯ dt ≤ 22 ab ( t − m)2 dt = 24
1
¯ ¯
M2 ( b − a)3
R M R
Théorème 2.6.4. Si f ∈ C 4 [a, b] et si M4 est le maximum de | f (4) | sur [a, b], alors
( b − a)5
| I ( f ) − J ( f )| ≤ M4 (2.6.17)
2880
Preuve.
Si F est une primitive de f sur [a, b], alors on peut écrire :
Za µ ¶
b−a a+b
I−J= f ( t) dt − f ( a) + 4 f ( ) + f ( b)
b 6 µ 2 ¶
b−a a+b
= F ( b ) − F ( a) − f ( a) + 4 f ( ) + f ( b)
6 2
a+b b−a
En posant : m = et h = et en remarquant que m + h = b et m − h = a
2 2
on obtient,
I − J = F ( m + h) − F ( m − h) − h3 ( f ( m − h) + 4 f ( m) + f ( m + h))
Posons ensuite :
· ¸
1 h
λ= F ( m + h) − F ( m − h) − ( f ( m − h) + 4 f ( m) + f ( m + h))
h5 3
et considérons la fonction k( t) définie sur [0, h] par :
t
k( t) = F ( m + t) − F ( m − t) − ( f ( m − t) + 4 f ( m) + f ( m + t)) − λ t5
3
On remarque facilement que k est continue est dérivable sur [0, h] et que par construction on a,
k(0) = k( h) = 0. Donc d’après le théorème de Rolle, il existe un réel c 1 dans l’intervalle ]0, h[ tel que
k ′ ( c1 ) = 0
k ′′ ( t) = 31 f ′ ( m + t) − 31 f ′ ( m − t) − 3t ( f ′′ ( m + t) + f ′′ ( m − t)) − 20λ t3
28 Intégration numérique
Comme k ′′ (0) = k ′′ ( c 2 ) et k ′′ est dérivable, alors une troisième application du théorème de Rolle
sur l’intervalle ]0, c 2 [, permet de montrer l’existence d’un nombre réel c 3 dans l’intervalle ]0, c 2 [
tel que k(3) ( c 3 ) = 0.
En calculant toujours et de la même manière k(3) ( t) sur l’intervalle [0, h], on obtient :
t
k(3) ( t) = − ( f (3) ( m + t) − f (3) ( m − t)) − 60λ t2
3
Par suite :
c3
k(3) ( c 3 ) = − ( f (3) ( m + c 3 ) − f (3) ( m − c 3 )) − 60λ c23 = 0
3
donc
1 f (3) ( m + c 3 ) − f (3) ( m − c 3 )
λ=−
180 c3
On en déduit en appliquant le théorème des accroissements finis, dans l’intervalle [ m − c 3 , m + c 3 ],
à la fonction f 3 ( t) que
1 2 c 3 f (4) ( c 4 ) f (4) ( c 4 )
λ=− =− avec m − c 3 < c 4 < m + c 3
180 c3 90
or | f (4) ( c 4 )| ≤ M4
donc,
1
|λ| ≤ M4
90
Finalement, en revenant à l’expression de l’erreur :
h
I − J = F ( m + h) − F ( m − h) − ( f ( m − h) + 4 f ( m) + f ( m + h))
3
on a :
b − a 5 ( b − a)5 ( b − a)5
µ ¶
5 1
| I − J | = |λ h | ≤ M4 = M 4 = M4
90 2 90 × 25 2880
D’où le résultat
ä
En prenant J ( f ) comme valeur approchée de I ( f ), on commet une erreur grossière. Pour da-
vantage de précision, on peut être tenté d’augmenter le nombre de points d’intégration. Malheu-
reusement on s’aperçoit très vite que l’erreur devient instable. Donc au lieu de ça, on va plutôt par-
tager l’intervalle [a, b] en n parties égales à l’aide d’une subdivision régulière, x0 = a, x1 , . . . , xn = b
b−a
ayant un pas égal à h = x i+1 − x i = , et dans lesquelles on utilise la formule de quadrature
n
considérée. On obtient alors une formule dite composite qui approche mieux l’intégrale de la fonc-
Formule composite 29
Par conséquent,
Zb −1 Z1
nX b−a
f ( x) dx = h g i ( t) dt g i ∈ C [0, 1], et h=
a i =0 0 n
et ces intégrales permettront d’approcher l’intégrale de f sur [a, b] qui s’écrit alors
Rb −1 Z1
nX −1
nX
a f ( x ) dx = g i ( t ) dt ≃ h J ( g i ) avec g i ( t) = f ( ht + x i )
i =0 0 i =0
−1
nX b−a
L h( f ) = h J ( g i ), h= (2.7.19)
i =0 n
On a vu que la formule de quadrature du point à gauche est donnée par J ( g) = g(0) et que
R
celle du point à droite est donnée par J ( g) = g(1) . En considérant l’intégrale ab f ( t) dt et en
partageant l’intervalle [a, b] en n morceaux égaux, on a L h ( f ) = h ni=−01 f ( x i ) pour la méthode du
P
P
point à gauche et L h ( f ) = h ni=1 f ( x i ) pour celle du point à droite. Finalement ces deux formules
composites peuvent s’écrire :
−1 µ
b − a nX b−a
¶
Sn( f ) = f a + k( ) (2.7.20)
n k=0 n
n µ ¶
b−a X b−a
Tn( f ) = f a + k( ) (2.7.21)
n k=1 n
¯ ´¯¯ NP
¯ ¯ ¯ N −1 ³Rx −1 ¯¯R
x i +1
¯
¯ I ( f ) − L ( f )¯ = ¯ P i +1 f ( t) dt − h f ( x ) ¯ ≤
i f ( t ) dt − h f ( x i )
¯
h ¯ xi ¯ ¯ xi ¯
i =0 i =0 £ ¤
En utilisant la majoration d’erreur dans la formule de quadrature dans chaque x i , x i+1 on a
¡ ¢2
¯R
¯ x i +1
¯ ¯R
¯ ¯ x i +1 ¡ ¢ ¯ x i+1 − x i
¯ x i f ( t) dt − h f ( x i )¯ = ¯ x i f ( t) dt − x i+1 − x i f ( x i )¯ ≤ M1
¯
2
On en déduit en faisant la somme des erreurs :
¡ ¢2 ¡ ¢
NP −1 ¯¯R ¯ NP −1 x i+1 − x i NP −1 h x i+1 − x i
x i +1
¯ x i f ( t) dt − h f ( x i )¯ ≤
¯
M1 = M1
i =0 i =0 2 i =0 2
N
h P − 1 ¡ ¢ ( b − a) h
= M1 x i+1 − x i = M1
2 i=0 2
Finalement on obtient,
¯ I ( f ) − L ( f )¯ ≤ M1 ( b − a) h
¯ ¯
h ä
2
−1
nX ³x +x ´
i i +1
L h( f ) = h f (2.7.23)
i =0 2
¯ I ( f ) − L ( f )¯ ≤ M2 ( b − a) h2
¯ ¯
h (2.7.24)
24
Preuve. On a ¯ ¯
¯ ¯ ¯¯nX −1 R nX −1 ¯ x i + x i+1
¯ I ( f ) − L ( f )¯ = ¯ x i +1
( ) ( )¯, avec m i =
¯
h x f x dx − h f m i
¯ i=0 i
i =0
¯ 2
Alors, et compte tenu de la majoration de l’erreur de quadrature on a
¯R
¯ x i +1
¯ ¯R
¯ ¯ x
¯ ( x i+1 − x i )3
¯ x i f ( x) dx − h f ( m i )¯ = ¯ x ii+1 f ( x) dx − ( x i+1 − x i ) f ( m i )¯ ≤ M2
¯
24
En faisant la somme, on obtient
nX −1 ¯R nX −1 nX −1 ( x
i +1 − x i ) 2
¯
¯ x i +1
¯ x i f ( x) dx − h f ( m i )¯ ≤ M2
¯
= M2 h
i =0 i =02 i =02 24
h2 nX−1 b−a 2
= M2 ( x i+1 − x i ) = M2 h ä
24 i=02 24
Exemple 2.7.1.
R1 x
f ( x) = e x , I ( f ) = 0 e dx = e − 1 = 1. 718 3
1 1 3
J ( f ) = (1 − 0) e 2 = 1. 648 7 , n = 2 −→ h = 1−0 1 4
2 −→ L h ( f ) = 2 ( e + e ) = 1. 700 5
4
Formule composite 31
Considérons maintenant une fonction f continue sur l’intervalle [a, b], alors la formule com-
posite associée à la méthode des trapèzes est donnée par l’expression
−1 ¡
h nX ¢
L h( f ) = f ( x i ) + f ( x i+1 ) (2.7.25)
2 k=0
Par conséquent, on a
Zb −1 ¡
h nX ¢
f ( x) dx ≃ f ( x i ) + f ( x i+1 )
a 2 k=0
Théorème 2.7.3. Pour toute fonction f ∈ C 2 [a, b] et pour toute subdivision régulière x0 , x1 , . . . xn
de [a, b] ayant un pas égal h, on a
¯ I ( f ) − L ( f )¯ ≤ M2 ( b − a) h2
¯ ¯
h (2.7.26)
12
¯ ¯
avec M2 = max ¯ f ′′ ( x)¯
a≤ x≤ b
Exemple 2.7.3. Trouvons, à l’aide de la méthode des trapèzes, une valeur approchée de
Z1
1
x2 dx pour n = 4. D’abord, la valeur exacte de cette intégrale est I = = 0, 25, ensuite L h ( f ) =
P03 1 2 1 3
i =1 16
i + 8 = . 34375
R
f ( x) = e , I ( f ) = 01 e x dx = e − 1 = 1. 718 3
x
J ( f ) = 01 e x dx = 12 ( e + 1) = 1. 859 1
R
h 1 1
i
n = 2 −→ h = 1− 2
0
−→ L h ( f ) = 1
4 (1 + e 2 ) + ( e 2 + e ) = 1. 753 9
La particularité de la méthode composite relative à cette méthode, est qu’elle consiste à di-
viser l’intervalle [a, b] en un nombre pair de morceaux de même longueur. On prend alors une
b−a
subdivision régulière x0 = a < x1 < x2 < · · · < xn = b de pas égal à h = , avec n un entier pair
£n ¤
non nul et on utilise la formule de quadrature dans chaque intervalle x2 i , x2 i+2 de longueur 2 h.
On obtient alors
h n/2
X−1 £ ¤
L h( f ) = L h = f ( x2 i ) + 4 f ( x2 i+1 ) + f ( x2 i+2 ) , n ∈ 2N∗ (2.7.27)
3 i=0
Alors et compte tenu de , x0 = a , . . . x i = a + ih , · · · xn = a + nh = b
on a
n/2
P−1
L h = h3 [ f (a + 2 ih) + 4 f (a + (2 i + 1) h) + f (a + (2 i + 2) h)]
i =0
Remarque 2.7.1. Rappelons comme on l’a dit auparavant, que cette méthode est appelée mé-
thode de Simpson 1/3 à cause du facteur 1/3 dans sa formule composite. Cette appellation est
utilisée pour la distinguer d’une autre méthode à quatre points qu’on désigne par Simpson 3/8.
6−1 1
n = 10 −→ h = b− a
n = 10 = 2
Composite formula
L h ( f ) = 1/2 3 1/2 5 1/2 7
3 (sin 1 + 4 sin 2 + sin 2) + 3 (sin 2 + 4 sin 2 + sin 3) + 3 (sin 3 + 4 sin 2 + sin 4)
+ 1/2 9 1/2 11
3 (sin 4 + 4 sin 2 + sin 5) + 3 (sin 5 + 4 sin 2 + sin 6) = −0.420 02
R6
I= 1 sin x dx Approximate integral (Simpson’s rule) is :−0.420 02
Formule composite 33
b−a 4
| I ( f ) − L h ( f )| ≤ h M4 (2.7.28)
180
Preuve.
Rappelons que
h i
−a)5 (4)
= − (b2880
Rb b−a a+ b
a f ( t ) dt − 6 f ( a ) + 4 f ( 2 ) + f ( b ) f (ζ)
on a donc,
¯ ¯ ¯R ¯ ¯¯n/2−1 R µ
n/2
P−1 ¡
¶¯
¢ ¯
¯E ( f )¯ = ¯¯ b f ( x) dx − L ( f )¯¯ = ¯ P x2 i + 2 h
f ( x) dx − 3 f ( x2 i ) + 4 f ( x2 i+1 ) + f x2 i+2 ¯¯
h a h ¯ x2 i
i =0 i =0
et alors
¯ ¯ n/2−1 ¯R ¡ ¡ ¢¢¯
¯E ( f )¯ ≤ P ¯¯ x2 i+2 f ( x) dx − h f ( x2 i ) + 4 f ( x2 i+1 ) + f x2 i+1 ¯¯
h x2 i 3
i =0
or
¡ ¢5
¯R
¯ x2 i + 2 h¡ ¡ ¢¢¯¯ x2 i+2 − x2 i
¯ x2 i f ( x) dx − 3 f ( x2 i ) + 4 f ( x2 i+1 ) + f x2 i+2 ¯ ≤ M4
2880
Donc,
−1 x2 i +2 − x2 i 5
¡ ¢
¯ ¯ n/2P
¯E ( f )¯ ≤ M4
h
i =0 2880
et comme 2 h = x2 i+2 − x2 i
alors
n/2
P−1 ¡ ¢5 n/2
P−1 ¡
= (2 h)4 x2 i+2 − x2 i = 24 × h4 ( b − a)
¢
x2 i+2 − x2 i
i =0 i =0
Donc,
¯E ( f )¯ ≤ M4 ( b − a) h4
¯ ¯
h ä
180
Bibliographie
[1] R. Burden and J. Faires. Numerical Analysis. Available Titles CengageNOW Series. Cengage
Learning, 2004.
[2] A. Fortin. Analyse numérique pour ingénieurs. Presses internationales Polytechnique, 2011.
[4] J.E. Rombaldi. Interpolation et approximation : analyse pour l’agrégation. Vuibert, 2005.
[5] M. Sibony and J.C. Mardon. Analyse numérique : Approximations et équations différentielles.
Actualités scientifiques et industrielles. Hermann, 1982.