Vous êtes sur la page 1sur 38

Mini-Cours

d’Analyse numérique
Rachid Eloulaïmi
Cours
d’Analyse numérique

M ODULE
DE
SMIA4

AUTEUR

RACHID ELOULAIMI

PARU LE

JEUDI 19 MARS 2020


(Q UATRIÈME ÉDITION )
Table des matières

Table des matières i


Préface ii
1 Interpolation polynomiale 1
1.1 Méthode algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Interpolation de deux points. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Interpolation de trois points. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Interpolation de plusieurs points. . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Méthode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Base de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Interpolation d’une fonction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Cas de trois points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Cas de plusieurs points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Erreur d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Intégration numérique 15
2.1 Formules de quadrature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Méthodes de quadratures usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.1 Quadratures de type interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2 Méthode des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.3 Méthode des trapèzes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.4 Méthode de Simpson 1/3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Formules de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Ordre de précision d’une méthode de quadrature . . . . . . . . . . . . . . . . . . . . . 22
2.4.1 Ordre des méthodes du point à gauche et du point à droite . . . . . . . . . . . 22
2.4.2 Ordre de la méthode du point milieu . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.3 Ordre de la méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.4 Ordre de la méthode de Simpson 1/3 . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Intégration et interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Erreur d’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.1 Estimation de l’erreur des points à gauche et à droite . . . . . . . . . . . . . . 25
2.6.2 Estimation de l’erreur des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.3 Estimation de l’erreur du point milieu . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.4 Estimation de l’erreur de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7 Formule composite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.1 Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7.2 Formule composite du point milieu . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.7.3 Formule composite des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.7.4 Formule composite de Simpson 1/3 . . . . . . . . . . . . . . . . . . . . . . . . . 32
Bibliographie 34
Préface
Ce mini-cours d’analyse numérique est exceptionnellement constitué de deux chapitres. Nous
abordons dans le premier chapitre la notion d’interpolation polynomiale qui utilise un polynôme
ayant un degré minimal et qui interpole un ensemble de nœuds. Ces nœuds sont situés ou bien sur
le graphe d’une fonction ou bien dans un tableau de valeurs données, dans le cas où l’expression
explicite de cette fonction est inconnue. L’intérêt de l’interpolation polynomiale réside dans la sim-
plicité des polynômes qui les rendent utiles dans différentes parties de l’analyse numérique. Nous
étudions en détail les méthodes de Lagrange et de Newton et nous faisons la comparaison entre
elles. Et pour conclure nous terminons ce premier chapitre par la notion d’erreur d’interpolation
en établissant le théorème d’estimation relatif à cette erreur.
Le deuxième chapitre sera consacré aux techniques d’intégration numérique qui sont basées
sur une notion de quadrature adaptée à l’interpolation polynomiale, laquelle a été étudiée dans
dans le premier chapitre. Ces techniques sont d’une grande utilité, à la fois pour le mathématicien
et pour l’ingénieur, car ils permettent de donner une approximation acceptable d’une intégrale,
dont le le calcul est souvent difficile voire impossible. C’est ainsi que nous étudierons en détail
les trois méthodes élémentaires de Newton-Cotes qui sont les plus connues dans le calcul numé-
rique d’une intégrale, à savoir la méthode des rectangles, la méthode des trapèzes et la méthode
de Simpson. Nous verrons ensuite, pour chacune des méthodes exposées, la formule composite
associée et nous terminons par des résultats sur la majoration de l’erreur dans le cadre général
de la méthode de Newton-Cotes.

R.E

Tétouan, le 19 mars 2020


Chapitre 1
Interpolation polynomiale

L’ I nterpolation polynomiale est un procédé numérique qui permet de joindre, par une fonction
polynomiale, un ensemble de données discrètes d’une fonction ou d’une table de valeurs
relatives à un certaine grandeur lors de l’étude d’un phénomène. Le but est d’approcher les don-
nées manquantes de la grandeur étudiée par celles d’un polynôme ayant un degré minimal, ce
qui aide à mieux comprendre l’évolution du phénomène. Par exemple, interpoler par un polynôme
les températures relevées dans une localité au cours des trois premiers et trois derniers jours de
chaque mois, facilite la connaissance de l’évolution de la température effective dans cette localité
pendant toute l’année. Le choix des polynômes est évidemment judicieux car ce sont des fonctions
simples à manipuler numériquement.
Dans ce chapitre nous commençons par des notions simples de géométrie élémentaire et d’al-
gèbre linéaire qui permettent d’avoir une idée sur la théorie d’interpolation polynomiale. Ensuite
nous verrons que le polynôme de l’interpolation peut être calculé à l’aide des méthodes de La-
grange et de Newton. La comparaison de ces deux méthodes va permettre de connaitre leurs
points forts et leurs points faibles. À la fin du chapitre nous énonçons le théorème sur l’estima-
tion d’erreur qui aide à déterminer le degré de précision du résultat trouvé.

1.1 Méthode algébrique

1.1.1 Interpolation de deux points.

Tout le monde sait que par deux points distincts du plan, passe une seule droite qui est le plus
court chemin joignant ces deux points. Par exemple, la droite qui joint les points (0, 0) et (1, 1)
a pour équation y = x. De même la droite horizontale, parallèle à l’axe des abscisses, joignant
2 Interpolation polynomiale

les points (1, 0) et (2, 0) a pour équation y = 0. Plus généralement, en considérant deux points
M0 ( t 0 , y0 ) et M1 ( t 1 , y1) distincts quelconques, situés sur le graphe d’une certaine fonction f ( x),
alors il est évident que leurs abscisses t 0 et t 1 sont nécessairement distinctes, et que la droite joi-
gnant ces deux points a pour équation cartésienne réduite y( t) = a 0 + a 1 t. C’est donc un polynôme
P1 ( t) de degré inférieur ou égal à un, qui vérifie le système linéaire suivant

  
 a 0 + a 1 t 0 = y0 1 t0
ayant pour matrice   (1.1.1)
 a +a t = y
0 1 1 1 1 t1

3
B
b

A
b
1
f
g
0
−4 −3 −2 −1 0 1 2 3 4 5 6
−1

−2

F IGURE 1.1 – Interpolation de deux points

Comme les abscisses t 0 et t 1 sont distinctes, alors cette matrice est inversible car son détermi-
nant ( t 1 − t 0 ) est non nul. Par conséquent, les réels a 0 , a 1 existent et sont uniques et on dit que
le polynôme P1 ( t) est l’interpolant de la fonction f en ces deux points. Le verbe interpoler signifie
corriger ou redresser intercaler ou insérer.

1.1.2 Interpolation de trois points.

Si maintenant on prend trois points M0 ( t 0 , y0 ) , M1 ( t 1 , y1 ) et M2 ( t 2 , y2 ) ayant des abscisses


deux à deux distinctes, alors le raisonnement précédent reste valable uniquement dans le cas où
ces points sont alignés. Dans le cas contraire, il n’est plus question de les joindre par une droite
mais on démontre facilement, et de la même façon, qu’il existe une seule parabole qui passe par
Méthode algébrique 3

ces points ; ce qui permet de dire dans ce cas aussi qu’il existe un seul polynôme de degré inférieur
ou égal à deux qui passe par ces trois points.

1.1.3 Interpolation de plusieurs points.

Cette procédure peut être généralisée à un système de n + 1 points quelconques du plan,


( t 0 , y0 ), ( t 1 , y1 ), . . . , ( t n , yn ) ayant des abscisses deux à deux distinctes. Ceci nous amène au pro-
blème d’interpolation qui consiste à déterminer un unique polynôme P n ( t), de Rn [ X ], qui passe
par ces points. Ce polynôme est appelé interpolant ou polynôme d’interpolation de la fonction
considérée en ces poins.
Ainsi, déterminer le polynôme P n ( t) = a 0 + a 1 t + . . . a n t n .revient à résoudre le système linéaire à
( n + 1) équations et ( n + 1) inconnues suivant :




 a 0 + a 1 t 0 + . . . + a n t 0n = y0
 a 0 + a 1 t 1 + . . . + a n t n = y1

1
.. (1.1.2)


 .

 a + a t + . . . + a tn = y
0 1 n n n n

Les inconnues de ce système sont, bien entendu, les a i et sa résolution conduit à une matrice
de Vandermonde d’ordre n + 1. Rappelons que la i eme ligne de cette matrice est une progression géo-
métrique de raison égale à t i . Son déterminant se calcule par récurrence, en remplaçant chaque
colonne C i , 1 ≤ i ≤ n + 1, par C i − t 0 C i−1 tout en commençant par la dernière colonne.

C n+1 → C n+1 − t 0 C n

¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t 0 · · · t 0n−1 t 0n ¯ ¯1 t 0 · · · t 0n−1 0
¯ ¯ ¯ ¯
¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯
¯1 t 1 · · · t1 n − 1 n ¯
t 1 ¯¯
¯
¯1 t 1 · · · t1 n − 1 n −1
( t 1 − t 0 ) t 1 ¯¯
¯
¯ ¯
Vn+1 = ¯ ¯ = ¯ ¯
¯. . .. .. ¯ ¯. . .. ..
¯ .. .. ¯ .. ..
¯ ¯
¯ ··· . .¯ ¯ ··· . . ¯
¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t
¯ n · · · t nn−1 t nn ¯¯ ¯1 t
¯ n · · · t nn−1 ( t n − t 0 ) t nn−1 ¯¯

C n → C n − t 0 C n−1 C1 → C1 − t0 C0
↓ ↓
4 Interpolation polynomiale

¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t 0 0 0 ¯1 0 0 0
¯ ¯ ¯ ¯
··· ¯ ··· ¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
( t 1 − t 0 ) t 1n−2 ( t 1 − t 0 ) t 1n−1 ¯¯ ( t 1 − t 0 ) t 1n−2 ( t 1 − t 0 ) t 1n−1 ¯¯
¯ ¯ ¯ ¯
¯1 t 1 ··· ¯1 t 1 − t 0 ···
¯ ¯
=¯ ¯··· = ¯ ¯
¯. . .. .. ¯. .. .. ..
¯ .. .. ¯ ..
¯ ¯
¯ ··· . . ¯
¯ ¯ . ··· . . ¯
¯
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯1 t
¯ n ··· ( t n − t 0 ) t nn−2 ( t n − t 0 ) t nn−1 ¯¯ ¯1 t − t
¯ n 0 ··· ( t n − t0 ) t n n −2 n −1
( t n − t 0 ) t n ¯¯
¯ ¯
¯ ¯ ¯ ¯
¯ n
¯ t1 − t0 · · · ( t1 − t0 ) t1 −2 n −
( t1 − t0 ) t1 ¯1 ¯
1
¯ n −
¯
¯ ¯ ¯
¯ 1 t 1 · · · t 1 ¯¯
¯ ¯ ¯. . .. ¯¯
= ¯ ... .. ..
¯ = ( t 1 − t 0 )( t 2 − t 0 ) · · · ( t n − t 0 ) ¯¯ .. .. · · ·
¯ ¯
· · · . . . ¯
¯ ¯ ¯ ¯
n−1 ¯
¯ ¯
1
¯
¯
¯ t − t · · · ( t − t ) t n−2 ( t − t ) t n−1 ¯
¯ ¯ t n · · · t n ¯
¯ n 0 n 0 n n 0 n ¯
De proche en proche (à l’aide d’une hypothèse de récurrence), on arrive à avoir

Y ¡ ¢
Vn+1 = t j − ti (1.1.3)
0≤ i < j ≤ n

On peut ainsi énoncer le résultat suivant,

Théorème 1.1.1. Soient M0 ( t 0 , y0 ), M1 ( t 1 , y1 ) . . . M n ( t n , yn ) , n + 1 points du plan ayant des abs-


cisses deux à deux distinctes, alors il existe un seul polynôme P n ( t) de degré inférieur ou égal à n
tel que P n ( t k ) = yk . Ce polynôme est appelé polynôme d’interpolation des n+1 points ( M i , 0 ≤ i ≤ n)
qu’on appelle nœuds d’interpolation.

Remarque 1.1.1. La méthode de recherche du polynôme d’interpolation, à l’aide de l’inverse de


la matrice de vandermonde, est très délicate du point de vue pratique et numérique et son intérêt
est purement théorique. La théorie d’interpolation consiste, comme on va le voir, à élaborer des
méthodes qui permettent de trouver l’expression de P n ( t) sans grande difficulté.
Deux méthodes vont être abordées ici, la méthode de Lagrange et la méthode de Newton.

1.2 Méthode de Lagrange

La méthode de Lagrange que nous exposons ici, est très utile dans le calcul explicite du po-
lynôme d’interpolation P n ( t) aux nœuds M i ( t i , yi ). Elle permet d’écrire ce polynôme en fonction
des ordonnées y0 , y1 , . . . , yn , en exhibant à l’avance une autre base de polynômes appelée base de
Lagrange associée aux abscisses t i .
Méthode de Lagrange 5

1.2.1 Base de Lagrange

Pour construire les polynômes de cette base nous supposons, pour chaque i ∈ [0, n] fixé, que
toutes les valeurs yk sont nulles sauf celle de yi qui est égale à un. D’après le 1.1.1 , il existe alors
un seul polynôme l i ( t) de degré inférieur ou égal à n tel que l i ( t k ) = δ ik (symbole de Kronecker).
Ceci entraine que le polynôme l i ( t) admet n racines distinctes et que son degré est exactement
égal à n. Il s’écrit donc

Y
l i ( t) = α i ( t − t 0 ) . . . ( t − t i−1 )( t − t i+1 ) . . . ( t − t n ) = α i (t − t k )
0≤ k ≤ n
k6= i

1
Par ailleurs, l i ( t i ) = 1 entraine que α i = Q .
(t i − t k )
0≤ k ≤ n
k6= i
Ainsi, on obtient un système unique de n + 1 polynômes { l 0 ( t), l 1 ( t), . . . , l n ( t)} tel que

 l i ( t k ) = δ ik


Q ( t− t k )

 l i ( t) = (t i −t k )
 0≤ k ≤ n
k6= i

Montrons ensuite que ce système est une base de Rn [ X ]. La dimension de l’espace Rn [ X ] est
égale à n + 1 , il suffit de montrer qu’il est libre.
Soient λ0, . . . , λn des scalaires tels que λ0 l 0 ( t) + ... + λn l n ( t) = 0, alors en particulier pour t = t0,
on a l 0 ( t 0 ) = 1 et l j ( t 0 ) = 0, j 6= 0 et donc λ0 = 0. De proche en proche, on montre ainsi que tous les
scalaires λ j sont nuls. On peut donc énoncer le théorème suivant

Théorème 1.2.1 (d’interpolation).


Soient t 0 , t 1 , . . . , t n ; des réels deux à deux distincts et y0, y1, · · · , yn , n + 1 réels quelconques.
Alors,
† il existe une base unique de polynômes { l 0 ( t), l ( t) . . . , l n ( t)} de degrés n tels que l k ( t i ) = δ ik
‡ le polynôme d’interpolation, des n + 1 nœuds M k ( t k , yk ), s’écrit dans cette base :

P n ( t) = y0 l 0 ( t) + y1 l 1 ( t) + . . . + yn l n ( t) (1.2.4)

Définition 1.2.1. La base { l 0 ( t), l 1 ( t) . . . , l n ( t)} de Rn [ X ], définie par

Y (t − t i )
l k ( t) = (1.2.5)
0≤ i ≤ n ( t k − t i )
i 6= k

est appelée base de Lagrange associée aux nombres réels t 0 , t 1 , . . . , t n .


6 Interpolation polynomiale

Exemple 1.2.1. Déterminons la base de Lagrange relative aux réels t 0 = −1, t 1 = 0 et t 2 = 1


( t − 0)( t − 1)
l 0 ( t) = = 1 t2 − 21 t
(−1 − 0)(−1 − 1) 2
( t + 1)( t − 1)
l 1 ( t) = = − t2 + 1
(0 + 1)(0 − 1)
( t + 1)( t − 0) 1 2 1
l 2 ( t) = = t + 2t
(1 + 1)(1 − 0) 2
Le polynôme d’interpolation dans la base de Lagrange associée nécessite la connaissance des
nœuds d’interpolation qui doivent avoir pour abscisses t 0 = −1, t 1 = 0 et t 2 = 1.
En considérant par exemple, les nœuds M0 (−1, 1), M1 (0, −2) et M2 (1, −3), on obtient le polynôme
d’interpolation cherché :
P 2 ( t) = l 0 ( t) − 2 l 1 ( t) − 3 l 3 ( t)

= ( 12 t2 − 21 t) − 2(1 − t2 ) − 3( 12 t2 + 21 t)= t2 − 2 t − 2

P2

M0
b

M1
b

M2
b

F IGURE 1.2 – Interpolation de trois points

1.2.2 Interpolation d’une fonction.

Comme application de la méthode de Lagrange, on peut facilement calculer le polynôme d’in-


terpolation passant par des nœuds situés sur le graphe d’une fonction réelle f , de la manière
suivante : Si t 0 < t − 1, < . . . , < t n sont des nombres réels appartenant à un intervalle [a, b] et si f
Méthode de Newton 7

est définie sur [a, b], alors :

P n ( t) = f ( t 0 ) l 0 ( t) + f ( t 1 ) l 1 ( t) + . . . + f ( t n ) l n ( t) (1.2.6)

Exemple 1.2.2. Trouvons l’interpolant, de Lagrange de la fonction f ( t) = e t aux points t 0 = −1,


t 1 = 0 et t 2 = 1.
P2 ( t) = e−1 l 0 ( t) + − e0 l 1 ( t) + e1 l 2 ( t)
= e−1 ( 21 t2 − 21 t) + e0 (1 − t2 ) + e1 ( 12 t2 + 21 t) = (ch 1 − 1) t2 + (sh 1) t + 1

P2

M2
b

M1
b
M0
b

F IGURE 1.3 – Interpolation d’une fonction

1.3 Méthode de Newton

La méthode de Lagrange a l’inconvénient de ne pas être récursive, car elle ne fournit aucun
moyen simple pour calculer le polynôme P k en fonction de P k−1 . A chaque fois lorsqu’on ajoute
un nœud, on est obligé de refaire le calcul de ces polynômes de Lagrange, ce qui est décourageant
pour le calcul numérique. La méthode de Newton que nous présentons ici, permet dans le cas
d’ajout d’un nœud, de déterminer le nouveau polynôme interpolant à partir du précédent d’une
façon beaucoup plus simple. Dans cette méthode, les polynômes d’interpolation seront écrits dans
une base de polynômes échelonnés et peuvent être calculés de proche en proche ; ce qui permet
ensuite d’ajouter un nœud sans refaire les calculs.
8 Interpolation polynomiale

Pour commencer, considérons une fonction réelle y( x) et un point x0 . Alors il est clair que l’inter-
polant de y( x) en ce point est le polynôme constant P0 ( x) = y( x0 ). Si on ajoute un autre point x1
distinct de x0 , on obtient un polynôme P1 ( x) (qui est une droite) avec deg P1 ≤ 1 qui interpole la
fonction y( x) en ces deux points.
En posant R 1 ( x) = P1 ( x) − P0 ( x), on a R 1 ( x0 ) = 0 et alors R 1 ( x) = a 1 ( x − x0 ).
En particulier, R 1 ( x1 ) = a 1 ( x1 − x0 ), ce qui donne

y( x1 ) − y( x0 ) y( x1 ) − y( x0 )
a1 = et P 1 ( x ) = P 0 ( x ) + ( x − x0 )
x1 − x0 x1 − x0
y( x1 ) − y( x0 )
En posant y( x0 , x1 ) = et compte tenu de P0 ( x) = y0 ( x), on obtient
x1 − x0

P1 ( x) = y( x0 ) + y( x0 , x1 )( x − x0 ) (1.3.7)

y( x1 ) − y( x0 )
Définition 1.3.1. Le rapport y( x0 , x1 ) = est appelé différence divisée du premier
x1 − x0
ordre entre x0 x1 , et par convention y( x0 ), est appelée différence divisée d’ordre zéro. On remarque
tout de suite que la différence divisée première est symétrique, i.e. y( x0 , x1 ) = y( x1 , x0 ).

Exemple 1.3.1. M0 (1, 2), M1 (2, 6) on a x0 = 1 , y(1) = 2 et x1 = 2 , y(2) = 6

P1 ( x) = 2 + y(1, 2)( x − 1) = 2 + 62−2


−1 ( x − 1) = 2 + 4( x − 1)

Vérification : P1 (1) = [2 + 4( x − 1)] x=1 = 2 P1 (2) = [2 + 4( x − 1)] x=2 = 6

1.3.1 Cas de trois points

Considérons maintenant trois points deux à deux distincts x0 , x1 , x2 et calculons de la même


manière l’interpolant P2 de la fonction y( x) en ces trois points.
Pour cela, posons R 2 ( x) = P2 ( x) − P1 ( x) on alors,
R 2 ( x0 ) = 0 et R 2 ( x1 ) = 0 et donc R 2 ( x) = a 2 ( x − x0 )( x − x1 )
En particulier on a pour x = x2

R 2 ( x2 ) y( x2 ) − [ y( x0 ) + ( x2 − x0 ) y( x0 , x1 )]
a2 = =
( x2 − x0 ) ( x2 − x1 ) ( x2 − x0 ) ( x2 − x1 )

[ y( x2 ) − y( x1 )] + [ y( x1 ) − y( x0 )] − ( x2 − x0 ) y( x0 , x1 )
=
( x2 − x0 )( x2 − x1 )
£ ¤ £ ¤
y( x1 , x2 )( x2 − x1 , ) + y( x0 , x1 )( x1 − x0 ) − ( x2 − x0 ) y( x0 , x1 )
=
( x2 − x0 )( x2 − x1 )

y( x1 , x2 )( x2 − x1 ) − [( x2 − x1 ) y( x0 , x1 ) y( x1 , x2 ) − y( x0 , x1 )
= =
( x2 − x0 )( x2 − x1 ) ( x2 − x0 )
Cas de plusieurs points 9

En posant, comme dans le cas de deux points :

y( x1 , x2 ) − y( x0 , x1 )
y( x0 , x1 , x2 ) =
( x2 − x0 )
On obtient,

P2 ( x) = y( x0 ) + y( x0 , x1 )( x − x0 ) + y( x0 , x1 , x2 )( x − x0 )( x − x1 ) (1.3.8)

y( x1 , x2 ) − y( x0 , x1 )
Définition 1.3.2. la fraction y( x0 , x1 , x2 ) = est appelée différence divisée d’ordre
( x2 − x0 )
deux entre les arguments x0 , x1 , x2 .

Exemple 1.3.2.

On va trouver, à l’aide de la méthode de Newton, le polynôme d’interpolation des valeurs


suivantes :
−1 → 13
ց
1
x k −1 1 2 ր ց
yk 13 15 13 1 → 15 −1
ց ր
−2
ր
2 → 13

P2 ( x) = 13 + ( x + 1) − ( x + 1)( x − 1) = − x2 + x + 15

Ce schéma est un moyen simple et pratique pour calculer les différences divisées ainsi que le
polynôme d’interpolation. Les cases encadrées dans la diagonale supérieure, désignent respecti-
vement y(−1), y(−1, 1), y(−1, 1, 2).

1.4 Cas de plusieurs points

Dans le cas général où on considère n + 1 points deux à deux distincts x0 , x1 , . . . , xn et en pro-


cédant de proche en proche, on arrive à écrire l’interpolant P n ( x), de la fonction y( x) aux points
x0 , x1 , . . . , xn à l’aide des différences finies qu’on va définir comme suit :

Définition 1.4.1. On appelle différence divisée d’ordre n entre les arguments x0 , x1 , . . . , xn


le rapport
y( x1 , x1 , x2 , ...xn ) − y( x0 , x1 , x2 , ...xn−1 )
y( x0 , x1 , x2 , ...xn ) =
x n − x0
Remarque 1.4.1. On vérifie sans grande difficulté que les différences divisées d’ordre n,
y( x0 , x1 , x2 , ...xn ) sont symétriques par rapport à toute permutation des arguments xk ..
10 Interpolation polynomiale

Ces différences finies permettent d’écrire, comme on l’a déjà vu, le polynôme d’interpolation
d’un nombre quelconque de nœuds, dans une base de polynômes à degrés échelonnés appelée base
de Newton.

Lemme 1.4.1. Étant donnés n points x0 , x1 · · · xn−1 deux à deux distincts, alors en posant v0 ( x) = 1
et vk ( x) = ( x − x0 ) · · · ( x − xk−1 ) pour 1 ≤ k ≤ n, le système {v0 ( x), v1 ( x), · · · vn ( x)} est une base de
l’espace vectoriel Rn [ X ] appelée base échelonnée de Newton aux points x0 , x1 , · · · xn−1 .

Preuve. Soient λ0 , λ1 , · · · λn des scalaires tels que λ0 v0 ( x) + λ1 v1 ( x) + · · · λn vn ( x) = 0


En prenant x0 = 0 on obtient λ0 = 0 et donc λ1 v1 ( x) + · · · λn vn ( x) = 0; en prenant ensuite x = x1
on a λ1 v1 ( x1 ) = λ1 ( x1 − x0 ) = 0, donc en vertu de x1 6= x0 on a λ1 = 0. Ainsi en continuant de proche
en proche on montre que tous les λ i sont nuls. Le système est donc libre et c’est aussi une base
car il est constitué de n + 1 polynômes et car dim Rn [ X ] = n + 1 ä

Théorème 1.4.1. Étant donnés une fonction réelle y( x) et n + 1 points deux à deux distincts
x0 , x1 · · · , xn , alors le polynôme d’interpolation de y( x) s’écrit dans la base de Newton :

P n ( x) = y( x0 ) + ( x − x0 ) y( x0 , x1 ) + ( x − x0 )( x − x1 ) y( x0 , x1 , x2 ) + . . .
(1.4.9)
+ ( x − x0 )( x − x1 )....( x − xn−1 ) y( x0 , x1 , x2 , ...xn )

Conséquence 1.4.1. L’expression du polynôme d’interpolation P n à l’aide des différences divisées


permet de dégager le lien récurrent entre ce polynôme et son prédécesseur P n−1 de la façon
suivante :
P n ( x) = P n−1 ( x) + ( x − x0 )( x − x1 )....( x − xn−1 ) y( x0 , x1 , x2 , ...xn ) (1.4.10)

Exemple 1.4.1.

Nous allons trouver, à l’aide de la méthode de Newton, le polynôme d’interpolation en ajoutant


deux nœuds au tableau précédent (Exemple 1.3.2) :

−1 → 13
ց
1
ր ց
1 → 15 −1
ց ր ց
x k −1 1 2 4 5 −2 1
ր ց ր ց
yk 13 15 13 33 67 2 → 13 4 0
ց ր ց ր
10 1
ր ց ր
4 → 33 8
ց ր
34
ր
5 → 67
Erreur d’interpolation 11

P4 ( x) = P3 ( x) + ( x + 1)( x − 1)( x − 2) = − x2 + x + 15 + ( x + 1)( x − 1)( x − 2) = x3 − 3 x2 + 17

Rappelons, comme on l’a vu précédemment, que dans ce schéma les cases encadrées dans la dia-
gonale supérieure, désignent les différences divisées qui sont les coefficients du polynôme d’inter-
polation dans la base de Newton.

1.5 Erreur d’interpolation

L’intérêt de la théorie d’interpolation polynomiale réside dans la possibilité d’approcher une


fonction dont l’expression est inconnue ou compliquée par un polynôme qui passe par un certain
nombre de nœuds, situés sur le graphe de cette fonction. Cette démarche est bien connue avec
la formule de Taylor et les développements limités, lorsqu’on désire approcher localement une
fonction au voisinage d’un point. Par exemple au voisinage de zéro, on a sin x ∼ x − x3 /6. L’inter-
0
polation polynomiale part du même principe en fournissant une approximation globale englobant
plusieurs points, mais sans faire intervenir les dérivées de la fonction aux points considérés.
L’objet de cette partie est de donner le théorème d’approximation de l’erreur d’interpolation
qui permet de déterminer la nature et le nombre des nœuds nécessaires pour avoir une bonne
approximation de la fonction étudiée. Avant de le faire, nous allons d’abord démontrer un lemme
pratique et utile pour la suite.

Lemme 1.5.1.
n+1)
π(n ( x) = ( n + 1)! avec πn ( x) = ( x − x0 )( x − x1 ) . . . ( x − xn )

Preuve. Récurrence et théorème de Leibnitz

n=0 π0 ( x) = ( x − x0 ) n=1 π1 ( x) = ( x − x0 )( x − x1 )

n+1 = 1 π′0 ( x) = 1 = 1! π′1 ( x) = ( x − x0 ) + ( x − x1 )

n+1 = 2 π′′
1 ( x) = 2 = 2!

n = 2 π2 ( x) = ( x − x0 )( x − x1 )( x − x2 )
π′1 ( x) = ( x − x0 ) + ( x − x1 )

π′2 ( x) = ( x − x0 ) ( x − x1 ) + ( x − x1 ) ( x − x2 ) + ( x − x2 ) ( x − x0 )

π′′
2 ( x) = [( x − x0 ) + ( x − x1 )] + [( x − x1 ) + ( x − x2 )] + [( x − x2 ) + ( x − x0 )]
= 6 x − 2( x0 + x1 + x2 )
n+1 = 3 π(3)
2
( x) = 6 = 3!

π(n−) 1 = n!
n
Hypothèse de récurrence :
12 Interpolation polynomiale

h i′ h¡ ¢ ( n ) i′
n+1)
πn ( x) = ( x − xn )πn−1 ( x) −→ π(n ( x) = π(n ) ( x) = ( x − xn )πn−1 ( x)
n

Or en vertu du théorème de Leibnitz, on a


¢( n ) n
C nk ( x − xn )(k) (πn−1 ( x))(n−k)
¡ P
( x − xn )πn−1 ( x) =
k=0
= ( x − xn )(πn−1 ( x))(n) + n(πn−1 ( x))(n−1)
D’après l’hypothèse de récurrence,
(πn−1 ( x)( x − xn ))(n) = ( x − x0 ) n! + n(πn−1 ( x))(n−1)
Finalement en dérivant, on a
h i′
π(n ) ( x) = n! + n(πn−1 ( x))(n) = n! + n.n! = (1 + n).n! = ( n + 1)!
n
ä

Définition 1.5.1. On appelle erreur d’interpolation de f la fonction

E n ( x) ≡ f ( x) − P n ( x) (1.5.11)

La nature de l’erreur effective commise en un point x0 , dépend du signe de E n ( x0 ). Dans le cas


où E n ( x0 ) < 0, l’erreur est dite commise par excès et si E n ( x0 ) > 0 l’erreur est commise par défaut.
Enfin lorsque le point considéré est un point d’interpolation l’erreur est évidemment nulle.

Théorème 1.5.1. Étant donnés n + 1 points x0 < x1 < . . . < xn appartenant à un intervalle [a, b] et
une fonction f ∈ C n+1 [a, b], alors pour tout x ∈ [a, b] il existe ξ x ∈ (min( x, x i ), max( x, x i )) tel que
i i

( x − x0 ) ( x − x1 ) . . . ( x − xn ) (n+1)
E n ( x) ≡ f ( x) − P n ( x) = f (ξ x ) (1.5.12)
( n + 1)!

Preuve. La formule est évidemment vraie lorsque x = x i car le premier terme E n ( x i ) est nul
ainsi que le deuxième terme. Supposons donc que x 6= x i pour tout i et considérons la fonction

f ( x) − P n ( x)
ϕn ( t) = (P n ( t) − f ( t)) + π n ( t) (1.5.13)
π n ( x)

Cette fonction, qui est définie sur l’intervalle [a, b], s’annule au moins n + 2 fois entre min( x, x i ) et
i
max( x, x i ), en x et aux points x i , a sa dérivée qui s’annule, d’après le théorème de Rolle, au moins
i
n + 1 fois. Ce même théorème montre que la dérivée seconde de ϕn s’annule au moins n fois. En
réitérant ce procédé on établit facilement l’existence d’un réel ξ x tel que ϕ(nn+1) (ξ x ) = 0.
Et on conclut en vertu de π(nn+1) ( t) = ( n + 1)! (Lemme 1.4.1) et de P n(n+1) ≡ 0. ä

Corollaire 1. (Estimation de l’erreur)


Sous les mêmes hypothèses précédentes et avec les notations
¯ ¯
M n+1 = sup ¯ f (n+1) ( x)¯ et ||E n ||∞ = sup |E n ( x)| (1.5.14)
¯ ¯
a≤ x≤ b a≤ x≤ b
Erreur d’interpolation 13

† l’erreur d’interpolation admet l’estimation générale suivante :

( b − a)n+1
||E n ||∞ ≤ M n+1
( n + 1)!

‡ l’erreur effective en un point donné x admet l’estimation suivante :

M n+1
∀ x ∈ [a, b], |E n ( x)| ≤ |( x − x0 )( x − x1 ) . . . ( x − xn )| (1.5.15)
( n + 1)!

Exemple 1.5.1. f ( x) = cos( π2 x) x 0 = 0, x 1 = −1, x 2 = 1, x 3 = 2

0 → 1
ց
1
ր ց
−1 → 0 −1
ց ր ց
0 −1/3
ր ց ր
1 → 0 −1/3
ց ր
−1
ր
2 → −1
P3 ( x) = 1 + x − x(1 + x) − 13 x(1 + x)(1 − x) = 31 ( x − 3) x2 − 1
¡ ¢

4
||E 3 ||∞ ≤ 34! M4 f (k) ( x) = ( π2 )k cos( π2 x + k π2 ) → M4 = max ¯( π2 )4 cos( π2 x + 4 π2 )¯ = ( π2 )4
¯ ¯
−1≤ x≤2
4
|E 3 ||∞ ≤ 34! × ( π2 )4 = 128
27 4
π = 20. 547
³ ´³ ´
E e f f ( 13 ) =
f ( 31 ) − P3 ( 13 ) = cos( π6 ) − 31 31 − 3 1
9 −1
= 7. 590 2 × 10−2 = 0.0759
Cette erreur est donc commise par défaut

Remarque 1.5.1. Pour terminer, signalons que le principal défaut de cette méthode d’interpola-
tion réside dans le fait que l’augmentation des nœuds d’interpolation n’est pas toujours bonne, car
la différence entre une fonction et son polynôme d’interpolation peut devenir très grande lorsqu’on
Pn ¯ ¯
considère un très grand nombre de nœuds à cause de la constante ¯ l i ( x)¯ appelée constante de
i =0
Lebesgue qui croît rapidement . C’est ce qu’on appelle le phénomène de Runge qui a été établi
avec certaines fonctions et leurs polynômes d’interpolation.
Il existe une première solution pour corriger cette anomalie, dans laquelle on montre que l’er-
reur d’interpolation atteint son minimum avec un choix judicieux des points d’interpolation. Plus
exactement ce sont les racines d’un polynôme orthogonal appelé polynôme de Tchebychev qui
permettent de minimiser cette erreur.
Une autre façon pour contrôler l’estimation de l’erreur consiste à utiliser des polynômes par mor-
ceaux avec un degré très bas. C’est la méthode des splines qui est hors-propos ici.
14 Interpolation polynomiale

Remarque 1.5.2. Signalons enfin que la réponse théorique générale au problème de l’approxi-
mation polynomiale est fournie par le théorème d’approximation de Stone-Weierstrass dans le
cas d’une fonction continue sur un intervalle [a, b] et qui montre que toute fonction f ∈ C [a, ]
peut être approchée uniformément par une suite de polynômes. Ce théorème assure l’existence
de polynômes d’approximation, mais malheureusement ne donne aucun moyen explicite pour les
construire.
Chapitre 2
Intégration numérique

L’ I ntégration numérique est un ensemble de techniques qui permettent de donner une valeur
approchée à une intégrale dont le calcul explicite est difficile, voire impossible, comme
R 2 R R
par exemple e−t , 1/ln t, sin ( t2 ), etc. Ces techniques, comme les autres techniques d’Analyse
numérique, sont d’une grande utilité dans diverses activités scientifiques et technologiques. La
valeur approchée d’une intégrale est obtenue à l’aide de formules de quadratures et en utilisant
des fonctions simples pour le calcul intégral comme les polynômes.

2.1 Formules de quadrature

Une formule de quadrature est une expression qui sert à approcher la valeur de l’intégrale
d’une fonction sur un intervalle. Cette expression est censée être simple du point de vue calcul
numérique. Dans toute la suite de ce chapitre, nous utiliserons des méthodes de quadrature à
l’aide des polynômes d’interpolation. En effet, nous savons maintenant que toute fonction peut
être approchée par un polynôme qui l’interpole en un certain nombre de points. Ceci va nous per-
mettre d’approcher l’intégrale d’une telle fonction par l’intégrale de son polynôme d’interpolation.
Il y a deux raisons pour utiliser l’interpolation polynomiale :
1) L’intégrale d’un polynôme est simple à calculer.
2) Plusieurs fonctions ne sont données que par un ensemble de points.

Considérons donc une fonction f continue sur l’intervalle [a, b], pour laquelle on désire calculer
R
approximativement la valeur de l’intégrale I ( f ) = ab f ( x) dx. En faisant le changement de variable
x = ( b − a) t + a dans cette intégrale, on peut se restreindre à l’intervalle [0, 1].
16 Intégration numérique

Ainsi on obtient
Zb Z1
f ( x) dx = ( b − a) f (( b − a) t + a) dt (2.1.1)
a 0

R1
Ce qui permet de ramener l’étude d’approximation de l’intégrale I ( f ) à 0 g( t) dt, où g ∈ C [0, 1].

Définition 2.1.1. Étant donnée une fonction g, continue sur [0, 1]. On appelle formule de quadra-
ture de g, toute expression de la forme :
M
X
J ( g) = ω j g( t j ) (2.1.2)
j =0

où 0 ≤ t 0 , < t 1 , < · · · , t M ≤ 1 sont les points d’intégration et ω0 , · · · , ωM sont des nombres réels donnés,
qu’on appelle poids de la formule de quadrature.

Remarquons d’abord que J est linéaire et ceci est très intéressant car il permet d’utiliser la
linéarité de l’intégrale.
R1
Notre objectif est d’écrire 0 g( t) dt ≃ J ( g) et par conséquent ;
Zb
f ( t) dt ≃ ( b − a) J ( f (( b − a) t + a)). (2.1.3)
a

Exemple 2.1.1. Pour g( x) = sin( x), M = 1, t 0 = 3/4, t 1 = 4/5 , ω0 = 2 et ω1 = −1/2, on a :


R
J ( g) = 2 sin(3/4) − 1/2 sin(4/5) = 1.0046 et I ( g) = 01 sin x d x = 1 − cos 1 = 0.459 70

Nous verrons ensuite qu’un choix judicieux des points d’intégration et l’utilisation des poly-
nômes d’interpolation dans les poids de la formule, sont essentiels pour avoir une valeur appro-
chée acceptable d’une intégrale.

2.2 Méthodes de quadratures usuelles

Dans la suite de ce chapitre nous allons étudier un certain nombre de méthodes parmi les plus
connues, qui permettent de déterminer les valeurs approchées de beaucoup d’intégrales et pour
lesquelles on doit d’abord chercher la valeur J ( f ) suivant le nombre de points d’intégration choisi.

2.2.1 Quadratures de type interpolation

Définition 2.2.1. On dit qu’une formule de quadrature J ( g) est de type interpolation si pour tout
© ª R
i ∈ 0, 1, · · · , M , ω i = 01 l i ( t) dt , où ( l i ( t))0≤ i≤ M est la base de Lagrange aux points t i , 0 ≤ i ≤ M .
Méthodes de quadratures usuelles 17

R1
Exemple 2.2.1. Pour M = 0, on a ω0 = 0 l 0 ( t) dt = 1 . En prenant par exemple t 0 = 3/4 ; alors il
est facile de vérifier que la base de Lagrange associée à un seul point t 0 est constituée du seul
R
polynôme constant l 0 (0) = 1. En intégrant ce polynôme, on obtient ω0 = 01 l 0 ( t) dt = 1 . Finalement,
on obtient, J ( g) = ω0 g(3/4) = g(3/4).

2.2.2 Méthode des rectangles

Commençons par la méthode la plus intuitive et la plus simple qu’on appelle méthode des
rectangles. C’est une méthode d’intégration numérique à un seul point comme dans l’exemple
b

précédent où la valeur J ( g) est égale à l’aire du rectangle qui rencontre le graphe de g en un


b

point M0 ( t 0 , g( t 0 )) et ayant pour sommets (0, 0), (1, 0), (1, g( t 0 ) et (0, g( t 0 ).

yg yg

x b
x
0 1 0 3/4 1

F IGURE 2.1 – Valeur de I ( g) F IGURE 2.2 – Valeur de J ( g)

Il y a en particulier parmi ces méthodes, les méthodes du point à gauche, celle du point à
droite et il y aussi la méthode du point milieu.

Méthode du point à gauche. Considérons une fonction g définie sur l’intervalle [0, 1] et dési-
gnons par J ( g) l’aire du rectangle de sommets A (0, g(0)), B(1, g(0)), C (1, 0) et D (0, 0). On a alors
J ( g) = g(0) et donc t 0 = 0 et ω0 = 1 . Cette formule de quadrature à un seul point est appelée
formule du point à gauche et on écrit

I ( g) ≃ J ( g) = g(0) (2.2.4)

Il est clair, d’après l’exemple précédent, que cette méthode est de type interpolation.

Méthode du point à droite. De la même manière, on peut considérer la formule de quadra-


ture J ( g) = g(1) qu’on appelle méthode du point à droite relativement au rectangle de sommets
A (1, g(1)), B(1, 0), C (0, 0) et D (0, g(1)) et qui est elle aussi une méthode de type interpolation pour
laquelle on a :
I ( g) ≃ J ( g) = g(1) (2.2.5)
18 Intégration numérique

D’une manière générale, ces formules de quadrature pour une fonction f définie sur un intervalle
quelconque [a, b], sont données par :

J ( f ) = ( b − a) f ( a) J ( f ) = ( b − a) f ( b )
(2.2.6) (2.2.7)
point à gauche point à droite

g ( t) g ( t)

g g
b
b
F IGURE 2.3 – Point à gauche F IGURE 2.4 – Point à droite

Méthode du point milieu. Cette méthode est analogue aux méthodes précédentes. Elle aussi
est de type interpolation, et utilise un seul point situé au milieu de l’intervalle, i.e. t 0 = 1/2, ω0 =
R1
0 l 0 ( t) dt = 1 et M = 0. Ici le polynôme d’interpolation P 0 ( t) = g (1/2) l 0 ( t) est la droite horizontale

passant par M0 (1/2, f (1/2)). En intégrant on a donc :

I ( g ≃ J ( g) = g(1/2) (2.2.8)

Géométriquement, J ( g) est l’aire du rectangle de sommets A (0, g(1/2)), B(1, g(1/2)), C (1, 0) et
D (0, 0).

g ( t)
b

F IGURE 2.5 – Point milieu

Cette formule de quadrature, pour une fonction f définie sur un intervalle quelconque [a, b], est
donnée par :
³a+b´
J ( f ) = ( b − a) f
2 (2.2.9)
point milieu
Méthodes de quadratures usuelles 19

Exemple 2.2.2. En considérant la fonction f ( t) = sin t dans l’intervalle [π/4, π/2] , on a J ( f ) =


(π/2 − π/4) sin(π/4) = 0.55536 pour la méthode du point à gauche, J ( f ) = (π/2 − π/4) sin(π/2) =
0.78540 pour la méthode du point à droite et J ( f ) = (π/2 − π/4) sin(3π/8) = 0.72561 pour celle du
R /2
point milieu. Les trois méthodes donnent des valeurs approchées de ππ/4 sin t dt = 0.707 11

2.2.3 Méthode des trapèzes.

Rappelons d’abord qu’un trapèze est un quadrilatère (polygone à quatre côtés) ayant deux
côtés parallèles.
b b

H H

B B

On sait que l’aire d’un trapèze ayant pour petite base b, pour grande base B et pour hauteur H
1
est égale à A = H (B + b)
2
Soit maintenant une fonction g ∈ C [0, 1], alors la méthode des trapèzes consiste à utiliser une
R
méthode de quadrature qui approche l’intégrale 01 g( t) dt par l’aire du trapèze de bases g(0), g(1)
et de hauteur 1. On a donc

Z1
1
J ( g) = ( g(0) + g(1)) ≃ g( t) dt (2.2.10)
2 0

f ( t) f ( t)
Aire sous la courbe Aire du trapèze

a b a b

F IGURE 2.6 F IGURE 2.7

On en déduit la formule de quadrature :

( b − a)
J( f ) = ( f (a) + f ( b)) (2.2.11)
2
20 Intégration numérique

Exemple 2.2.3. Considérons à nouveau la fonction sin t dans l’intervalle [π/4, π/2] et calculons sa
valeur approchée avec la méthode des trapèzes.
On a
π π
2−4 π π
J (sin t) = (sin + sin ) = 0.670 38
2 4 2
.

Proposition 2.2.1. La méthode des trapèzes est une méthode de type interpolation.

Preuve.
Si f ∈ C [a, b], alors le côté du trapèze qui joint les points (a, f (a)) et ( b, f ( b)) est la droite
Zb
( t − a)ϕ( b) − ( t − b)ϕ(a) 1
affine d’équation ϕ( t) = et donc ϕ( x) dx = ( b − a)(ϕ(a) + ϕ( b)) est l’aire
b−a a 2
du trapèze de bases ϕ(a), ϕ( b) et de hauteur ( b − a). alors en vertu de l’interpolation de Lagrange,
ϕ( t) est l’interpolant de f aux nœuds M0 (a, f (a)) et M1 ( b, f ( b))

y = ϕ( x)

b
A

b
a b x
O

F IGURE 2.8

En prenant, on a t 0 = a = 0, t 1 = b = 1 et g ∈ C [0, 1], on a :


t− t t− t
M = 1 et P1 ( t) = ϕ( t) = P1 ( t) = ( t − 0) g(1) − ( t − 1) g(0), or l 0 ( t) = t − t1 = 1 − t et l 1 ( t) = t − t0 = t,
0 1 1 0
R1 R1
Donc, ω0 = 0 l 0 ( t) dt = 1/2 et ω1 = 0 l 1 ( t) dt = 1/2. Ce qui démontre le résultat. ä

2.2.4 Méthode de Simpson 1/3

La méthode de Simpson est la méthode la plus utilisée et la plus populaire. C’est une méthode
de type interpolation qui emploie, dans sa formule de quadrature, trois points régulièrement
espacés et ayant un polynôme d’interpolation de degré inférieur ou égal à deux. C’est donc une
parabole dans le cas où les trois nœuds ne sont pas alignés. Nous allons donc prendre trois points
équidistants dans l’intervalle [0, 1] , à savoir t 0 = 0, t 1 = 1/2 et t 2 = 1. i.e. M = 2
On obtient ,
R
P2 ( t) = g(0) l 0 ( t) + g(1/2) l 1 ( t) + g(1) l 2 ( t) et alors, J ( g) = 01 P2 ( t) dt
Formules de Newton-Cotes 21

Le calcul des polynômes de Lagrange permet de déterminer les poids de la formule :


( t − 1/2) ( t − 1)
= 2 ( t − 1) ( t − 12 ) −→ ω0 = 01 l 0 ( t) dt = 61
R
l 0 ( t) =
(0 − 1/2) (0 − 1)
( t − 0) ( t − 1) 2
= 4 t (1 − t) −→ ω1 = 01 l 1 ( t) dt =
R
l 1 ( t) =
(1/2 − 0) (1/2 − 1) 3
( t − 0) ( t − 1/2) ³ ´
= 2 t t − 12 −→ ω2 = 01 l 2 ( t) dt = 61
R
l 2 ( t) =
(1 − 0) (1 − 1/2)
Ainsi pour g ∈ C [0, 1] on a
J ( g) = 1/2
3 [ g(0) + 4 g(1/2) + g(1)]

On en déduit que pour toute fonction f ∈ C [a, b]


h i
J ( f ) = (b−3a)/2 f (a) + 4 f ( a+
2
b
) + g ( b ) (2.2.12)

b
C

Bb
f ( x) f ( x)
P 2 ( x)
A b

Aire sous la courbe Aire sous le polynôme


a b a b

F IGURE 2.9 F IGURE 2.10

Remarque 2.2.1. Cette formule de Simpson à trois points est appelée 1/3. Cette terminologie est
due à la présence de cette fraction dans sa formule de quadrature. Il existe une autre méthode de
Simpson , qui utilise les quatre points d’intégration t 0 = 0, t 1 = 1/4, t 2 = 3/4 et t 3 = 1, interpolés par
un polynôme cubique et qu’on qualifie pour la même raison de 3/8.

Exemple 2.2.4.
R 2
Pour I ( f ) = 12 e t dt, on a a = 1, b = 2, a+ b
2 = 3/2,
2
J ( f ) = 1/2
3 (e + 4e
(3/2)
+ e4 ) = 15. 878
R 2
et donc 12 e t dt ≃ 15.878

2.3 Formules de Newton-Cotes

Les méthodes des trapèzes, de Simpson et du point milieu sont de type interpolation avec
des points d’intégration répartis régulièrement dans l’intervalle considéré. On les appelle des
22 Intégration numérique

méthodes d’intégration de Newton-Cotes. Ces méthodes peuvent être généralisées en augmentant


le nombre de points d’intégration, lesquels doivent être répartis régulièrement dans l’intervalle
considéré. Elles peuvent être ouvertes, dans le cas où les extrémités a et b de l’intervalle d’étude
ne font pas partie des points d’intégration comme la méthode du point milieu , et elles peuvent
être fermées dans le cas contraire, comme pour les méthodes des trapèzes et de Simpson.

Remarque 2.3.1. Par convention, les méthodes du point à droite et du point à gauche ne sont
pas des méthodes de Newton-Cotes. Elles sont utilisées dans les sommes de Riemann.

2.4 Ordre de précision d’une méthode de quadrature

Définition 2.4.1. On dit qu’une formule de quadrature J est exacte pour une fonction g si J ( g) =
R1
0 g ( t) dt. Dans le cas contraire, on dit qu’elle est inexacte pour g

Exemple 2.4.1.
2
La méthode de quadrature J ( g) = g(4/5) n’est pas exacte pour la fonction g( t) = e t car I ( g) =
R1 t2 16/25
0 e dt = 1. 462 7 et J ( g ) = g (4/5) = e = 1.8965
Alors qu’elle est exacte pour la fonction constante g( t) = 1 , puisque :
R R
I ( g) = 01 1 dt = 1 = J ( g) = 01 1 dt = g(4/5) = 1

Définition 2.4.2. On dit qu’une formule de quadrature a un ordre de précision égal à r , si elle est
exacte pour tout polynôme de Rr [ X ] et inexacte pour au moins un polynôme de degré égal à r + 1

Exemple 2.4.2. La méthode de quadrature J ( g) = g(3/4) est d’ordre zéro car pour g( t) = c, on a
J ( g) = g(3/4) = I ( g) = 01 cdt = c et pour g( t) = t, on a I ( g) = 01 tdt = 21 6= J ( g) = g(3/4) = 3/4
R R

2.4.1 Ordre des méthodes du point à gauche et du point à droite

La méthode du point à gauche est exacte pour les constantes et inexacte pour P ( x) = x.
En effet, on sait que J ( g) = g(0), donc en particulier pour un polynôme constant P ( x) = a avec
R
a ∈ R, on a J (P ) = a, or I (P ) = 01 adx = a, donc I (P ) = J (P ).
R
Par ailleurs, J ( x) = 0 6= I ( x) = 01 xdx = 1/2.
Par conséquent, l’ordre de précision de la méthode du point à gauche est égal à zéro. Le même
raisonnement montre que la méthode du point à droite a elle aussi un ordre égal à zéro
Intégration et interpolation 23

2.4.2 Ordre de la méthode du point milieu

Si P ( x) ∈ R1 [ x], alors P ( x) = ax + b, I (P ) = a/2 + b et J (P ) = P (1/2) = a/2 + b. Donc I (P ) = J (P ).


Par contre on a I ( x2 ) = 01 x2 dx = 31 6= J ( x2 ) = 14
R

En conséquence, l’ordre de la méthode du point milieu est égal à un.

2.4.3 Ordre de la méthode des trapèzes

La méthode des trapèzes est elle aussi d’ordre un. En effet, si P ( x) = ax + b, alors J (P ) =
1 R1 R1
2 (P (0) + P (1)) = a/2 + b et I (P ) = 0 P ( x) dx = 0 (ax + b) dx = a/2 + b. Donc, J (P ) = I (P ) pour tout
P ∈ R1 [ X ]. Par ailleurs, J ( x2 ) = 21 ((0)2 + (1)2 ) = 1/2 et = 01 x2 dx = 31 . Donc, I ( x2 ) 6= J ( x2 )
R

2.4.4 Ordre de la méthode de Simpson 1/3

Si P ( x) = ax3 + bx2 + cx + d , alors I (P ) =


R1
0 P ( x) = a/4 + b/3 + c/2 + d
J (P ) = 16 (P (0) + 4P f (1/2) + P (1)) = 61 ( d + 4(a/8 + b/4 + c/2 + d ) + a + b + c + d ) = a/4 + b/3 + c/2 + d
Donc, I (P ) = J (P ). Maintenant, on a 01 x4 dx = 51 et J ( x3 ) = 16 (0 + 4(1/2)4 + 1) = 24 5
R
.
Par conséquent l’ordre de la méthode de Simpson 1/3 est égal à 3

2.5 Intégration et interpolation

Rappelons que les méthodes de quadratures précédentes que nous avons vues, sont de type
R
interpolation, c’est-à-dire que dans l’intervalle [0, 1], l’intégrale 01 g( t) dt peut être approchée par
R1
0 P M ( t) dt où P M ( t) est le polynôme d’interpolation de g aux points t 0 , t 1 , · · · t M et que chaque

méthode a un certain ordre de précision. Le théorème suivant permet, dans le cas général, de
caractériser ces méthodes de quadrature avec une minoration de leurs ordres de précision.

Théorème 2.5.1. Soient t 0 < t 1 , · · · < t M des points d’intégration dans [0, 1]. Alors, la formule de
M
P
quadrature J ( g) = ω j g( t j ) est exacte pour les polynômes de degré inférieur ou égal à M si et
Rj1=0
seulement si ωk = 0 l k ( t) dt où { l k ( t), 0 ≤ k ≤ M } est la base de Lagrange aux points t k .

Cela veut dire que l’ordre de précision d’une méthode d’intégration en M + 1 points est au
moins égal à M , si et seulement si elle est de type interpolation
24 Intégration numérique

Preuve. Supposons que la formule est exacte pour tout polynôme de degré inférieur ou égal à M ,
R
alors elle est en particulier exacte pour les polynômes de Lagrange l k . On a alors J ( l k ) = 01 l k ( t) dt
Q ³ t− t i ´ M M R
ω j δk j = ωk , donc ωk = 01 l k ( t) dt
P P
avec l k ( t) = t − t , or J ( l k ) = ω j l k (t j ) =
k i
0≤ i ≤ M j =0 j =0
i 6= k
R1 P
Réciproquement, si ωk = 0 l k ( t) dt , alors pour tout P ( t) ∈ RM [ X ] on a P ( t) = kM=0 P ( t k ) l k ( t).
En intégrant, on a : 01 P ( t) dt = kM=0 P ( t k ) 01 l k ( t) dt = kM=0 ωk P ( t k ) et donc finalement on obtient,
R P R P
R1
0 P ( t) = J ( P ) ä
R1
Conséquence 2.5.1. Avec le choix ω j = 0 l j ( t) dt, une méthode de quadrature en M + 1 points a
toujours un ordre supérieur ou égal à M . En particulier, on peut en fait montrer que si les points
sont uniformément espacés, la méthode qui est donc de Newton-Cotes, est exactement d’ordre
égal à M lorsque M est impair et elle est d’ordre égal à M + 1 lorsque M est pair.
Ainsi la méthode du point milieu correspond à M = 0 qui est pair a pour ordre M + 1 = 1. De même
pour la méthode des trapèzes, on a M = 1 lequel est impair et donc son ordre est égal à M = 1.
Enfin l’ordre de la méthode de Simpson, pour laquelle M = 2, est égal M + 1 = 3.

Remarque 2.5.1. Ajoutons enfin que l’ordre maximum d’une formule de quadrature de type
interpolation à M + 1 points, est au plus égal à 2 M + 1 car il y a 2 M + 2 inconnues.

( t − t i )2 de degré égal à 2 M + 2, on a
Q
En effet en considérant le polynôme Q ( t) = M i =0 Z1
P
J (Q ) = kM=0 ωk Q ( t k ) = 0, car t k est racine de Q or I (Q ) = Q ( t) dt > 0 donc I (Q ) 6= J (Q )
−1
Par conséquent, l’ordre de telles méthodes ne peut jamais dépasser la valeur maximale 2 M + 1.

2.6 Erreur d’intégration

Dans le cas où la formule est inexacte, chacune des formules de quadratures que nous avons
vue dans les paragraphes précédents, va engendrer une erreur qu’on cherchera par la suite à
estimer selon la méthode utilisée.

Définition 2.6.1. On appelle erreur commise dans le calcul approché de I ( g) par la formule la
formule de quadrature J ( f ), la différence

E ( g) = I ( g) − J ( g) (2.6.13)

On dit que l’erreur est commise par défaut lorsque E > 0. Dans le cas contraire on dit que
l’erreur est commise par excès.

Remarque 2.6.1. Il est clair que si la formule de quadrature J est précise pour une fonction g,
alors E ( g) = 0.
Erreur d’intégration 25

2.6.1 Estimation de l’erreur des points à gauche et à droite

Avant d’énoncer les théorèmes d’estimations relatifs à chacune des méthodes de quadratures,
vues précédemment, nous allons commencer par énoncer le théorème de Peano qui permet de
calculer l’erreur commise par une large catégorie de formules de quadrature, en particulier celles
qui sont citées dans ce chapitre.

Théorème 2.6.1. Si f ∈ C 1 [a, b] et si M1 = max | f ′ ( x)|, alors


a≤ x≤ b

( b − a)2
| I ( f ) − J ( f )| ≤ M1 (2.6.14)
2

Preuve.
R R
E ( f ) = ab f ( t) dt − f (a) ( b − a) = ab [ f ( t) dt − f (a)] dt (point à gauche)
En utilisant l’expression de l’erreur d’interpolation donnée par 1.5.12 , et qui est dans ce cas
le théorème des accroissements finis dans l’intervalle [a, t] , on obtient :
R
f ( t) − P0 ( t) = f ( t) − f (a) = ( t − a) f ′ (ξ t ) avec ξ t ∈]a, t[ et donc, E ( f ) = ab ( t − a) f ′ (ξ t ) dt
Or la fonction t − a est positive dans l’intervalle [a, b], donc en appliquant le second théorème de
la moyenne (ou le théorème des valeurs intermédiaires à f ′′ ), on obtient :
2
E ( f ) = f ′ (ξ) ab ( t − a) dt = f ′ (ξ) 0b−a tdt = f ′ (ξ) (b−2a)
R R

Finalement on a ,
2 2
|E ( f )| = ¯ f ′ (ξ)¯ (b−2a) ≤ M1 (b−2a)
¯ ¯
ä

Remarque 2.6.2. Cette estimation est optimale car elle est réalisée par la fonction f ( t) = t

2
En effet, E ( f ) = I ( f ) − J ( f ) = ab tdt − ( b − a) a = (b−2a)
R
2
on a donc E ( f ) = (b−2a) M1 avec M1 = 1. Il n’y a donc pas d’autre meilleure estimation.

Terminons ce paragraphe en disant que l’estimation précédente est valable aussi pour la mé-
thode du point à droite.

2.6.2 Estimation de l’erreur des trapèzes

Théorème 2.6.2. Pour toute fonction f ∈ C 2 [a, b] , on a

( b − a)3
| I ( f ) − J ( f )| ≤ M2 (2.6.15)
12
¯ ¯
avec M2 = max ¯ f ′′ ( x)¯
a≤ x≤ b
26 Intégration numérique

Preuve.
On a pris f de classe C 2 comme dans l’erreur d’interpolation 1.5.12 où n = 1. On établit
facilement que
Rb ( b − a) 1 Rb
a f ( x) dx = ( f (a) + f ( b)) − a ( x − a) ( b − x) f ′′ ( x) dx
2 2
à l’aide de deux intégrations par parties dans l’intégrale du second terme. On en déduit en uti-
lisant le deuxième théorème de la moyenne, puisque f " est une fonction continue et ( x − a) ( b − x)
est positive, que
Rb ′′
Rb
a ( x − a) ( b − x) f ( x) dx = f "( c) a ( x − a) ( b − x) dx
Finalement,
¯ ¯ 3 3
¯ f ( x) dx − ( b − a) ( f (a) + f ( b))¯ = | f "( c)| ¯¯ b ( x − a) ( b − x) dx¯¯ = | f "( c)| ( b − a) ≤ M2 ( b − a)
¯R b ¯ ¯R ¯
¯ a 2 ¯ a
6 6
ä

2.6.3 Estimation de l’erreur du point milieu

Théorème 2.6.3. Pour toute fonction f ∈ C 2 [a, b] on a l’estimation

( b − a)3
|E ( f )| ≤ M2 (2.6.16)
24

avec M2 = max | f ′′ ( t)|


a≤ bt≤ b

Preuve. Rappelons d’abord que si f est une fonction de classe C 2 sur un intervalle I, et si x0
est un point intérieur de I, alors pour tout réel h ∈ R tel que x0 + h ∈ I, on a
2
f ( x0 + h) = f ( x0 ) + h f ′ ( x0 ) + h2 f ′′ ( x0 + θ h) , avec θ ∈]0, 1[
Cette formule est appelée formule de Taylor-Lagrange à l’ordre deux au point x0

Soit t ∈ [a, b]. En écrivant la formule de Taylor-Lagrange de f l’ordre 2 au point m = a+ b


2 , on a
pour h = t − m :
2
f ( t) = f ( m) + ( t − m) f ′ ( m) + ( t−2m) f ′′ ( c t ) avec c t = m + θ ( t − m) , 0<θ<1
En intégrant, on obtient :
Rb Rb ′
Rb 1 Rb 2 ′′
a f ( t) = f ( m) a dt + f ( m) a ( t − m) dt + 2 a ( t − m) f ( c t ) dt
on obtient d’abord, moyennant le changement de variable x = t − m,
Rb Rk
a ( t − m ) dt = − k xdx = 0 , avec k = b−
2
a

Et alors
E ( f ) = 21 ab ( t − m)2 f ′′ ( c t ) dt
R

or il est facile de remarquer que


Rb 2
Rb 2 1 3
a ( t − m) dt = 2 m ( t − m) dt = 24 ( b − a)
Erreur d’intégration 27

Finalement on a l’estimation :
|E ( f )| ≤ 12 ab ( t − m)2 ¯ f ′′ ( c t )¯ dt ≤ 22 ab ( t − m)2 dt = 24
1
¯ ¯
M2 ( b − a)3
R M R

2.6.4 Estimation de l’erreur de Simpson

Théorème 2.6.4. Si f ∈ C 4 [a, b] et si M4 est le maximum de | f (4) | sur [a, b], alors

( b − a)5
| I ( f ) − J ( f )| ≤ M4 (2.6.17)
2880

Preuve.
Si F est une primitive de f sur [a, b], alors on peut écrire :
Za µ ¶
b−a a+b
I−J= f ( t) dt − f ( a) + 4 f ( ) + f ( b)
b 6 µ 2 ¶
b−a a+b
= F ( b ) − F ( a) − f ( a) + 4 f ( ) + f ( b)
6 2
a+b b−a
En posant : m = et h = et en remarquant que m + h = b et m − h = a
2 2
on obtient,
I − J = F ( m + h) − F ( m − h) − h3 ( f ( m − h) + 4 f ( m) + f ( m + h))

Posons ensuite :
· ¸
1 h
λ= F ( m + h) − F ( m − h) − ( f ( m − h) + 4 f ( m) + f ( m + h))
h5 3
et considérons la fonction k( t) définie sur [0, h] par :
t
k( t) = F ( m + t) − F ( m − t) − ( f ( m − t) + 4 f ( m) + f ( m + t)) − λ t5
3
On remarque facilement que k est continue est dérivable sur [0, h] et que par construction on a,
k(0) = k( h) = 0. Donc d’après le théorème de Rolle, il existe un réel c 1 dans l’intervalle ]0, h[ tel que
k ′ ( c1 ) = 0

Par ailleurs, en calculant k ′ ( t) sur [0, h], on obtient :


1 t
k ′ ( t) = f ( m + t) − f ( m − t) − ( f ( m − t) + 4 f ( m) + f ( m + t))− ( f ′ ( m + t) − f ′ ( m − t)) − 5λ t4
3 3
2 2 t
= f ( m + t) + f ( m − t) − 34 f ( m)− ( f ′ ( m + t) − f ′ ( m − t)) −5λ t4
3 3 3
Il s’ensuit que k ′ (0) = 0. Comme k ′ ( c 1 ) = 0 et k ′ est dérivable., alors en appliquant à nouveau le
théorème de Rolle sur l’intervalle [0, c 1 ] , il existe un réel c 2 de ]0, c 1 [ , tel que k ′′ ( c 2 ) = 0

De même en calculant k ′′ ( t) sur [0, h] on trouve :

k ′′ ( t) = 31 f ′ ( m + t) − 31 f ′ ( m − t) − 3t ( f ′′ ( m + t) + f ′′ ( m − t)) − 20λ t3
28 Intégration numérique

Comme k ′′ (0) = k ′′ ( c 2 ) et k ′′ est dérivable, alors une troisième application du théorème de Rolle
sur l’intervalle ]0, c 2 [, permet de montrer l’existence d’un nombre réel c 3 dans l’intervalle ]0, c 2 [
tel que k(3) ( c 3 ) = 0.

En calculant toujours et de la même manière k(3) ( t) sur l’intervalle [0, h], on obtient :
t
k(3) ( t) = − ( f (3) ( m + t) − f (3) ( m − t)) − 60λ t2
3
Par suite :
c3
k(3) ( c 3 ) = − ( f (3) ( m + c 3 ) − f (3) ( m − c 3 )) − 60λ c23 = 0
3
donc
1 f (3) ( m + c 3 ) − f (3) ( m − c 3 )
λ=−
180 c3
On en déduit en appliquant le théorème des accroissements finis, dans l’intervalle [ m − c 3 , m + c 3 ],
à la fonction f 3 ( t) que
1 2 c 3 f (4) ( c 4 ) f (4) ( c 4 )
λ=− =− avec m − c 3 < c 4 < m + c 3
180 c3 90
or | f (4) ( c 4 )| ≤ M4
donc,
1
|λ| ≤ M4
90
Finalement, en revenant à l’expression de l’erreur :
h
I − J = F ( m + h) − F ( m − h) − ( f ( m − h) + 4 f ( m) + f ( m + h))
3
on a :
b − a 5 ( b − a)5 ( b − a)5
µ ¶
5 1
| I − J | = |λ h | ≤ M4 = M 4 = M4
90 2 90 × 25 2880
D’où le résultat
ä

2.7 Formule composite

En prenant J ( f ) comme valeur approchée de I ( f ), on commet une erreur grossière. Pour da-
vantage de précision, on peut être tenté d’augmenter le nombre de points d’intégration. Malheu-
reusement on s’aperçoit très vite que l’erreur devient instable. Donc au lieu de ça, on va plutôt par-
tager l’intervalle [a, b] en n parties égales à l’aide d’une subdivision régulière, x0 = a, x1 , . . . , xn = b
b−a
ayant un pas égal à h = x i+1 − x i = , et dans lesquelles on utilise la formule de quadrature
n
considérée. On obtient alors une formule dite composite qui approche mieux l’intégrale de la fonc-
Formule composite 29

tion considérée. Plus précisément on a,


Zb −1 Z x i+1
nX
f ( x) dx = f ( x) dx (2.7.18)
a i =0 x i
R
En faisant le changement de variable x = ht + x i dans chacune des intégrales xxii+1 f ( x) dx on a,
Rx R
i +1 f ( x) dx = h 1 g ( t) dt, avec, g ( t) = f ( ht + x ) , ce qui ramène l’étude à l’intervalle [0, 1].
xi 0 i i i

Par conséquent,
Zb −1 Z1
nX b−a
f ( x) dx = h g i ( t) dt g i ∈ C [0, 1], et h=
a i =0 0 n
et ces intégrales permettront d’approcher l’intégrale de f sur [a, b] qui s’écrit alors
Rb −1 Z1
nX −1
nX
a f ( x ) dx = g i ( t ) dt ≃ h J ( g i ) avec g i ( t) = f ( ht + x i )
i =0 0 i =0

Définition 2.7.1. On appelle formule composite l’expression

−1
nX b−a
L h( f ) = h J ( g i ), h= (2.7.19)
i =0 n

2.7.1 Sommes de Riemann

On a vu que la formule de quadrature du point à gauche est donnée par J ( g) = g(0) et que
R
celle du point à droite est donnée par J ( g) = g(1) . En considérant l’intégrale ab f ( t) dt et en
partageant l’intervalle [a, b] en n morceaux égaux, on a L h ( f ) = h ni=−01 f ( x i ) pour la méthode du
P
P
point à gauche et L h ( f ) = h ni=1 f ( x i ) pour celle du point à droite. Finalement ces deux formules
composites peuvent s’écrire :

−1 µ
b − a nX b−a

Sn( f ) = f a + k( ) (2.7.20)
n k=0 n
n µ ¶
b−a X b−a
Tn( f ) = f a + k( ) (2.7.21)
n k=1 n

Les sommes S n ( f ) et T n ( f ) sont des approximations de l’aire de f appelées sommes de Riemann,


respectivement à gauche et à droite.

Théorème 2.7.1. Si f ∈ C 1 [a, b] et si M1 = max | f ′ ( x)|, alors


a≤ x≤ b
µ ¶
¯ I ( f ) − L ( f )¯ ≤ M1 b − a h
¯ ¯
h (2.7.22)
2

Preuve. [Point à gauche]


−1
NP −1 R
NP
x i +1
Lh = h f ( x i ) et I ( f ) = xi f ( t) dt
i =0 i =0
30 Intégration numérique

¯ ´¯¯ NP
¯ ¯ ¯ N −1 ³Rx −1 ¯¯R
x i +1
¯
¯ I ( f ) − L ( f )¯ = ¯ P i +1 f ( t) dt − h f ( x ) ¯ ≤
i f ( t ) dt − h f ( x i )
¯
h ¯ xi ¯ ¯ xi ¯
i =0 i =0 £ ¤
En utilisant la majoration d’erreur dans la formule de quadrature dans chaque x i , x i+1 on a
¡ ¢2
¯R
¯ x i +1
¯ ¯R
¯ ¯ x i +1 ¡ ¢ ¯ x i+1 − x i
¯ x i f ( t) dt − h f ( x i )¯ = ¯ x i f ( t) dt − x i+1 − x i f ( x i )¯ ≤ M1
¯
2
On en déduit en faisant la somme des erreurs :
¡ ¢2 ¡ ¢
NP −1 ¯¯R ¯ NP −1 x i+1 − x i NP −1 h x i+1 − x i
x i +1
¯ x i f ( t) dt − h f ( x i )¯ ≤
¯
M1 = M1
i =0 i =0 2 i =0 2
N
h P − 1 ¡ ¢ ( b − a) h
= M1 x i+1 − x i = M1
2 i=0 2
Finalement on obtient,
¯ I ( f ) − L ( f )¯ ≤ M1 ( b − a) h
¯ ¯
h ä
2

2.7.2 Formule composite du point milieu

−1
nX ³x +x ´
i i +1
L h( f ) = h f (2.7.23)
i =0 2

Théorème 2.7.2. Pour toute fonction f ∈ C 2 [a, b] on a l’estimation

¯ I ( f ) − L ( f )¯ ≤ M2 ( b − a) h2
¯ ¯
h (2.7.24)
24

avec M2 = max | f ′′ ( t)|


a≤ bt≤ b

Preuve. On a ¯ ¯
¯ ¯ ¯¯nX −1 R nX −1 ¯ x i + x i+1
¯ I ( f ) − L ( f )¯ = ¯ x i +1
( ) ( )¯, avec m i =
¯
h x f x dx − h f m i
¯ i=0 i
i =0
¯ 2
Alors, et compte tenu de la majoration de l’erreur de quadrature on a
¯R
¯ x i +1
¯ ¯R
¯ ¯ x
¯ ( x i+1 − x i )3
¯ x i f ( x) dx − h f ( m i )¯ = ¯ x ii+1 f ( x) dx − ( x i+1 − x i ) f ( m i )¯ ≤ M2
¯
24
En faisant la somme, on obtient
nX −1 ¯R nX −1 nX −1 ( x
i +1 − x i ) 2
¯
¯ x i +1
¯ x i f ( x) dx − h f ( m i )¯ ≤ M2
¯
= M2 h
i =0 i =02 i =02 24
h2 nX−1 b−a 2
= M2 ( x i+1 − x i ) = M2 h ä
24 i=02 24

Exemple 2.7.1.
R1 x
f ( x) = e x , I ( f ) = 0 e dx = e − 1 = 1. 718 3
1 1 3
J ( f ) = (1 − 0) e 2 = 1. 648 7 , n = 2 −→ h = 1−0 1 4
2 −→ L h ( f ) = 2 ( e + e ) = 1. 700 5
4
Formule composite 31

2.7.3 Formule composite des trapèzes

Considérons maintenant une fonction f continue sur l’intervalle [a, b], alors la formule com-
posite associée à la méthode des trapèzes est donnée par l’expression

−1 ¡
h nX ¢
L h( f ) = f ( x i ) + f ( x i+1 ) (2.7.25)
2 k=0

Par conséquent, on a
Zb −1 ¡
h nX ¢
f ( x) dx ≃ f ( x i ) + f ( x i+1 )
a 2 k=0

Théorème 2.7.3. Pour toute fonction f ∈ C 2 [a, b] et pour toute subdivision régulière x0 , x1 , . . . xn
de [a, b] ayant un pas égal h, on a

¯ I ( f ) − L ( f )¯ ≤ M2 ( b − a) h2
¯ ¯
h (2.7.26)
12
¯ ¯
avec M2 = max ¯ f ′′ ( x)¯
a≤ x≤ b

Preuve. D’après la majoration de l’erreur de quadrature, on a dans chaque intervalle [ x i , x i+1 ]


¯Z x
( ) ( )
¯ 3
¯ ≤ M2 ( x i+1 − x i )
¯ i +1 f x i + f x i +1 ¯
¯ f ( x ) dx − ( x i +1 − x i )
¯
xi 2 ¯ 12

en faisant la somme sur tous les sous-intervalles et compte tenu de


b − a nX −1 nX −1 ¡ ¢
h = x i+1 − x i = , ( x i+1 − x i ) = b − a et de L h = h2 f ( x i ) + f ( x i+1 ) ,
n i =0 i =0
on a
n fois
z }| {
¶3 ¶3
−1 b−a 3 b−a 3 b−a 2
nX µ µ µ ¶ µ ¶ µ ¶
3 b − a b − a
( x i+1 − x i ) = +··· =n =n = ( b − a) = ( b − a) h2
i =0 n n n n n
et donc
¯L ( f ) − I ( f )¯ ≤ M2 ( b − a) h2
¯ ¯
h
12
D’où le résultat. ä

Exemple 2.7.2. Pour f ( t) = e− t , n = 10, et a = 2, b = 7


on a, h = 710
−2
= 21 et x i = 2 + ih = 2 + 2i et donc
R7 − t
2 e dt Approximate integral (trapezoid rule) is
9 i i +1 9 1
L h = 14 ( ( e−2− 2 + e−2− 2 )) = 41 e−2 + 41 e−7 + 12 e− 2 i−2
P P
i =0 i =1
= 0.137 21
32 Intégration numérique

Exemple 2.7.3. Trouvons, à l’aide de la méthode des trapèzes, une valeur approchée de
Z1
1
x2 dx pour n = 4. D’abord, la valeur exacte de cette intégrale est I = = 0, 25, ensuite L h ( f ) =
P03 1 2 1 3
i =1 16
i + 8 = . 34375
R
f ( x) = e , I ( f ) = 01 e x dx = e − 1 = 1. 718 3
x

J ( f ) = 01 e x dx = 12 ( e + 1) = 1. 859 1
R
h 1 1
i
n = 2 −→ h = 1− 2
0
−→ L h ( f ) = 1
4 (1 + e 2 ) + ( e 2 + e ) = 1. 753 9

2.7.4 Formule composite de Simpson 1/3

La particularité de la méthode composite relative à cette méthode, est qu’elle consiste à di-
viser l’intervalle [a, b] en un nombre pair de morceaux de même longueur. On prend alors une
b−a
subdivision régulière x0 = a < x1 < x2 < · · · < xn = b de pas égal à h = , avec n un entier pair
£n ¤
non nul et on utilise la formule de quadrature dans chaque intervalle x2 i , x2 i+2 de longueur 2 h.
On obtient alors
h n/2
X−1 £ ¤
L h( f ) = L h = f ( x2 i ) + 4 f ( x2 i+1 ) + f ( x2 i+2 ) , n ∈ 2N∗ (2.7.27)
3 i=0
Alors et compte tenu de , x0 = a , . . . x i = a + ih , · · · xn = a + nh = b
on a
n/2
P−1
L h = h3 [ f (a + 2 ih) + 4 f (a + (2 i + 1) h) + f (a + (2 i + 2) h)]
i =0
Remarque 2.7.1. Rappelons comme on l’a dit auparavant, que cette méthode est appelée mé-
thode de Simpson 1/3 à cause du facteur 1/3 dans sa formule composite. Cette appellation est
utilisée pour la distinguer d’une autre méthode à quatre points qu’on désigne par Simpson 3/8.

Exemple 2.7.4. pour n = 10, on a


R6 t
2 e dt Approximate
·
integral (Simpson’s rule) is
¸
2 P 4
2+ 25 ×2 i 2+ 25 ×(2 i +1) 2+ 25 ×(2 i +2)
(e + 4e +e )
15 i=0
4 5
2 2 2 6 4 P 45 i +2 8 P 54 i + 58
= 15 e + 15 e + 15 e + 15 e = 396. 10
i =1 i =1
R6
Exemple 2.7.5. I = 1 sin x dx = cos 1 − cos 6 = −0.419 87 exact value (Maple)

6−1 1
n = 10 −→ h = b− a
n = 10 = 2
Composite formula
L h ( f ) = 1/2 3 1/2 5 1/2 7
3 (sin 1 + 4 sin 2 + sin 2) + 3 (sin 2 + 4 sin 2 + sin 3) + 3 (sin 3 + 4 sin 2 + sin 4)
+ 1/2 9 1/2 11
3 (sin 4 + 4 sin 2 + sin 5) + 3 (sin 5 + 4 sin 2 + sin 6) = −0.420 02
R6
I= 1 sin x dx Approximate integral (Simpson’s rule) is :−0.420 02
Formule composite 33

Théorème 2.7.4. Si f ∈ C 4 [a, b] et si M4 est le maximum de | f 4 | sur [a, b], alors

b−a 4
| I ( f ) − L h ( f )| ≤ h M4 (2.7.28)
180

Preuve.
Rappelons que
h i
−a)5 (4)
= − (b2880
Rb b−a a+ b
a f ( t ) dt − 6 f ( a ) + 4 f ( 2 ) + f ( b ) f (ζ)

on a donc,
¯ ¯ ¯R ¯ ¯¯n/2−1 R µ
n/2
P−1 ¡
¶¯
¢ ¯
¯E ( f )¯ = ¯¯ b f ( x) dx − L ( f )¯¯ = ¯ P x2 i + 2 h
f ( x) dx − 3 f ( x2 i ) + 4 f ( x2 i+1 ) + f x2 i+2 ¯¯
h a h ¯ x2 i
i =0 i =0
et alors
¯ ¯ n/2−1 ¯R ¡ ¡ ¢¢¯
¯E ( f )¯ ≤ P ¯¯ x2 i+2 f ( x) dx − h f ( x2 i ) + 4 f ( x2 i+1 ) + f x2 i+1 ¯¯
h x2 i 3
i =0
or
¡ ¢5
¯R
¯ x2 i + 2 h¡ ¡ ¢¢¯¯ x2 i+2 − x2 i
¯ x2 i f ( x) dx − 3 f ( x2 i ) + 4 f ( x2 i+1 ) + f x2 i+2 ¯ ≤ M4
2880
Donc,
−1 x2 i +2 − x2 i 5
¡ ¢
¯ ¯ n/2P
¯E ( f )¯ ≤ M4
h
i =0 2880
et comme 2 h = x2 i+2 − x2 i
alors
n/2
P−1 ¡ ¢5 n/2
P−1 ¡
= (2 h)4 x2 i+2 − x2 i = 24 × h4 ( b − a)
¢
x2 i+2 − x2 i
i =0 i =0
Donc,

¯E ( f )¯ ≤ M4 ( b − a) h4
¯ ¯
h ä
180
Bibliographie

[1] R. Burden and J. Faires. Numerical Analysis. Available Titles CengageNOW Series. Cengage
Learning, 2004.

[2] A. Fortin. Analyse numérique pour ingénieurs. Presses internationales Polytechnique, 2011.

[3] J. Rappaz and M. Picasso. Introduction à l’analyse numérique. Cahiers mathématiques de


l’EPFL. Presses polytechniques et universitaires romandes, 1998.

[4] J.E. Rombaldi. Interpolation et approximation : analyse pour l’agrégation. Vuibert, 2005.

[5] M. Sibony and J.C. Mardon. Analyse numérique : Approximations et équations différentielles.
Actualités scientifiques et industrielles. Hermann, 1982.

Vous aimerez peut-être aussi