Vous êtes sur la page 1sur 75

Analyse Numérique Non Linéaire

2016–2017
TABLE DES MATIÈRES

TABLE DES MATIÈRES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i

CHAPITRE 1: RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS NON


LINÉAIRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 La méthode des dichotomies . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 La méthode de Regula-Falsi ou de la fausse position . . . . . . . . . . . . . 3
1.4 La méthode des approximations successives . . . . . . . . . . . . . . . . . . 8
1.5 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 La méthode de la sécante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Résolution d’un système non linéaire . . . . . . . . . . . . . . . . . . . . . 16
1.7.1 Méthode des approximations successives . . . . . . . . . . . . . . . 16
1.7.2 La méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . 19

CHAPITRE 2: INTERPOLATION POLYNÔMIALE . . . . . . . . . . . 21


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Interpolation polynômiale: forme de Lagrange . . . . . . . . . . . . . . . . 21
2.3 Forme de Newton: différences divisées . . . . . . . . . . . . . . . . . . . . . 23
2.4 Interpolation en des points équidistants: différences finies . . . . . . . . . . 29
2.5 Interpolation d’Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6 Erreur d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

CHAPITRE 3: INTÉGRATION NUMÉRIQUE . . . . . . . . . . . . . . . 37


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Formules de Newton-Cotes fermées . . . . . . . . . . . . . . . . . . . . . . 40
3.2.1 Formules simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2 Etude de l’erreur dans les formules de Newton-Cotes . . . . . . . . 43
3.3 Formules de Newton-Cotes composées . . . . . . . . . . . . . . . . . . . . . 47
3.4 Formule de quadrature de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4.1 Polynômes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . 50

CHAPITRE 4: RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS DIFFÉRENTIELLES


ORDINAIRES . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.1 Principe des méthodes (ou schémas) numériques . . . . . . . . . . . 61
4.1.2 La méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2 Etude générale des méthodes à un pas . . . . . . . . . . . . . . . . . . . . 62
4.3 Exemples de schémas à un pas . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3.1 Méthodes du développement à un pas . . . . . . . . . . . . . . . . . 70
4.3.2 Méthodes de Runge et Kutta (RK) . . . . . . . . . . . . . . . . . . 71
CHAPITRE 1

RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS NON LINÉAIRES

1.1 Introduction

La recherche des zéros d’une fonction donnée f réelle ou complexe est un problème
classique qui a attiré l’attention des mathématiciens depuis plusieurs siècles. En général,
il n’existe pas de formules donnant la valeur exacte de ces zéros, ou bien ces formules sont
trop compliquées.
On a alors recours à des méthodes numériques d’approximation des solutions. Ces
méthodes sont nombreuses et variées et sont généralement itératives: partant d’une esti-
mation initiale x0 , on construit une suite numérique x1 , x2 , . . . , xn , . . ., où xi est calculé à
partir de xi−1 , qui converge vers une solution α de l’équation f (x) = 0.
Dans ce chapitre, nous étudierons quelques unes de ces méthodes. Nous tacherons,
pour chaque méthode, de:

1. Décrire l’algorithme de construction de la suite (xn );

2. Chercher sous quelles conditions, la suite(xn ) converge vers un zéro α de f , ainsi


que la rapidité de cette convergence.

En liaison avec cette notion de rapidité de la convergence, on donne la définition suivante:

Définition 1.1.1 On dira qu’une méthode itérative est d’ordre au moins p, pour la recherche
d’un zéro α de f , si la suite (xn ) converge vers α et si

|xn+1 − α| = O(|xn − α|p ),

|xn+1 − α|
i.e., reste borné pour n assez grand.
|xn − α|p
|xn+1 − α|
Si lim p = β > 0, on dit que la méthode est d’ordre exactement p.
n→∞ |xn − α|

1.2 La méthode des dichotomies

Cette méthode dérive du théorème des valeurs intermédiaires:

Théorème 1.2.1 Soit f une fonction définie et continue sur un segment [a, b] de R. Si
f (a) · f (b) < 0, alors il existe α ∈ [a, b] tel que f (α) = 0.

Démonstration: (Dichotomies successives)


(a0 + b0 )
Posons a0 = a, b0 = b et x0 = (x0 est le milieu du segment [a0 , b0 ]).
2
On a nécessairement l’une des trois conditions suivantes:

• f (x0 ) = 0 et alors α = x0 est la solution cherchée;


Chapitre 1. Résolution numérique des équations non linéaires

• f (a0 ) · f (x0 ) < 0 et on posera alors [a1 , b1 ] = [a0 , x0 ];

• f (b0 ) · f (x0 ) < 0 et on posera alors [a1 , b1 ] = [x0 , b0 ].

En réitérant le même raisonnement pour [a1 , b1 ] , . . ., etc, on aura:

(an + bn )
• ou bien il existe n ∈ N tel que f (xn ) = 0, avec xn = et alors α = xn est
2
la solution cherchée;

• ou bien on construit une suite de segments emboités [an , bn ] et une suite (xn ) telle
que pour tout n ∈ N:

[a0 , b0 ] ⊃ [a1 , b1 ] ⊃ [a2 , b2 ] ⊃ · · · ⊃ [an , bn ] ⊃ [an+1 , bn+1 ] ⊃ · · ·

et
(an + bn )
xn = .
2
Pour tout n ∈ N, les suites (an ) et (bn ) vérifient:

(b0 − a0 )
b n − an = ,
2n
et
f (an ) · f (bn ) < 0. (1.1)
Il existe donc α tel que
n=∞
{α} = ∩n=1 [an , bn ] ⊂ ]a, b[ .

On a alors:
lim an = lim bn = lim xn = α.
n→+∞ n→+∞ n→+∞

D’après (1.1) et puisque la fonction f est continue, on aura

lim f (an ) · f (bn ) = lim f (an ) · lim f (bn ) = f (α)2 ≤ 0.


n→+∞ n→+∞ n→+∞

Donc f (α) = 0.

Remarque 1.2.1 L’intervalle initial [a0 , b0 ], avec la condition f (a0 ) · f (b0 ) < 0, contient
un nombre impair de solutions de l’équation f (x) = 0. Ce nombre diminue d’une itération
à une autre jusqu’à 1.

2
1.3 La méthode de Regula-Falsi ou de la fausse position

L’algorithme de cette méthode s’écrit:

Algorithme 1.1
On choisit deux réels a0 et b0 tels que f (a0 ) · f (b0 ) < 0, un réel  > 0 assez petit et
un nombre maximum d’itérations N max.
Pour n = 0, . . . , N max faire:

(a + bn )
 xn = n

 2 ( (
an+1 = an an+1 = xn

 Si f (an ) · f (xn ) < 0 alors

sinon
 bn+1 = xn bn+1 = bn
Si |f (xn )| ≤  ou |xn − an | ≤  on s’arrête.

Dans cet algorithme:

• f désigne une fonction numérique donnée, définie et continue sur le segment [a0 , b0 ],

•  désigne l’erreur absolue tolérée sur la valeur approchée de la solution xn de


l’équation f (x) = 0.

Remarque 1.2.2 D’après la démonstration du Théorème 1.1, la méthode des dichotomies


est toujours convergente. Mais cette convergence est en général assez lente. En effet, pour
être sûr d’obtenir une approximation d’une solution α avec une erreur absolue inférieure
à , le nombre d’itérations nécessaires n vérifie:
b 0 − a0
(n + 1) log 2 ≥ log ,

puisque
b n − an 1
|xn − α| ≤ = n (b0 − a0 ).
2 2
−5
En particulier, si b0 − a0 = 1 et  = 10 on a n = 5.

1.3 La méthode de Regula-Falsi ou de la fausse position

Cette méthode ne diffère de la précédente que par le choix de xn à chaque itération.


Au lieu de prendre le milieu du segment [an , bn ], on choisit l’abscisse du point d’intersection
avec l’axe des abscisses, de la corde joignant les deux points de la courbe de f d’abscisses
respectives an et bn . Sachant que l’équation de la droite qui passe par les deux points
(an , f (an )) et (bn , f (bn )) est

(x − an )(f (bn ) − f (an ))


y − f (an ) = ,
b n − an

3
Chapitre 1. Résolution numérique des équations non linéaires

En prenant y = 0 et x = xn on obtient:

an f (bn ) − bn f (an )
xn = . (1.2)
f (bn ) − f (an )

Alors on a:
(xn − an ) f (an )
= , (1.3)
b n − an f (an ) − f (bn )
ou encore
(xn − an )(f (bn ) − f (an ))
f (an ) + = 0. (1.4)
b n − an
On montre que xn ∈ ]an , bn [. En effet, comme

f (an ) · f (bn ) < 0, (1.5)

on peut avoir f (an ) < 0 et donc f (bn ) > 0 ou bien f (an ) > 0 et f (bn ) < 0.
Choisissons par exemple le cas où f (an ) < 0 et donc f (bn ) > 0. D’où f (an ) et f (an )−
f (an )
f (bn ) sont de même signe et donc ≥ 0 et par suite, puisqe bn − an ≥ 0, de
f (an ) − f (bn )
f (an )
(1.3) on tire que xn ≥ an . De même f (an ) ≤ f (an ) − f (bn ) et donc 0 ≤ ≤1
f (an ) − f (bn )
xn− an
et de (1.3) on tire que 0 ≤ ≤ 1 et donc xn ≤ bn .
bn − an
L’algorithme de la méthode de Regula-Falsi s’écrit alors:

Algorithme 1.2
On choisit deux réels a0 et b0 tels que f (a0 ) · f (b0 ) < 0, un réel  > 0 assez petit et
un nombre maximum d’itérations N max.

Pour n = 0, . . . , N max faire:
 xn = an f (bn ) − bn f (an )


 f (bn ) − f (an ) ( (
 an+1 = an an+1 = xn
 Si f (an ) · f (xn ) < 0 alors sinon

 bn+1 = xn bn+1 = bn
Si |f (xn )| ≤  ou |xn − an | ≤  on s’arrête.

Remarque 1.3.1 Dans le but d’étudier la convergence de la méthode, remarquons d’abord


que, d’après la construction des suites (an ), (bn ) et (xn ), on a:
1. La suite (an ) est croissante et majorée par b0 et la suite (bn ) est décroissante minorée
par a0 et pour tout n ∈ N on a:

a0 ≤ · · · ≤ an ≤ xn ≤ bn ≤ · · · ≤ b0 .

Les suites (an ) et (bn ) sont donc convergentes. Posons A = lim an et B =


n→+∞

4
1.3 La méthode de Regula-Falsi ou de la fausse position

lim bn .
n→+∞

2. Il existe:
• ou bien une sous-suite de la suite (xn ) et une sous-suite de la suite (an ) qui
coincident.
• ou bien une sous-suite de la suite (xn ) et une sous-suite de la suite (bn ) qui
coincident.
Puisque ∀n ∈ N, xn = an+1 ou bien xn = bn+1 . Ceci entraine que, dans le cas où la
suite (xn ) converge vers L, on a nécessairement L = A ou L = B.

Théorème 1.3.1 Soit f : [a0 , b0 ] −→ R une fonction définie et continue telle que f (a0 ) ·
f (b0 ) < 0 et supposons que f admet un zéro unique α dans [a0 , b0 ] (i.e., f (α) = 0). Alors
la suite (xn ) définie dans l’algorithme 1.2 converge vers α.

Démonstration: D’après la remarque 1.3.1, les suites (an ) et (bn ) sont convergentes et
convergent respectivement vers A et B. D’après (1.5) et la continuité de f , on obtient:

f (A) · f (B) ≤ 0. (1.6)

Deux cas peuvent se présenter:


f (A) = f (B): D’après (1.6) f (A)2 = f (B)2 ≤ 0 et donc f (A) = f (B) = 0. Donc les réels
A, B sont des zéros de la fonction f , et comme par hypothèse la fonction f admet une
seule racine α dans [a0 , b0 ], alors A = B = α. Les suites (an ) et (bn ) sont donc adjacentes
et puisque elles encadrent la suite (xn ) celle-ci converge vers la même limite α.
f (A) 6= f (B): D’après (1.2) la suite (xn ) converge vers une limite L qui vérifie puisque f
est continue,
Af (B) − Bf (A)
L= . (1.7)
f (B) − f (A)
Or, compte tenu de la remarque 1.3.1, la limite L est égale à A ou à B. Et de l’égalité
(1.7) on tire:
• Si L = A (alors L 6= B) on obtient:

Lf (B) − Bf (L)
L= ,
f (B) − f (L)

d’où: −Lf (L) = −Bf (L) et comme L 6= B alors f (L) = 0. Donc L est un zéro de
la fonction f et par suite L = α.
• Si L = B (alors L 6= A) on obtient:

Af (L) − Lf (A)
L= ,
f (L) − f (A)

d’où Lf (L) = Af (L) et comme L 6= A; ceci entraine f (L) = 0. Donc L est un zéro
de la fonction f et par suite L = α.

5
Chapitre 1. Résolution numérique des équations non linéaires

Théorème 1.3.2 (Ordre de la méthode de Regula-Falsi)


Soit f : [a0 , b0 ] −→ R une fonction définie et continue telle que f (a0 ) · f (b0 ) < 0 et
supposons que f admet un zéro unique α dans [a0 , b0 ] (i.e., f (α) = 0). Si f est deux fois
dérivables sur [a0 , b0 ] et est telle que f 00 ≥ 0 (ou bien f 00 ≤ 0) sur ]a0 , b0 [, alors il existe
c ∈ R telle que
|xn+1 − α|
lim = c.
n→+∞ |xn − α|

La méthode de Regula-Falsi est à convergence linéaire (d’ordre 1) dans ce cas.

Démonstration: Pour la démonstration du théorème on aura besoin du:


Lemme 1.3.1 Soit f : [a, b] → R une fonction définie et continue sur [a, b], deux fois
dérivables sur ]a, b[ et soit c ∈ ]a, b[. Alors il existe un réel σ ∈ ]a, b[ tel que:
00
f (σ)
(b − a)(f (c) − f (a)) − (c − a)(f (b) − f (a)) = (c − a)(c − b)(b − a) .
2
Démonstration du lemme 1.3.1
Soit h une fonction définie sur [a, b] par:

h(x) = (b − a)(f (x) − f (a)) − (x − a)(f (b) − f (a)) − M (x − a)(x − b)(b − a),

où M est un réel choisi tel que h(c) = 0, ce qui donne

(b − a)(f (c) − f (a)) − (c − a)(f (b) − f (a))


M= .
(c − a)(c − b)(b − a)

On a alors: h(a) = h(b) = h(c) = 0 et h est deux fois dérivable sur ]a, b[.
D’après le lemme de Rolle:
• Il existe λ1 ∈ ]a, c[ tel que h(c) − h(a) = h0 (λ1 )(c − a), d’où h0 (λ1 ) = 0;
• Il existe λ2 ∈ ]c, b[ tel que h(b) − h(c) = h0 (λ2 )(b − c), d’où h0 (λ2 ) = 0;
00 00
• Il existe σ ∈ ]λ1 , λ2 [ tel que h0 (λ2 ) − h0 (λ1 ) = h (σ)(λ2 − λ1 ) d’où h (σ) = 0.
00 00 00
Comme h (x) = (b − a)(f (x) − 2M ) on tire que f (σ) = 2M et donc
00
f (σ)
(b − a)(f (c) − f (a)) − (c − a)(f (b) − f (a)) = (c − a)(c − b)(b − a) .
2
Démonstration du théorème 1.3.2
00
Supposons, pour fixer les idées que f (a0 ) < 0 < f (b0 ) et que f ≥ 0 sur ]a0 , b0 [. Comme
xn ∈ ]an , bn [ on peut appliquer le lemme 1.1 en prenant c = xn , a = an et b = bn . Il existe
alors σn ∈ ]an , bn [ tel que:

f 00 (σn )
(bn − an )(f (xn ) − f (an )) − (xn − an )(f (bn ) − f (an )) = (xn − an )(xn − bn )(bn − an ) .
2

6
1.3 La méthode de Regula-Falsi ou de la fausse position

Et puisque d’après (1.4) on a

(xn − an )(f (bn ) − f (an ))


f (an ) + = 0,
b n − an
on obtient:
f 00 (σn )
f (xn ) = (xn − an )(xn − bn ) .
2
On conclut donc que pour tout n dans N, f (xn ) ≤ 0 et comme f (b0 ) > 0 l’algorithme 1.2
nous donne pour passer de l’itération n à l’itération n + 1: bn+1 = bn et par suite bn+1 = b0
et an+1 = xn et
an+1 f (b0 ) − b0 f (an+1 )
xn+1 = .
f (b0 ) − f (an+1 )
D’où, en remplaçant an+1 par xn , on obtient xn+1 = g(xn ) où g est une fonction définie
par
xf (b0 ) − b0 f (x)
g(x) = .
f (b0 ) − f (x)
On constate que la fonction g est une fonction continue et deux fois dérivables sur ]a0 , b0 [
et par passage à la limite dans l’équation xn+1 = g(xn ) on aura α = g(α) où α est le zéro
de f .
En écrivant xn+1 − α = g(xn ) − g(α) et en appliquant le théorème des accroissements finis
à la fonction g, il existe cn ∈ ]xn , α[ ou ]α, xn [ tel que:

xn+1 − α = g(xn ) − g(α) = (xn − α)g 0 (cn ),

|xn+1 − α|
d’où = |g 0 (cn )| et par passage à la limite, puisque g 0 est continue, on a:
|xn − α|
0

|xn+1 − α| f (α)
= |g 0 (α)| = 1 + (α − b0 )

lim .
n→+∞ |xn − α| f (b0 )

Notons que la fonction f et sa dérivée seconde sont de signes opposés à l’intérieur de


]a0 , b0 [ et donc l’une des deux suites (an ), (bn ) de l’algorithme 1.2 est constante, et on
obtient:

7
Chapitre 1. Résolution numérique des équations non linéaires

Algorithme 1.3
On choisit deux réels a0 et b0 tels que f (a0 ) · f (b0 ) < 0, un réel  > 0 assez petit et
un nombre maximum d’itérations N max.

x0 = a0 , c0 = b0
c0 f (x0 ) − x0 f (c0 )
x1 =
f (x0 ) − f (c0 )
( (
c 0 = b0 c 0 = a0
Si f (x1 ) · f (c0 ) < 0 alors sinon
x 0 = a0 x0 = b 0

Pour n = 1, . . . , N max faire:
 xn+1 = c0 f (xn ) − xn f (c0 )

 f (xn ) − f (c0 )
Si f (xn+1 ) = 0 ou |xn+1 − xn | ≤  on s’arrête.

1.4 La méthode des approximations successives

Cette méthode consiste à faire d’abord des opérations algébriques sur l’équation
générale f (x) = 0 pour l’écrire sous la forme x = g(x) où g est une fonction à déterminer.
Par exemple, si f (x) = x3 + x − 1, on peut choisir:
1 1
g(x) = 1 − x3 , g(x) = , g(x) = (1 − x) 3 ,
1 + x2
ou plus généralement:
f (x)
g(x) = x + ,
h2 (x)
où h2 est une fonction qui ne s’annule pas.
La recherche d’une solution de l’équation f (x) = 0 équivaut alors à la recherche d’un
point fixe de g, i.e., α tel que g(α) = α.
La méthode des approximations successives consiste à construire, en partant d’une
estimation initiale x0 de la solution α, la suite (xn ) définie par

xn+1 = g(xn ).

On voit alors que si g est continue et lorsque cette suite est bien définie et convergente,
sa limite est un point fixe de g.
L’algorithme de la méthode des approximations successives est le suivant:

8
1.4 La méthode des approximations successives

Algorithme 1.4
On choisit un réel x0 , un réel  > 0 assez petit et un nombre maximum d’itérations
N max.

Pour n = 0, . . . , N max faire:
 xn+1 = g(xn )
Si |xn+1 − xn | ≤  on s’arrête.

Cet algorithme prévoit un nombre d’itérations à ne pas dépasser (N max), fixé à priori
à l’avance, car, comme nous allons le voir, la convergence de la suite n’est pas toujours
assurée.
Théorème 1.4.1 Soit g : [a, b] → R telle que g([a, b]) ⊂ [a, b] et g est une fonction
contractante, i.e., il existe λ ∈ [0, 1[ tel que: |g(x) − g(y)| ≤ λ |x − y|, ∀x, y ∈ [a, b].
Alors, pour tout choix de x0 ∈ [a, b], la suite (xn ) définie par: xn+1 = g(xn ) converge vers
l’unique point fixe α de g.
Démonstration:
1. Existence du point fixe: Posons h(x) = g(x)−x, alors h est une fonction continue
sur [a, b] et h(a) · h(b) ≤ 0 et d’après le théorème 1.2.1 il existe α ∈ [a, b] tel que
h(α) = 0 et donc g(α) = α.
2. Unicité du point fixe: Supposons qu’il existe deux points fixes différents α et β
de g, alors g(α) = α et g(β) = β. De plus, |α − β| = |g(α) − g(β)| ≤ λ |α − β|.
Comme λ ∈ [0, 1[ alors on a une contradiction d’où α = β.
3. Convergence de la suite (xn ): Pour étudier la convergence de la suite on va
utiliser le critère de Cauchy. Puisque g est contractante on a:

|xn − xn−1 | = |g(xn−1 ) − g(xn−2 )| ≤ λ |xn−1 − xn−2 | ≤ · · · ≤ λn−1 |x1 − x0 | .

D’où pour tout n et m entiers (m ≥ n):

1 − λm−n
|xm − xn | ≤ (λm−1 + λm−2 + · · · + λn ) |x1 − x0 | = λn |x1 − x0 | . (1.8)
1−λ
Puisque λ ∈ [0, 1[, on obtient lim |xm − xn | = 0.
n,m→+∞

On conclut que la suite (xn ) est de Cauchy dans [a, b] donc elle est convergente. Soit
L sa limite. En passant à la limite dans xn+1 = g(xn ) et puisque g est continue, L
vérifie g(L) = L, on obtient donc L = α. De plus, si on fixe n et on fait tendre m
vers l’infini dans (1.8) on obtient:
1
|xn − α| ≤ λn |x1 − x0 | .
1−λ

9
Chapitre 1. Résolution numérique des équations non linéaires

On constate que la convergence est d’autant plus rapide que λ est proche de zéro.

Corollaire 1.4.1 Le résultat du théorème 1.4.1 reste valable si l’on remplace l’hypothèse
“g contractante” par: g de classe C 1 sur [a, b] et |g 0 (x)| < 1, ∀x ∈ [a, b].

Démonstration: Puisque g est de classe C 1 , la fonction g 0 est continue sur [a, b] et de


même pour la fonction |g 0 | et donc atteint son maximum sur [a, b]. Soit λ = max |g 0 (x)|.
x∈[a,b]
D’après l’hypothèse on a λ < 1.
Appliquons le théorème des accroissements finis à la fonction g en deux points x, y de
[a, b]:
g(x) − g(y) = g 0 (ζ)(x − y),
où ζ ∈ ]x, y[. D’où
|g(x) − g(y)| = |g 0 (ζ)| |x − y| < λ |x − y| .
Donc la fonction g est contractante et on peut appliquer le théorème 1.4.1.

Corollaire 1.4.2 Soit g une fonction numérique admettant un point fixe α. Supposons
que g est continuement dérivable au point α. Alors:

1. Si |g 0 (α)| < 1, la méthode des approximations successives est localement convergente,


i.e., il existe un voisinage V de α tel que, pour tout choix x0 ∈ V , la suite (xn ) définie
par xn+1 = g(xn ) converge vers α.

2. Si |g 0 (α)| > 1, la méthode des approximations successives est divergente pour tout
x0 .

Démonstration:

1. La fonction g 0 est continue au point α, il existe alors un voisinage de α, V =


[α − , α + ] avec  > 0 tel que |g 0 (x)| < 1, ∀x ∈ V et g(V ) ⊂ V , on peut donc
appliquer le corollaire 1.4.1.

2. Si |g 0 (α)| > 1 et puisque g 0 est continue au point α, il existe alors un voisinage V


de α et un réel r > 1 tel que |g 0 (x)| > r, ∀x ∈ V .
Supposons que la suite (xn ) converge vers α il existe alors un entier N tel que
∀n ≥ N xn ∈ V et par suite |g 0 (xn )| > r. Appliquons maintenant le théorème des
accroissements finis, pour tout n ≥ N on a:

|xn+1 − α| = |g(xn ) − g(α)| = |g 0 (ξn )| |xn − α| ≥ r |xn − α| ≥ · · · ≥ rn−N |xN − α| .

Si on passe à la limite on obtient:

lim |xn+1 − α| = +∞,


n→+∞

ce qui est absurde, donc la méthode est donc divergente (sauf si accidentellement
xN = α).
|g 0 (x)| > 1

10
1.5 La méthode de Newton

Remarque 1.4.1 Le cas |g 0 (x)| = 1 est le plus délicat à traiter car on ne peut conclure.
On peut avoir convergence comme le cas de la fonction g(x) = sin x qui admet 0 comme
point fixe, ou divergence dans le cas de la fonction g(x) = sinh x qui admet aussi 0 comme
point fixe.

Théorème 1.4.2 Soit g une fonction numérique admettant un point fixe α. Supposons
qu’il existe p ∈ N∗ tel que g soit de classe C p au voisinage de α et que g (p) (α) 6= 0,
g (k) (α) = 0 ∀k ∈ N∗ et k ≤ p − 1 (g (k) désigne la dérivée d’ordre k de g). Alors si la
méthode des approximations successives pour la recherche du point fixe α converge, elle
est d’ordre p. En particulier, si g 0 (α) 6= 0, la convergence est d’ordre 1.

Démonstration:
Soit xn+1 et xn deux éléments de la suite (xn ) et appliquons la formule de Taylor à la
fonction g aux points xn+1 et α sachant que xn+1 = g(xn ) et α = g(α) on obtient:
p
X g (k) (α)
xn+1 − α = g(xn ) − α = (xn − α)k + (xn − α)p ε(xn − α),
k=1
k!

avec lim ε(xn − α) = 0. D’où


n→+∞

(p)
|xn+1 − α| g (α)
lim =
.
n→+∞ |(xn − α)p | p!

Ce qui prouve que |xn+1 − α| = O(|xn+1 − α|p ) et donc la méthode des approximations
successives est d’ordre p.

1.5 La méthode de Newton

Soit f une fonction de classe C 2 dans un voisinage d’une racine simple α de l’équation
f (x) = 0. La méthode de Newton consiste à construire, à partir de x0 , une suite (xn ) tel
que xn+1 est l’intersection de la tangente à la courbe au point (xn , f (xn )) et l’axe des x,
i.e.,
f (xn )
xn+1 = xn − 0 .
f (xn )
L’algorithme de la méthode de Newton est le suivant:

11
Chapitre 1. Résolution numérique des équations non linéaires

Algorithme 1.5
On choisit un réel x0 , deux réels , η > 0 assez petits et un nombre maximum
d’itérations N max.

Pour n = 0, . . . , N max faire:
 xn+1 = xn − f (xn )

 f 0 (xn )
Si |xn+1 − xn | ≤  et/ou |f (xn )| ≤ η on s’arrête.

Remarque 1.5.1 Remarquons que la méthode de Newton peut être considérée comme
f (x)
une méthode des approximations successives, si l’on choisit g(x) = x − 0 .
f (x)

Théorème 1.5.1 Soit f une fonction de classe C 2 dans un voisinage V d’une racine
simple α de l’équation f (x) = 0. La méthode de Newton est localement convergente et est
à convergence au moins quadratique (d’ordre 2).

Démonstration:
On a xn+1 = g(xn ) avec
f (x)
g(x) = x − ,
f 0 (x)
dont la dérivée est
f (x)f 00 (x)
g 0 (x) = ,
(f 0 (x))2
et donc g 0 (α) = 0 car f (α) = 0.
En appliquant le corollaire 1.4.1, il existe un voisinage U ⊂ V de α tel que ∀x0 ∈ U ,
la suite définie par xn+1 = g(xn ) est convergente vers α.
Si on applique la formule de Taylor aux points xn et α, il existe un ζn compris entre
xn et α tel que

f 00 (ζn )
f (xn ) − f (α) = (xn − α)f 0 (xn ) + (xn − α)2 .
2
D’où 00
f (xn ) f (ζn )
α = xn − 0 + (xn − α)2 0 ,
f (xn ) 2f (xn )
ou encore 00
f (ζn )
2
α − xn+1 = (xn − α) .
2f 0 (xn )
Donc 00
|α − xn+1 | f (α)
lim = 0 ,
n→+∞ |α − x |2 2f (α)
n

et la méthode de Newton est d’ordre 2.

12
1.6 La méthode de la sécante

1.6 La méthode de la sécante

Cette méthode peut être considérée comme une variante de la méthode de Regula
Falsi si on remplaçe les points an et bn par les points xn et xn−1 . Elle peut être con-
sidérée aussi comme une variante de la méthode de Newton si on approche f 0 (xn ) par
f (xn ) − f (xn−1 )
.
xn − xn−1
Partant de x0 et x1 , on définit la suite (xn ) par:

xn−1 f (xn ) − xn f (xn−1 )


xn+1 = . (1.9)
f (xn ) − f (xn−1 )

Remarqons que xn+1 est l’abscisse du point d’intersection, avec l’axe des abscisses,
de la droite joignant les points de la courbe de f , d’abscisses respectives xn et xn−1 .
L’algorithme de la méthode de la sécante est le suivant:

Algorithme 1.6
On choisit un réel x0 , deux réels , η > 0 assez petits et un nombre maximum
d’itérations N max.

Pour n = 0, . . . , N max faire:
 xn+1 = xn−1 f (xn ) − xn f (xn−1 )

 f (xn ) − f (xn−1 )
Si |xn+1 − xn | ≤  et/ou |f (xn )| ≤ η on s’arrête.

Lemme 1.6.1 Soit (xn ) la suite définie par (1.9) et supposons que f est de classe C 2 au
voisinage d’un zéro α de f . Alors ∀n ∈ N∗ , il existe un réel cn compris entre xn−1 et xn
et un réel dn élément du plus petit intervalle In contenant xn , xn−1 et α tel que:
00
f (dn )
xn+1 − α = (xn − α)(xn−1 − α) 0 . (1.10)
2f (cn )

Démonstration:
On a:
xn−1 f (xn ) − xn f (xn−1 )
xn+1 − α = −α
f (xn ) − f (xn−1 )
xn − xn−1
= (xn − α) − f (xn )
 f (xn ) − f(xn−1 )
g(xn , α)
= (xn − α) 1 −
g(xn , xn−1 )
h(xn , xn−1 , α)
= (xn − α)(xn−1 − α) ,
g(xn , xn−1 )
où on a posé
f (x) − f (y)
g(x, y) =
x−y

13
Chapitre 1. Résolution numérique des équations non linéaires

et
(z − x)(f (x) − f (y)) − (x − y)(f (z) − f (x))
h(x, y, z) = .
(x − y)(z − x)(y − z)
D’après la formule des accroissements finis, il existe cn compris entre xn et xn−1 tel
que
f (xn ) − f (xn−1 )
g(xn , xn−1 ) = = f 0 (cn ).
xn − xn−1
D’après le lemme 1.3.1, il existe dn ∈ In tel que:

f 00 (dn )
h(xn, xn−1 , α) = .
2
D’où 00
f (dn )
xn+1 − α = (xn − α)(xn−1 − α) .
2f 0 (cn )

Théorème 1.6.1 Supposons que f est de classe C 2 au voisinage d’une racine simple
de l’équation f (x) = 0, i.e., f (α) = 0, f 0 (α) 6= 0. Alors la méthode de la sécante est
localement convergente, i.e., il existe un voisinage V de α, tel que pour tout x0 et x1 dans
V , la suite
√ (xn ) définie par (1.9) converge vers α. De plus, l’ordre de convergence est
1+ 5
p= .
2
Démonstration: Puisque f 0 (α) 6= 0, il existe un voisinage de α où f 0 ne s’annule pas, il
existe donc , 0 <  < 1 et V1 = {x : |x − α| < } tel que ∀x ∈ V1 on a f 0 (x) 6= 0.
Comme f est de classe C 2 on peut définir:

0 00
c1 = inf |f (x)| et c2 = sup f (x) .
x∈V1 x∈V1

c2
+ 1 et V = x, |x − α| < c ⊂ V1 . Choisissons x0 , x1 dans V . On a

On pose c =
c1
alors:
∀n ∈ N, xn ∈ V.
Ceci se démontre par récurrence. En effet, x0 , x1 ∈ V . Supposons alors que xn ∈ V et
xn−1 ∈ V pour n ∈ N∗ . D’après (1.10), il existe cn , dn ∈ V tels que:
00
f (dn )
xn+1 − α = (xn − α)(xn−1 − α) 0 .
2f (cn )

D’où
00
f (dn )
|xn+1 − α| ≤ |xn − α| |xn−1 − α| 2f 0 (cn ) ≤ c |xn − α| |xn−1 − α|
 2  (1.11)
≤c = <
cc c c
et donc xn+1 ∈ V .

14
1.6 La méthode de la sécante

Démontrons maintenant que la suite (yn ) définie par yn = c |xn − α| est convergente


vers zéro. Posons λ = max(y0 , p y1 ) où y0 = c |x0 − α| et y1 = c |x1 − α| et p = 1+2 5 est
la racine positive de l’équation x2 − x − 1 = 0.
0 1
Alors y0 ≤ λp et y1 ≤ λp (facile à vérifier) et λ <  < 1 et
n
∀n ∈ N, yn ≤ λp . (1.12)
n n−1
Ceci se démontre par récurence. En effet, supposons que yn ≤ λp et yn−1 ≤ λp .
On a yn+1 = c |xn+1 − α| ≤ c2 |xn − α| |xn−1 − α| d’après (1.11). D’où

yn+1 ≤ yn yn−1
n n−1 n n−1 (1.13)
≤ λp λp = λp +p ,
n−1 n+1
et donc yn+1 ≤ λp (p+1) . Comme p2 = p + 1 on a yn+1 ≤ λp . On en déduit, puisque
λ < 1, que la suite (yn ) est convergente vers zéro et par suite la suite (xn ) converge vers
α.
yn+1
D’après (1.13) on a: ∀n ∈ N, yn+1 ≤ yn yn−1 . D’où p ≤ yn1−p yn−1 et d’après (1.12)
yn
on obtient:
yn+1 pn 1−p pn−1 n n+1 n−1 n−1 2
p ≤ (λ ) λ = λp −p +p = λp (p+1−p ) ≤ λ0 = 1,
yn

car p2 − p − 1 = 0. D’où
|xn+1 − α|
≤ cp−1 ,
|xn − α|p

et donc la méthode est au moins d’ordre p = 1+2 5 .
Démontrons maintenant que l’ordre de convergence est exactement p. Posons yn =
xn−1 f (xn ) − xn f (xn−1 )
xn − α. De l’expression xn+1 − α = − α on tire:
f (xn ) − f (xn−1 )

yn−1 f (xn ) − yn f (xn−1 )


yn+1 = . (1.14)
f (xn ) − f (xn−1 )

En supposant que f 0 (α) 6= 0 et f 00 (α) 6= 0, la formule de Taylor-Lagrange nous donne au


voisinage de α:

(xn− α)2 00
f (xn ) = (xn − α)f 0 (α) + f (α) + (xn − α)2 ζ(xn − α),
2
où ζ(xn − α) → 0 quand xn − α → 0.
En écrivant cette formule aux points xn et xn−1 et en utilisant (1.14) on obtient:

f 00 (α)
yn+1 ∼ yn yn−1 quand n → +∞. (1.15)
2f 0 (α)

D’autre part, la méthode de la sécante est dite d’ordre p si |yn+1 | = O(|yn |p ) ou encore

15
Chapitre 1. Résolution numérique des équations non linéaires

|yn+1 | p
s’il existe une constante C tel que p ∼ C quand n → +∞ d’où |yn+1 | ∼ C |yn | ,
|yn |
2
|yn | ∼ C |yn−1 | et par suite |yn+1 | ∼ C p+1 |yn−1 |p et en utilisant (1.15) on obtient:
p

00
p p2 p
f (α)
C |yn−1 | ∼ |yn−1 | |yn−1 | 0 ,
2f (α)

et donc
f (α) −1
00
p2 −p−1
C p |yn−1 | 2f 0 (α) ∼ 1.


2 1+ 5
Comme limn→+∞ yn−1 = 0, donc p − p + 1 = 0 et par conséquent p = .
2

1.7 Résolution d’un système non linéaire

On considère le système:


 f1 (x1 , x2 , . . . , xn ) = 0,
 f2 (x1 , x2 , . . . , xn ) = 0,

.. (1.16)


 .
 f (x , x , . . . , x ) = 0,
n 1 2 n

où les fonctions fi sont des fonctions définies sur un ouvert de Rn à valeurs dans R et de
classe C 2 dans un voisinage V d’une racine α = (α1 , α2 , . . . , αn ), du système (1.16), i.e.,
fi (α) = 0 pour i = 1 jusqu’à n.

1.7.1 Méthode des approximations successives

Posons X = (x1 , x2 , . . . , xn ) et F = (f1 , f2 , . . . , fn ), alors le système peut s’écrire sous


la forme:
F (X) = 0. (1.17)
Supposons qu’on puisse faire des opérations algébriques sur la fonction F pour l’écrire
sous la forme F (X) = X − G(X) avec G = (g1 , g2 , . . . , gn ), où les gi sont des fonctions
définies sur un ouvert de Rn . Le système (1.16) s’écrit alors

X = G(X). (1.18)

Si α est solution de (1.16), alors α est solution de (1.17) et α est un point fixe de la
fonction G.
Pour chercher la solution de (1.16) on se ramène à la recherche du point fixe de la
fonction G. Pour cela, on construit la suite de vecteurs (Xk ) par:
(
X0 donné,
Xk+1 = G(Xk ) k ≥ 0.

16
1.7 Résolution d’un système non linéaire

Les conditions de a convergence de la suite (Xk ) sont données dans:

Théorème 1.7.1 Soit U un fermé borné de Rn et G une fonction définie sur U telle que:

1. G(U ) ⊂ U , i.e., ∀X ∈ U G(X) ∈ U ;

2. Il existe une constante K vérifiant 0 ≤ K < 1 telle que

∀X ∈ U, ∀Y ∈ U, kG(X) − G(Y )k ≤ K kX − Y k ,

où k.k est la norme euclidienne dans Rn .

Alors la suite (Xk ) défini par


(
X0 ∈ U,
Xk+1 = G(Xk ), k ≥ 0,

converge vers α ∈ U (α vérifie G(α) = α).

Démonstration:
La démonstration est analogue à celle que l’on a faite dans le cas d’une équation.

L’algorithme des approximations successive pour résoudre le système (1.18) est:

Algorithme 1.7
On choisit un vecteur X0 , un réel  > 0 assez petit et un nombre maximum d’itérations
N max.

Pour k = 0, . . . , N max faire:
 Xk+1 = G(Xk )
Si kXk+1 − Xk k ≤  on s’arrête.

Théorème 1.7.2 Soit U un fermé borné de Rn et G une fonction définie sur U de classe
C 1 (i.e., toutes les fonctions partielles gi sont de classe C 1 ) telle que:
n
X
0
max |gj,xi
(X)|2 < 1,
X∈U
i,j=1

0 ∂gj
où gj,x (X) = (X). Alors la suite définie par:
i
∂xi

X0 ∈ U,
Xn+1 = G(Xn ),

converge vers α ∈ U (α vérifie G(α) = α).

17
Chapitre 1. Résolution numérique des équations non linéaires

Démonstration:

Remarquons que, puisque les fonctions P partielles gi sont de classe C 1 , les dérivées
partielles d’ordre 1 sont continues et le max ni,j=1 |gj,x
0
i
(X)|2 existe.
X∈U

n
X
0
Soit K = max |gj,xi
(X)|2 ce maximum. Soient X et Y deux éléments de U .
X∈U
i,j=1
D’après le théorème des accroissements finis appliqué à la fonction G aux points X et Y ,
il existe ξ ∈ U tel que G(X) − G(Y ) = G0 (ξ)(X − Y ) où G0 (ξ) est la dérivée de G au point
ξ, c’est donc une application linéaire de Rn dans Rn représentée par la matrice suivante:
 0 0 0

g1,x1 (ξ) g1,x 2
(ξ) · · · g1,xn (ξ)
 g 0 (ξ) g 0 (ξ) · · · g 0 (ξ) 
 2,x1 2,x2 2,xn
DG =  .. ..  ,

.. ..
 . . . . 
0 0 0
gn,x1
(ξ) gn,x 2
(ξ) · · · gn,xn
(ξ)

et on a n
X
0
gi (X) − gi (Y ) = gj,xi
(ξ)(xj − yj ).
j=1

Donc
n n n
!2
X 2
X X
2 0
kG(X) − G(Y )k = (gi (X) − gi (Y )) = gj,xi (ξ)(xj− yj )
i=1 i=1 j=1

et en développant:
n
!2 n n
X X X
0 02 2 0 0
(gj,xi (ξ)(xj− yj ) = gj,xi (ξ)(xj− yj ) + gk,xi
(ξ)(xk − yk )gl,xi
(ξ)(xl− yl ).
j=1 j=1 l,k=1
l6=k

En remarquant que, étant donnés 4 réels a, b, c, d, on a

2abcd ≤ a2 b2 + c2 d2 ,

d’où
n
!2 n n
X X X
0 02 02 02
(gj,xi
(ξ)(xj− yj ) ≤ gj,xi
(ξ)(xj− yj )2 + (gk,xi
(ξ)(xk− yk )2 + gl,x i
(ξ)(xl− yl )2 )
j=1 j=1 l,k=1
l6=k
n
! n
! n
X X X
02 02
≤ gj,xi
(ξ) (xi− yi )2 = gj,xi
(ξ) kX − Y k .
j=1 i=1 j=1

18
1.7 Résolution d’un système non linéaire

On tire donc que


n n
!
X X
02
kG(X) − G(Y )k ≤ gj,xi
(ξ) kX − Y k
i=1 j=1
Xn
02
≤ gj,xi
(ξ) kX − Y k ≤ K kX − Y k .
j,i=1

n
X
02
avec K = max gj,xi
(X).
x∈U
j,i=1

Comme par hypothèse K < 1 et U est un fermé borné, les hypothèses du théorème
sont vérifiées et l’algorithme défini par Xk+1 = G(Xk ) converge.

1.7.2 La méthode de Newton

C’est une méthode qui consiste à linéariser le système (1.16) et à remplacer la


résolution du système non linéaire par une suite de systèmes linéaires qu’on résout suc-
cessivement (généralement par une méthode directe).
On considère maintenant le système (1.16) ou encore l’équation (1.17) où les fonctions
fi sont de classe C2 dans un voisinage U de la racine α = (α1 , α2 , . . . , αn ) de l’équation
(1.17). Si on écrit la formule de Taylor au point X d’un voisinage de α et en négligeant
le terme d’ordre 2 on obtient:

F (α) − F (X) = F 0 (X)(α − X).

D’où
F (X) + F 0 (X)(α − X) = 0,
où F 0 (X) est une application linéaire dont la matrice qu’on appelle la matrice jacobienne
est:  0 
0 0
f1,x1 (X) f1,x 2
(X) · · · f1,x n
(X)
 f 0 (X) f 0 (X) · · · f 0 (X)
 2,x1 2,x2 2,xn
F 0 (X) =  .

.. .. .. ..
 . . . . 
0 0 0
fn,xn
(X) fn,x 2
(X) · · · fn,xn
(x)
Si on construit une suite itérative (X k ) approximant α on obtient une meilleure définition
de la suite par:
F (X k ) + F 0 (X k )(X k+1 − X k ) = 0.
On obtient X k+1 en résolvant le système linéaire

F 0 (X k )(X k+1 − X k ) = F (X k ).

Ce système aura une solution si F 0 (X k ) est inversible.

19
Chapitre 1. Résolution numérique des équations non linéaires

Algorithme 1.8
On choisit un vecteur X0 , un réel  > 0 assez petit et un nombre maximum d’itérations
N max.

Pour k = 0, . . . , N max faire:
 Résoudre pour X k+1 le système linéaire suivant par l’une des méthodes connues
 F 0 (X k )(X k+1 − X k ) = F (X k )

 k+1
 X − X k
Si ≤  on s’arrête.
kX k k

Remarque 1.7.1
• La méthode de Newton est très efficace.
• La convergence est quadratique au voisinage de la solution (après un certain nombres
d’itérations)
• L’inconvenient majeur de la méthode est d’avoir à calculer à chaque itération la
∂fi
matrice jacobienne (n2 fonctions à évaluer ) et les fonctions fi .
∂xj
Pour surmonter ce problème plusieurs variantes de la méthode de Newton existent:
1. Méthode de Newton à jacobienne par différences finies: c’est une méthode qui con-
∂fi k
siste à approcher à chaque itération k les dérivées partielles (X ) par:
∂xj

∂fi k fi (X1k , . . . , Xjk + h, . . . , Xnk ) − fi (X1k , . . . , Xjk , . . . , Xnk )


(X ) '
∂xj h

où h est un réel fixé suffisamment petit.


2. Méthode de Newton simplifiée: c’est une méthode qui consiste à conserver la matrice
jacobienne constante pendant un certain nombre d’itérations.;
3. Méthodes de Newton à itération linéaire: ce sont les méthodes où on résout le
système linéaire
F 0 (X k )(X k+1 − X k ) = F (X k )
par une méthode itérative (Jacobi, Gaus -Seidel, relaxation... ) mais en faisant
un nombre limité r d’itérations (r =1,2 ,3.. ). Et on obtient deux itérations l’une
dans l’autre. On obtient ainsi des méthodes dites Newton-Itérations linéaires à r
(r = 1, 2,ou 3) pas:
4. Newton-Gauss-Seidel à r pas.
5. Newton-Relaxation à r pas.

20
CHAPITRE 2

INTERPOLATION POLYNÔMIALE

2.1 Introduction

Soit f une fonction dont on connait les valeurs yi = f (xi ) en un nombre fini de
points xi , i = 0, 1, . . . , n. L’interpolation consiste à déterminer une fonction P (x), dans
un ensemble donné de fonctions, telle que le graphe de la fonction y = P (x) passe par les
points données (xi , yi ), i = 0, 1, . . . , n.
Dans ce chapitre, nous nous limiterons au cas où P est une fonction polynômiale.
Les applications de la théorie de l’interpolation sont multiples. Dans ce cours, nous
insisterons sur les aspects qui fourniront les outils mathématiques essentiels pour le
développement des méthodes des chapitres suivants (intégration numérique et résolution
numérique des équations différentielles). Nous donnerons aussi différentes formes du
polynôme d’interpolation adaptées à l’interpolation dans les tables de données et nous
analyserons l’erreur d’interpolation correspondante.

2.2 Interpolation polynômiale: forme de Lagrange

Soient x0 , x1 , . . . , xn , (n + 1) nombres distincts deux à deux. Soient y0 = f (x0 ), y1 =


f (x1 ), . . . , yn = f (xn ), les valeurs d’une fonction f en ces points.
Problème :

• Existe-t-il un polynôme P tel que P (xi ) = yi , i = 0, 1, . . . , n.

• Si oui, quel est son degré? Est-il unique? Quelle est l’expression de P (x) en fonction
des données (xi ) et (yi )?

Un polynôme P (x) = a0 + a1 x + · · · + am xm est entièrement déterminé par la connais-


sance des (m+1) coefficients (ai ), i = 0, 1, . . . , m. Les équations P (xi ) = yi , i = 0, 1, . . . , n
imposent (n + 1) conditions sur P (x). Il est donc raisonnable de considérer le cas m = n
et de chercher P dans Pn où Pn est l’espace vectoriel des polynômes de degré inférieur ou
égal à n.

Théorème 2.2.1 Il existe un polynôme unique P ∈ Pn tel que Pn (xi ) = yi , ∀i ∈


{0, 1, . . . , n}. De plus,
n
X
Pn (x) = yk Lk (x),
k=0

où n
Y x − xi
Lk (x) = .
i=0
xk − xi
i6=k
Chapitre 2. Interpolation polynômiale

Démonstration:
Unicité: Supposons qu’il existe deux polynômes Pn ∈ Pn et Qn ∈ Pn tels que

Pn (xi ) = yi , et Qn (xi ) = yi , i = 0, 1, . . . , n.

Posons Rn = Pn − Qn . On a Rn ∈ Pn , Rn (xi ) = 0, pour i = 0, 1, . . . , n. Le polynôme


Rn dont le degré est au plus n, a donc n + 1 zéros distincts deux à deux. Il est donc
identiquement nul Rn ≡ 0 et donc Pn ≡ Qn .
Existence:
1ère démonstration : Posons Pn (x) = a0 + a1 x + . . . + an xn , où les coefficients
ai (i = 0, . . . , n) sont à déterminer. En écrivant les n + 1 équations P (xi ) = yi , i =
0, 1, . . . , n, on obtient un système linéaire de n + 1 équations à n + 1 inconnues:


 a0 + a1 x0 + . . . + an xn0 = y0
a0 + a1 x1 + . . . + an xn1 = y1

,


a0 + a1 xn + . . . + an xnn = yn

qui s’écrit sous forme matricielle M A = Y en posant:


     
a0 y0 1 x0 · · · xn0
 a1   y1  1 x1 · · · xn 
1
A =  ..  , Y =  ..  et M =  .. .. ..  .
    
..
. . . . . .
an yn 1 xn . . . xnn

D’après l’unicité (si Y = 0 alors A = 0), la matrice M est donc injective. Comme elle est
d’un espace de dimension fini dans un espace de même dimension, M est donc inversible
et le système M A = Y admet une solution d’où l’existence du polynôme Pn . Seulement
cette démonstration ne nous permet pas la construction du polynôme Pn .
2ème démonstration: Considèrons le polynôme:
n
Y x − xi
Lk (x) = , k = 0, 1, . . . , n,
i=0
xk − xi
i6=k

et posons
n
X
Pn (x) = yk Lk (x).
k=0

On a Lk ∈ Pn , pour k = 0, 1, . . . , n (deg Lk = n). De plus


(
1 si j = k,
Lk (xj ) =
0 sinon.

D’où Pn ∈ Pn , et Pn (xi ) = yi , i = 0, 1, . . . , n.

22
2.3 Forme de Newton: différences divisées

Exemples:

1. Interpolation linéaire (n = 1): Soient x0 et x1 deux réels donnés distincts x0 6= x1


et f une fonction définie dans un voisinage contenant ces deux réels. Alors le
polynôme d’interpolation de f relatif aux points x0 et x1 est:

x − x1 x − x0 (x − x0 )f (x1 ) − (x − x1 )f (x0 )
P1 (x) = f (x0 ) + f (x1 ) = ,
x0 − x1 x1 − x0 (x1 − x0 )
ou encore
f (x1 ) − f (x0 ) x1 f (x0 ) − x0 f (x1 )
P1 (x) = x+ .
x0 − x1 x1 − x0

2. Interpolation quadratique (n = 2): Soient x0 , x1 et x2 trois réels donnés distincts


(x0 6= x1 , x1 6= x2 et x0 6= x2 ) et soit f une fonction définie dans un voisinage
contenant ces trois réels. Alors le polynôme d’interpolation de f relatif aux points
x0 , x1 et xn est:

(x − x1 )(x − x2 ) (x − x0 )(x − x2 ) (x − x0 )(x − x1 )


P2 (x) = f (x0 ) +f (x1 ) +f (x2 ) ,
(x0 − x1 )(x0 − x2 ) (x1 − x0 )(x1 − x2 ) (x2 − x1 )(x2 − x0 )
ou encore
 
f (x1 ) − f (x0 ) 1 f (x2 ) − f (x1 ) f (x1 ) − f (x0 )
P2 (x) = f (x0 )+ (x−x0 )+ − (x−x0 )(x−x1 ).
(x1 − x0 ) x2 − x0 (x2 − x1 ) (x1 − x0 )

n
X
Définition 2.2.1 L’expression Pn = yk Lk (x) s’appelle la forme de Lagrange du polynôme
k=0
d’interpolation de la fonction f relatif aux points x0 , x1 , . . . , xn . Les polynômes Lk sont
les polynômes de base de Lagrange associés aux points x0 , x1 , . . . , xn .

2.3 Forme de Newton: différences divisées

Avec les mêmes hypothèses et notations que le paragraphe 2.2, notons Pk le polynôme
d’interpolation de Lagrange de la fonction f relatif aux points x0 , x1 , . . . , xk .
Considérons le polynôme:

Qk (x) = Pk (x) − Pk−1 (x), k ∈ {1, . . . , n}.

Alors Qk est un polynôme de degré k et Qk (xi ) = Pk (xi ) − Pk−1 (xi ) = 0 pour i ∈


{0, . . . , k − 1}, donc Qk peut s’écrire sous la forme:
k−1
Y
Qk (x) = αk (x − x0 )(x − x1 ) · · · (x − xk−1 ) = αk (x − xi ),
i=0

où αk est une constante.

23
Chapitre 2. Interpolation polynômiale

Comme les polynômes Qk et Pk sont de même de degré k et Pk−1 est de degré k − 1,


alors le coefficient ak de xk dans Pk est le même que le coefficient αk de xk dans Qk , i.e.,
ak = α k .
k−1
Y
Q Q
Posons k = (x − xi ). Alors Pk (x) = ak k +Pk−1 (x).
i=0

Définition 2.3.1 Le coefficient αk (ak = αk ) s’appelle différence divisée de f d’ordre k


aux points x0 , x1 , . . . , xk et l’on note ak = f [x0 , x1 , . . . , xk ].

Lemme 2.3.1 La différence divisée de f d’ordre k aux points x0 , x1 , . . . , xk est donnée


par la formule
k
X f (xi )
f [x0 , x1 , . . . , xk ] = k
.
i=0
Y
(xi − xj )
j=0
j6=i

Démonstration
En utilisant les polynômes de Lagrange Li , le polynôme d’interpolation de Lagrange Pk
de la fonction f relatif aux points x0 , x1 , . . . , xk s’écrit :
k
X
Pk (x) = f (xi )Li (x),
i=0

ou encore
k k k k
X Y (x − xj ) X f (xi ) Y
Pk (x) = f (xi ) = (x − xj ).
i=0 j=0
(x i − x j ) i=0
k
Y j=0
j6=i (xi − xj ) j6=i
j=0
j6=i

On tire donc le coefficient ak de xk dans Pk :


k
X f (xi )
ak = k
.
i=0
Y
(xi − xj )
j=0
j6=i

Y k
Y
Remarque 2.3.1 En posant (x) = (x − xj ), pour i = 0, 1, . . . , k on a:
k+1
j=0

Y0 k
Y
(xi ) = (xi − xj ),
k+1
j=0
j6=i

24
2.3 Forme de Newton: différences divisées

Y0 Y
où désigne la dérivée de .
k+1 k+1
Le coefficient ak s’écrit donc:
k
X f (xi )
ak = f [x0 , x1 , . . . , xk ] = Y0 .
i=0 (xi )
k+1

En particulier, pour k = n, on obtient:


n
X f (xi )
an = f [x0 , x1 , . . . , xn ] = Y0 .
i=0 (xi )
n+1

Remarque 2.3.2 Comme conséquence immédiate de la remarque 2.1, on peut démontrer


facilement que la différence divisée est indépendante de l’ordre des xi , i.e.,

ak = f [x0 , x1 , . . . , xk ] = f [xσ(0) , xσ(1) , . . . , xσ(k) ]

pour toute permutation σ de {0, 1, . . . , k}.

Proposition 2.3.1 Les différences divisées se calculent d’une manière récursive par les
formules suivantes:

1. Différences divisées d’ordre 0:

f [xi ] = f (xi ), ∀i ∈ {0, 1, . . . , n}.

2. Différences divisées d’ordre k:

f [x1 , . . . , xk ] − f [x0 , x1 , . . . , xk−1 ]


f [x0 , x1 , . . . , xk ] = , ∀k ∈ {1, . . . , n}.
xk − x0

Exemples:

Etant donné trois réels distincts x0 , x1 et x2 .

1. Différences divisées d’ordre 1:


f [x1 ] − f [x0 ] f (x1 ) − f (x0 )
f [x0 , x1 ] = = ,
x 1 − x0 x1 − x 0
et
f [x2 ] − f [x1 ] f (x2 ) − f (x1 )
f [x1 , x2 ] = = .
x 2 − x1 x2 − x 1
2. Différences divisées d’ordre 2:
f [x1 , x2 ] − f [x0 , x1 ]
f [x0 , x1, x2 ] = .
x2 − x0

25
Chapitre 2. Interpolation polynômiale

Démonstration de la proposition 2.1


1/Evident
2/D’après la remarque 2.1 on a
k k
X f (xi ) X f (xi )
f [x0 , x1 , . . . , xk ] = k
= Y0 ,
i=0
Y i=0 (xi )
(xi − xj ) k+1
j=0
j6=i

d’où
k
X f (xi )
f [x1 , . . . , xk ] = k
.
i=0
Y
(xi − xj )
j=1
j6=i

En multipliant le terme de la somme en haut et en bas par (xi − x0 ) on obtient :


k k
X (xi − x0 )f (xi ) X (xi − x0 )f (xi )
f [x1 , . . . , xk ] = k
= Y0 .
i=0
Y i=0 (xi )
(xi − xj ) k+1
j=0
j6=i

De la même manière mais en multipliant par (xi − xk ) on a


k k
X (xi − xk )f (xi ) X (xi − xk )f (xi )
f [x0 , . . . , xk−1 ] = k
= Y0 .
i=0
Y i=0 (xi )
(xi − xj ) k+1
j=0
j6=i

D’où
k
X (xk − xi + xi − x0 )f (xi )
f [x1 , . . . , xk ] − f [x0 , . . . , xk−1 ] = Y0
i=0 (xi )
k+1
k
X f (xi )
= (xk − x0 ) Y0 = (xk − x0 )f [x0 , . . . , xk ],
i=0 (xi )
k+1

et donc
f [x1 , . . . , xk ] − f [x0 , x1 , . . . , xk−1 ]
f [x0 , x1 , . . . , xk ] = .
xk − x0

Remarque 2.3.3 Comme généralisation immédiate de la formule précédente, pour tout

26
2.3 Forme de Newton: différences divisées

i ∈ {0, 1, . . . , n − 1} et k ∈ {0, 1, . . . , n − i} on a:

f [xi+1 , . . . , xi+k ] − f [xi , xi+1 , . . . , xi+k−1 ]


f [xi , xi+1 , . . . , xi+k ] = .
xi+k − xi

Cette formule nous permet donc de calculer les différences divisées d’ordre k à partir
des différences divisées d’ordre k − 1. On peut donc dresser le tableau suivant:

points ordre 0 ordre 1 ordre 2 ordre 3 ordre 4


xi f [xi ] f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] ...
x0 f [x0 ]
f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ]
f [x1 , x2 ] f [x0 , x1 , x2 , x3 ]
x2 f [x2 ] f [x1 , x2 , x3 ]
f [x2 , x3 ] f [x1 , x2 , x3 , x4 ]
x3 f [x3 ] f [x2 , x3 , x4 ] ...
f [x3 , x4 ] f [x2 , x3 , x4 , x5 ]
x4 f [x4 ] f [x3 , x4 , x5 ] ... ...

On peut également écrire un algorithme qui permet de calculer ces différences di-
visées. Posons Di,k = f [xi , xi+1 , . . . , xi+k ] et Di,0 = f (xi ) pour i ∈ {0, 1, . . . , n} et
k ∈ {0, 1, . . . , n − i}. D’après la remarque 2.3 on a

Di+1,k−1 − Di,k−1
Di,k = ,
xi+k − xi
d’où l’algorithme suivant:

Algorithme 2.1

Etant donnés x0 , x1 , . . . , xn , n + 1 points distincts et y0 , y1 , . . . , yn les valeurs respec-


tives de la fonction f aux points x0 , x1 , . . . , xn .

Pour i = 0, . . . , n faire:
 Di,0 = yi

 Fin de la boucle sur i

 Pour k = 1, . . . , n faire:

 Pour i = 0, . . . , n − k faire:

 Di+1,k−1 − Di,k−1
 Di,k =

 xi+k − xi
 Fin de la boucle sur i
Fin de la boucle sur k

27
Chapitre 2. Interpolation polynômiale

Proposition 2.3.2 (Forme de Newton du polynôme d’interpolation )


Soit f une fonction définie sur [a, b] et x0 , x1, . . . , xn , n + 1 points de [a, b] où on connait
les valeurs de la fonctions f . Alors le polynôme d’interpolation de Lagrange s’écrit:
n
X Y
Pn (x) = f (x0 ) + f [x0 , x1 , . . . , xk ] k (x),
k=1

k−1
Y
Q
où k (x) = (x − xj ). Cette écriture s’appelle la forme de Newton du polynôme
j=0
d’interpolation.

Démonstration
Ecrivons le polynôme Pn (x) sous la forme:

Pn (x) = P0 (x) + P1 (x) − P0 (x) + . . . + Pn (x) − Pn−1 (x)


Xn
= P0 (x) + Pk (x) − Pk−1 (x),
k=1

où Pk (x) est le polynôme d’interpolation de la Lagrange aux points x0 , x1 , . . . , xk .


On a déjà vu que
k−1
Y Y
Pk (x) − Pk−1 (x) = ak Qk (x) = ak (x − xj ) = f [x0 , x1 , . . . , xk ] (x).
j=0 k

Et comme P0 (x) = f (x0 ), on obtient:


n
X Y
Pn (x) = f (x0 ) + f [x0 , x1 , . . . , xk ] k (x).
k=1

Remarque 2.3.4 La forme de Newton du polynôme d’interpolation Pn donne un moyen


commode pour le calcul de la valeur Pn (x) en tout point donné x. En effet supposons
connues les différences divisées f [x0 , . . . , xk ] = D0,k = ak , pour k = 0, . . . , n. On peut
écrire:
Pn (x) = a0 + a1 (x − x0 ) + a2 (x − x0 )(x − x1 ) + · · · + an (x − x0 ) · · · (x − xn−1 )
= a0 + (x − x0 )[an (x − x1 ) · · · (x − xn−1 ) + an−1 (x − x1 ) · · · (x − xn−2 ) + · · · + a1 ]
= a0 + (x − x0 )[a1 + (x − x1 ) [· · · [an−3 + (x − xn−3 ) [an−2 + (x − xn−2 ) [an−1 + an (x − xn−1 )]]]

On peut écrire donc l’algorithme suivant pour le calcul de Pn (x) pour un x donné.

28
2.4 Interpolation en des points équidistants: différences finies

Algorithme 2.2

On se donne x,x0 , . . . , xn , a0 , . . . , an

t0 = an
 Pour k = 1, . . . , n faire:

 tk = an−k + (x − xn−k )tk−1

 Fin de la boucle sur k
tn = la valeur de Pn (x)

2.4 Interpolation en des points équidistants: différences finies

Soient x0 , . . . , xn , n + 1 points équidistants tels que xi = x0 + ih où h est un réel


non nul. Soit f une fonction telle qu’on connait ses valeurs aux points x0 , . . . , xn . Posons
fi = f (xi ) pour i = 0, . . . , n.

On définit l’opérateur des différences finies progressives par:

∇f (x) = f (x + h) − f (x),

et notons:
∇fi = fi+1 − fi .
Plus généralement, définissons l’opérateur des différences finies progressives d’ordre k ≥ 0
par: et
∇0 fi = fi ,
et
∇k fi = ∇k−1 fi+1 − ∇k−1 fi .

Les différentes différences finies ∇k fi peuvent être calculées par l’algorithme 2.3 suiv-
ant:

29
Chapitre 2. Interpolation polynômiale

Algorithme 2.3

Supposons qu’on connait les xi et les fi , i = 0, . . . , n



Pour i = 0, . . . , n faire:
 ∇ 0 fi = fi

 Fin de la boucle sur i

 Pour k = 1, . . . , n faire:

 Pour i = 0, . . . , n − k faire:


 ∇k fi = ∇k−1 fi+1 − ∇k−1 fi
 Fin de la boucle sur i
Fin de la boucle sur k

Lemme 2.4.1 Pour tout i ∈ {0, . . . , n} on a

∇k fi = f [xi , . . . , xi+k ]hk k! ∀k ∈ {0, . . . , n − i}.

Démonstration
On va faire la démonstration par récurrence sur l’ordre k. Pour k = 0, on a ∇0 fi =
fi = f (xi ) = f [xi ] = f [xi ] h0 0!. Supposons que la relation soit vraie jusqu’à l’ordre k. On
a donc
∇k fi = f [xi , . . . , xi+k ] hk k! et ∇k fi+1 = f [xi+1 , . . . , xi+1+k ] hk k!.
D’où:
∇k+1 fi = ∇k fi+1 − ∇k fi
= f [xi , . . . , xi+k ] hk k! − f [xi+1 , . . . , xi+1+k ] hk k!
= hk k! (f [xi , . . . , xi+k ] − f [xi+1 , . . . , xi+1+k ] ) (D’après le lemme 1)
= hk k! (xi+1+k − xi )f [xi , . . . , xi+1+k ]
= hk k! (k + 1)h f [xi , . . . , xi+1+k ] car xi+1+k − xi = (k + 1)h
= hk+1 (k + 1)!f [xi , . . . , xi+1+k ]

∇k f0
Remarque 2.4.1 On a f [x0 , x1 , . . . , xk ] = . Le polynôme d’interpolation
hk k!
n
X Y
Pn (x) = f (x0 ) + f [x0 , x1, . . . , xk ] (x)
k=1 k

peut s’écrire alors:


n
X ∇k f0 Y
Pn (x) = f (x0 ) + k (x).
k=1
hk k!

30
2.4 Interpolation en des points équidistants: différences finies

Proposition 2.4.1 Le polynôme d’interpolation Pn (x) peut s’écrire:


n  
X
k t
Pn (x) = ∇ f0 ,
k=0
k
 
x − x0 t t(t − 1)(t − 2) . . . (t − k + 1)
où t = et = est le coefficient du binôme généralisé
h k  k!
avec la convention 0t = 1.

Démonstration: On sait que:


n
X ∇ k f0 Y
Pn (x) = f (x0 ) + k (x).
k=1
hk k!

Or

* f (x0 ) = (t0 ) ∇0 f0
k−1
Y
Q
* k (x) = (x − xj )
j=0

* x = ht + x0 ,xj = hj + x0 d’où x − xj = h(t − j) et alors


k−1
Y k−1
Y
(x − xj ) = h(t − j)
j=0 j=0

et donc Y
(x) = hk t(t − 1)(t − 2) . . . (t − k + 1)
k

d’où n
X ∇k f0
Pn (x) = f (x0 ) + t(t − 1)(t − 2) . . . (t − k + 1),
k=1
k!
et par suite:
n
X
∇ k f0 t

Pn (x) = k .
k=0

Etant donné un nombre x, on peut calculer la valeur Pn (x) du polynôme d’interpolation


au point x par un algorithme analogue à l’algorithme 2.2:

31
Chapitre 2. Interpolation polynômiale

Algorithme 2.4

Supposons qu’on connait x, x0 , n, h, ∇1 f0 , . . . , ∇n f0


x − x0

 t= h
 q = ∇n f
 0 0
 Pour k = 1, . . . , n faire:

 q = ∇n−k f + t − n + k q

k 0 k−1

 n−k+1
 Fin de la boucle sur k
qn la valeur de Pn (x)

Remarque 2.4.2 On peut définir les différences finies régressives par 4k f (x) = f (x) −
f (x − h) et 4k f (x) = 4k−1 f (x) − 4k−1 f (x − h).
On peut montrer que
n
X
4k fn k−t+k−1

Pn (x) =
k=0
xn −x
où t = h
.

2.5 Interpolation d’Hermite

Soient x0 , . . . , xn n + 1 nombres distincts et α0 , . . . , αn n + 1 entiers naturels donnés.


On suppose connues les valeurs f (l) (xi ) = yi,l pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi } (f (l)
désigne la dérivée lème de la fonction f ).
Problème:

1. Existe-t-il un polynôme P tel que:

P (l) (xi ) = yi,l , ∀i ∈ {0, 1, . . . , n} et ∀l ∈ {0, . . . , αi }?

2. Si oui quel est son degré? Est-il unique?

Si on écrit P (x) = a0 + a1 x + · · · + am xm , on aura (m + 1) inconnues (a0 , a1 , . . . , am ).


Pour chaque i fixé, on a αi + 1 équations linéaires:

P (l) (xi ) = yi,l , l ∈ {0, . . . , αi }.


n
X n
X
Au total, on a donc (αi + 1) = n + 1 + αi équations. Il est donc raisonnable de
i=0 i=0
n
X
considérer le cas où P ∈ Pm avec m = n + αi .
i=0

32
2.5 Interpolation d’Hermite

Théorème 2.5.1 Etant donnés (n+1) points distincts x0 , . . . , xn et n+1 entiers naturels
n
X
α0 , . . . , αn et soit m = n + αi . Soit f une fonction admettant des dérivées d’ordre αi
i=0
aux points xi qu’on notera yi,l = f (l) (xi ). Alors il existe un polynôme Pm ∈ Pm unique
tel que
Pm(l) (xi ) = yi,l pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . αi }.
Ce polynôme s’appelle polynôme d’interpolation d’Hermite de la fonction f relativement
aux points x0 , . . . , xn et aux entiers α0 , . . . , αn .

Démonstration
Posons Pm (x) = a0 + a1 x + · · · + am xm , alors trouver le polynôme Pm équivaut à
déterminer les (m + 1) coefficients a0 , a1 , . . . , am . Comme on a (m + 1) équations linéaires
(l)
Pm (xi ) = yi,l . On obtient un système linéaire de (m + 1) équations à (m + 1) inconnus.
Pour démontrer l’existence de la solution, il suffit donc de démontrer l’unicité.
Supposons qu’il existe deux polynômes d’interpolation d’Hermite Pm (x) et Qm (x) de
(l) (l)
degré ≤ m tels que: Pm (xi ) = yi,l pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi } et Qm (xi ) = yi,l
pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi }. Posons alors Rm = Pm − Qm , alors le degré de
(l)
Rm ≤ m et Rm (xi ) = 0 pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi }.
D’où xi est un zéro d’ordre αi + 1 (au moins ) du polynôme Rm pour i ∈ {0, 1, . . . , n}
n
Y
et donc il existe un polynôme S(x) tel que Rm (x) = S(x) (x−xi )1+αi . D’où si S(x) 6= 0,
i=0
n
X
deg(Rm ) = deg(S) + (n + 1 ) + αi = m + 1 + deg(S) et comme deg(Rm ) ≤ m alors S
i=0
est nécessairement nul. D’où Rm ≡ 0 et donc Pm = Qm .

Remarque 2.5.1 La détermination du polynôme Pm d’Hermite exige uniquement la con-


naissance des valeurs de la fonction f et de ses dérivées d’ordre αi aux points x0 , x1 , . . . , xn .
Le problème général d’interpolation revient à la résolution du problème suivant:

Trouver Pm ∈ Pm vérifiant:
(l)
Pm (xi ) = bi,l pour i ∈ {0, 1, . . . , n}, l ∈ {0, . . . , αi },

où les bi,l sont des constantes données. On sait que ce problème admet une solution unique
dans Pm .

Détermination explicite du polynôme d’Hermite


Pour déterminer le polynôme d’interpolation d’Hermite de la fonction f relativement
aux points x0 , . . . , xn et aux entiers α0 , . . . , αn , il suffit de construire une base particulière
de Pm , et d’expliciter Pm dans cette base.
Construction de la base: Soit, pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi }, Pi,l le
polynôme solution du problème suivant:

 Trouver Pm ∈ Pm vérifiant: 
(r) bj,r = 1 si (j, r) = (i, l)
 Pm (xj ) = bj,r avec
bj,r = 0 si (j, r) 6= (i, l)

33
Chapitre 2. Interpolation polynômiale

Alors les polynômes Pi,l forment une base de Pm . En effet, on a (m + 1) polynômes Pi,l
et ces polynômes forment une famille libre. Il suffit de considèrer l’équation suivante:
X
βi,l Pi,l (x) = 0,
i,l

et de l’écrire, ainsi que les dérivées d’ordre k ≤ αi , pour chaque xi et d’en déduire que
βi,l = 0. Alors, tout polynôme P (x) de Pm s’écrit d’une manière unique sous la forme:
n X
X αi
P (x) = ( βi,l Pi,l (x)).
i=0 l=0

En particulier, Pm (x) le polynôme d’interpolation d’Hermite de la fonction f :


n X
X αi
Pm (x) = ( f (l) (xi )Pi,l (x)).
i=0 l=0

Déterminons alors les polynômes Pi,l (x). Posons


n  αj +1
Y x − xj
qi (x) = .
j=0
xi − xj
j6=i

On construit Pi,l de la manière suivante:

(x − xi )αi
Pi,αi (x) = qi (x)
αi !
αi
(x − xi )l X
l
 (j−l)
Pi,l (x) = qi (x) − j qi (xi )Pi,j (x) l = αi − 1, αi − 2, . . . 1, 0
l! j=l+1

Il est très facile de vérifier que les Pi,l sont solutions du problème posé au départ.

Remarque 2.5.2 Si αi = 0 pour i ∈ {0, 1 . . . , n}, on se ramène au cas de l’interpolation


de Lagrange.

2.6 Erreur d’interpolation

Sous les hypothèses du paragraphe précédent, soit Pm le polynôme d’interpolation


(l)
d’Hermite relativement aux points x0 , . . . , xn et aux entiers α0 , . . . , αn tel que Pm (xi ) =
f (l) (xi ) = yi,l , ∀i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi } et soit un t nombre donné. On veut
approcher la valeur de la fonction f au point t par la valeur du polynôme Pm en ce point
et estimer l’erreur d’interpolation E(t) = f (t) − Pm (t) commise.
Supposons que la fonction f ∈ C m+1 (It ) où It est le plus petit intervalle contenant
X n
x0 , . . . , xn , t et m = n + αi . On a le théorème suivant:
i=0

34
2.6 Erreur d’interpolation

Théorème 2.6.1 Il existe ξ ∈ It tel que

f (m+1) (ξ)
E(t) = f (t) − Pm (t) = φm+1 (t),
(m + 1)!
avec n
Y
φm+1 (t) = (t − xi )1+αi .
i=0

Démonstration
1er cas: t ∈ {x0 , . . . , xn } alors E(t) = φm+1 (t) = 0 et ξ est quelconque.
E(t)
2ème cas: t 6∈ {x0 , . . . , xn }. Considérons alors la fonction F (x) = E(x)− φm+1 (x)
φm+1 (t)
on a: F est une fonction de classe C m+1 . On a F (t) = 0 donc t est zéro de la fonction F .
De plus, F (l) (xi ) = 0 pour i ∈ {0, 1, . . . , n} et l ∈ {0, . . . , αi } donc xi est un zéro d’ordre
1 + αi de F .
D’après le lemme de Rolle, entre deux zéros distincts de F , il y a un zéro de F 0 . D’où
0
F admet n+1 zéros dans It autres que x0 , . . . , xn et t. De plus pour tout i ∈ {0, 1, . . . , n},
Xn
xi est un zéro d’ordre αi de F 0 (si αi 6= 0). En conclusion, F 0 admet n+1+ αi = m+1
i=0
zéros (égaux ou distincts) dans It .
00
En réitérant le raisonnement, F admet m zéros (égaux ou distincts) dans It et de
proche en proche F (m+1) admet un zéro dans It . Soit ξ ce zéro. On a donc F (m+1) (ξ) = 0,
c’est-à-dire
E(t) (m+1)
E (m+1) (ξ) − φ (ξ) = 0.
φm+1 (t) m+1
Or
E (m+1) (ξ) = f (m+1) (ξ) − Pm(m+1) (ξ) = f (m+1) (ξ) (car deg(Pm ) ≤ m)
(m+1)
et deg(φm+1 ) = m + 1 d’où φm+1 = (m + 1)!.
E(t) (m+1) E(t)
Enfin E (m+1) (ξ) − φm+1 (ξ) = 0 s’écrit : f (m+1) (ξ) − (m + 1)! = 0.
φm+1 (t) φm+1 (t)
D’où
f (m+1) (ξ)φm+1 (t)
E(t) = .
(m + 1)!

Corollaire 2.6.1 Soit Pn le polynôme d’interpolation de Lagrange d’une fonction f rel-


ativement aux points x0 , . . . , xn . Soit t un réel donné. Supposons que f ∈ C (n+1) (It ) où
It est le plus petit segment contenant x0 , . . . , xn et t. Alors il existe ξ ∈ It tel que

f (n+1) (ξ) Y
f (t) − Pn (t) = (t),
(n + 1)! n+1

n
Y
Q
avec n+1 (t) = (t − xi ).
i=0

35
Chapitre 2. Interpolation polynômiale

Démonstration
C’est un cas particulier du théorème précédent avec αi = 0 pour i = 0, 1, . . . , n.

36
CHAPITRE 3

INTÉGRATION NUMÉRIQUE

3.1 Introduction

On cherche à calculer l’intégrale:


Z b
I= f (x)w(x)dx, (3.1)
a

avec w(x) et f (x) deux fonctions définies sur [a, b] telles que w(x) > 0 sur ]a, b[ et f (x)w(x)
est intégrable sur [a, b].
Hormis quelques cas simples, où une primitive de f w peut être trouvée (et il faut
inclure dans ce cas le calcul par changement de variables où l’intégration par parties), on
ne sait pas calculer cette intégrale.
En outre, il arrive fréquemment qu’on ne connaisse la fonction que par ses valeurs
en certains points. Il est alors hors de question de calculer exactement l’intégrale I.
L’intégration numérique est une idée ”naturelle”. L’intégrale de Riemann en fournit
l’idée première.
On considère une subdivision uniforme : a = x0 < x1 < · · · < xn = b de l’intervalle
[a, b], (xi = a + i b−a
n
, i ∈ {0, 1, . . . , n}) et on remplace I par:
b n n
b−aX
Z X
I= f (x)w(x)dx ≈ (xi − xi−1 ) f (αi )w(αi ) = f (αi ) w(αi ) = Sn ,
a i=1
n i=1

avec αi ∈ [xi−1 , xi ].
Z b
Et on a lim Sn = I = f (x)w(x)dx.
n→+∞ a
Z b
La procédure de l’intégration numérique est donc de chercher à remplacer f (x)w(x)dx
a
par une somme finie:
Z b n
X
f (x)w(x)dx = λi f (αi ) + En (f ) (3.2)
a i=1

n
X
où En (f ) désigne le terme de l’erreur commise en remplaçant I par λi f (αi ). De
i=1
telles formules sont appelées formules de quadrature.
L’idée de base dans la recherche des points xi (noeuds de la formule de quadrature)
et des coefficients λi (poids de la formule de quadrature), c’est de remplacer la fonction
f par un polynôme d’interpolation. Dans ce cas, deux formules seront présentées:

• Les formules de Newton-Cotes.


Chapitre 3. Intégration numérique

• Les formules de quadrature de Gauss.

Remarque 3.1.1 Lorsque les poids λi sont indépendants de la fonction f (c’est le cas
n
X
pour les formules de type interpolation), les applications: f → λi f (αi ) et f → En (f )
i=1
sont linéaires.

Remarque 3.1.2 En remarquant que


Z b Z 1
b−a b−a b+a
g(x)dx = g( t + ) dt
a 2 −1 2 2

on peut toujours ramener l’intégration sur [a, b] à une intégration sur [−1, +1] qu’on peut
prendre comme intervalle de référence.

Définition 3.1.1 On dira que la formule de quadrature (4.2) est de degré k si En (P ) = 0


pour tout P dans Pk et s’il existe P ∈ Pk+1 tel que En (P ) 6= 0, où Pj est l’ensemble des
polynômes de degré ≤ j.
Autrement dit, en tenant compte de la remarque 3.1, la formule de quadrature (4.2) est
de degré k si: pour toute base (P0, P1, . . . .Pk , Pk+1 ) de Pk+1 avec deg(Pi ) = i, on a :
En (Pi ) = 0 ∀ i ∈ {0, ..., k} et En (Pk+1 ) 6= 0.

Exemple 3.1: (Formule du rectangle à gauche )


On prend dans la formule (4.2) αi = xi−1 et w(x) = 1, on obtient alors la formule suivante:
Z b n
b−a X
f (x)dx = f (xi−1 ) + En (f )
a n i=1
n−1
b−a X b−a
= f (a + i ) + En (f )
n i=0 n

Détermination du terme d’erreur En (f ) :


Supposons que f est de classe C 1 sur [a, b]. D’après la formule des accroissements finis,
on a:
Pour tout x ∈ [xi , xi+1 ], il existe ξi ∈ [xi , xi+1 ] tel que:
f (x) = f (xi ) + (x − xi ) f 0 (ξi )
d’où Z x Z x
i+1 i+1
f (x)dx = (xi+1 − xi ) f (xi ) + (x − xi ) f (ξi )dx
xi xi
Or, puisque f 0 est continue et x − xi ≥ 0 sur [xi, xi+1 ], il existe, d’après le théorème de la
moyenne appliqué à f 0 , un élément ηi ∈ [xi , xi+1 ] tel que:
Z xi+1 Z xi+1
0 (xi+1 − xi )2 0
(x − xi )f (ξi )dx = f (ηi ) (x − xi )dx = f (ηi )
xi xi 2
On a alors:

38
3.1 Introduction

Z b n−1 Z
X xi+1
f (x)dx = f (x) dx
a i=0 xi
n−1 n−1
X X (xi+1 − xi )2 0
= (xi+1 − xi ) f (xi ) + f (ηi )
i=0 i=0
2
n−1 n−1
b−aX (b − a)2 X 0
= f (xi ) + f (ηi )
n i=0 2n2 i=0
D’après le théorème de la moyenne, il existe η ∈ [a, b] tel que :
n−1
1X 0
f (ηi ) = f 0 (η).
n i=0
On obtient enfin :
b n−1
b−aX b−a (b − a)2 0
Z
f (x)dx = f (a + i ) + f (η) avec η ∈ [a, b]
a n i=0 n 2n

Exemple 3.2: (Formule du rectangle à droite )


On prend dans la formule (4.2) αi = xi et w(x) = 1, on obtient de la même manière que
précédemment la formule suivante:

b n
b−aX b−a (b − a)2 0
Z
f (x)dx = f (a + i ) + f (η) avec η ∈ [a, b]
a n i=1 n 2n

Exemple 3.3: (Formule du point milieu)


xi + xi−1
On prend dans la formule (4.2) αi = et w(x) = 1, on obtient la formule
2
suivante :

b n−1
b−aX
Z
x + xi+1
f (x)dx = f( i ) + En (f )
a 2 i=0 2

Détermination de l’erreur En (f )
Supposons que f est de classe C 2 sur [a, b]. D’après la formule de Taylor, on a: pour tout
x ∈ [xi , xi+1 ], il existe ξi ∈ [xi , xi+1 ] tel que:
x + xi+1 x + xi+1 0 xi + xi+1 1 x + xi+1 2 00
f (x) = f ( i ) + (x − i )f( ) + (x − i ) f (ξi )
2 2 2 2 2
En procédant comme dans l’exemple 3.1 et en remarquant que:
Z xi+1
x + xi+1
(x − i )dx = 0 ,
xi 2
on aboutit à la formule :
b n−1
b−aX b−a (b − a)3 00
Z
f (x)dx = f (a + (2i + 1) ) + f (η) avec η ∈ [a, b]
a n i=0 2n 24n2

39
Chapitre 3. Intégration numérique

3.2 Formules de Newton-Cotes fermées

3.2.1 Formules simples


Ce sont des formules de type interpolation en des points équidistants. Compe tenu de
la remarque 3.2, considérons l’intervalle de référence [−1, +1]. Il s’agit alors de construire
des formules du type:
Z 1 p
X
g(t)dt = 2 λi,p g(ti ) + Ep+1 (g) (3.3)
−1 i=0
p
X
Avec p un entier naturel donné. Posons Ip (g) = 2 λi,p g(ti )
i=0
Les formules de Newton-Cotes fermées consistent à choisir:
1/ Les noeuds ti équidistants avec t0 = −1 et tp = 1 donc ti = −1+ p2 i pour i = 0, ..., p.
Z 1
2/ Les poids λi,p tels que Ip (g) = Pp (t)dt où Pp est le polynôme d’interpolation
−1
de la Lagrange de g relativement aux points t0 , t1 , . . . , tp .

Lemme 3.2.1
Les coefficients λi,p (p fixé, et i = 0, 1, ..., p) sont donnés par la formule suivante:
1 1
Z
λi,p = Li (t)dt
2 −1
où Li (t) est le polynôme de Lagrange de base relativement aux points t0 , t1 , . . . , tp .
ou encore Z p
p Y t − j
λi,p = p1 ( )dt pour i ∈ {0, 1, ..., p}.
0 i − j
j=0
j 6= i

Démonstration
Soient L0 , L1 , . . . , Lp les polynômes de base de Lagrange associés aux points t0 , t1 , ..., tp .
Le polynôme Pp (t) d’interpolation de la fonction g aux points t0 , t1 , ..., tp s’écrit alors:
p
X
Pp (t) = g(ti )Li (t)
i=0
On a p
X
Ip (g) = 2 λi,p g(ti )
i=0
et p
Z 1 X Z 1
Pp (t)dt = g(ti ) Li (t)dt
−1 i=0 −1
D’où: p
1 1
t − tj
Z Z
1 1 Y
λi,p = Li (t)dt ( )dt pour i ∈ {0, 1, ..., p}
2 −1 2 −1 ti − tj
j=0
j 6= i

40
3.2 Formules de Newton-Cotes fermées

Soit le changement de variable suivant: t = −1 + p2 s alors:


Z p Y p
1 s − j
λi,p = ( )ds pour i ∈ {0, 1, ..., p}
p 0 i − j
j=0
j 6= i

Lemme 3.2.2
Les coefficients λi,p (p fixé , et i = 0, 1, ..., p ) vérifient :

λp−i,p = λi,p pour i ∈ {0, 1, ..., p}

Démonstration
D’après le lemme 3.1
Z p p
1
Y s − j
λp−i,p = p ( )ds pour i ∈ {0, 1, ..., p}
0 p− i − j
j=0
j 6= p − i
Si on calcule cette intégrale en faisant le changement de variables suivant: t = p − s on
obtient: Z p p Z p Y p
1 Y p−t − j 1 t − j
λp−i,p = ( )dt = ( )dt = λi,p
p 0 p− i − j p 0 i − j
j=0 j=0
j 6= p − i j 6= i

Lemme 3.2.3
Si la fonction g est une fonction impaire sur [−1, 1], alors l’erreur de la formule d’intégration
(4.3) est nulle: Ep+1 (g) = 0.

Démonstration Z 1
Puisque la fonction g est une fonction impaire sur [−1, 1], on a g(0) = 0 et g(t)dt = 0.
−1
Comme
Z 1 p
X
g(t)dt = 2 λi,p g(ti ) + Ep+1 (g)
−1 i=0
on tire que
p
X
Ep+1 (g) = −2 λi,p g(ti )
i=0
d’autre part on a:
p
X X X
λi,p g(ti ) = λi,p g(ti ) + λi,p g(ti ) si p est impair
i=0 i≺p/2 ip/2
p
X X X
λi,p g(ti ) = λi,p g(ti ) + λ p2 ,p g(t p2 ) + λi,p g(ti ) si p est pair
i=0 i≺p/2 ip/2
Comme t p2 = 0 , g(0) = 0 , tp− i = −ti
donc

41
Chapitre 3. Intégration numérique

g(tp− i ) = −g(ti ) et que λp−i,p = λi,p


on a : p
X X X
λi,p g(ti ) = λi,p g(ti ) + λp−i,p g(tp−i )
i=0 i≺p/2 ip/2
X X
= λi,p g(ti ) − λi,p g(ti ) = 0.
i≺p/2 i≺p/2
On conclut donc que Ep+1 (g) = 0.

Proposition 3.2.1
Si p est impair, alors la formule (4.3) est de degré ≥ p.
Si p est pair, alors la formule (4.3) est de degré ≥ p + 1.

Démonstration
On aZpour i ≤ p
1
Li (t)dt = 2 λi,p
−1
Or par construction
 les polynômes Li vérifient :
1 si i = j
Li (tj ) =
0 si i 6= j
donc p
X
λj,p Li (tj ) = λi,p .
j=0
Si on applique la formule (4.3) aux polynômes de base de Lagrange Li , on obtient:
Z 1 p
X
Li (t)dt = 2 λj,p Li (tj ) + Ep+1 (Li )
−1 j=0
on tire donc que Ep+1 (Li ) = 0
Comme les polynômes de Lagrange L0 , L1 , . . . , Lp forment une base de l’espace vectoriel
Pp on a alors: pour tout P ∈ Pp Ep+1 (P ) = 0. Donc la formule est de degré≥ p.
Si, de plus, p est un entier pair alors la fonction g(t) = tp+1 est une fonction impaire et
donc Ep+1 (tp+1 ) = 0, d’après le lemme 3.3.

Proposition
 3.2.2
p si p est impair
Soit N =
p + 1 si p est pair
on a p 
X
k 0 pour k ≤ N , k impair
λj,p tj = 1
k +1
pour k ≤ N , k pair
j=0
p
X
En particulier λj,p = 1.
j=0

Démonstration
D’après la proposition 3.1, on a ∀ k ≤ N Ep+1 (tk ) = 0. Ce qui donne :
p Z 1 
X
k k 0 si k ≤ N et k impair
2 λj,p tj = t dt = 2
−1 k +1
si k ≤ N , k pair
j=0

42
3.2 Formules de Newton-Cotes fermées

Exemple 3.4 (Formule du Trapèze)


On considère le cas p = 1, w(t) = 1 , t0 = −1 , t1 = 1 , λ0,1 = λ1,1 = 12 , on obtient la
formule suivante:
Z 1
g(t)dt = g(−1) + g(1) + E2 (g)
−1

Détermination de l’erreur E2 (g)


Supposons que g est de classe C 2 sur [−1, 1] et soit P1 le polynôme d’interpolation de
Lagrange de g aux points −1, +1, alors on a
g 00 (ηt )
g(t) − P1 (t) = (t − 1)(t + 1) avec ηt ∈ [−1, 1]
2
d’où Z 1 00
R1 g (ηt )
E2 (g) = −1 (g(t) − P1 (t))dt = ( (t − 1)(t + 1) )dt
−1 2
Puisque le polynôme (t2 − 1) garde un signe constant sur [−1, 1] et g 00 est une fonction
continue sur [−1, 1], on peut donc appliquer le théorème de la moyenne et on obtient:
il existe η ∈ [−1, 1] tel que
g 00 (η) 1 2
Z
2
E2 (g) = (t − 1) dt = − g 00 (η)
2 −1 3
Et d’après la remarque 3.2, on aura pour tout f de classe C 2 sur [a, b] on a:
b
b−a (b − a)3 00
Z
f (x)dx = (f (a) + f (b)) − f (η) η ∈ [−1, 1]
a 2 12

3.2.2 Etude de l’erreur dans les formules de Newton-Cotes


Théorème 3.2.1
1/ Si p est pair , si f est de classe C p+2 ([a.b]), alors il existe η ∈ [a, b] tel que:
b p p p
b−a b − a p+3 f (p+2) (η)
Z X Z Y
f (x)dx = (b − a) λi,p f (a + i ) − ( ) t2 (t − j)dt
a i=0
p p (p + 2)! 0 j=1

2/ Si p est impair, si f est de classe C p+1 ([a, b]), alors il existe η ∈ [a, b] tel que:
b p p p
b−a b − a p+2 f (p+1) (η)
Z X Z Y
f (x)dx = (b − a) λi,p f (a + i ) − ( ) (t − j)dt
a i=0
p p (p + 1)! 0 j=0

Démonstration
Nous donnons la démonstration dans le cas où p est pair. Le cas où p est impair est à
traiter en exercice.
Soit g ∈ C p+2 ([−1, 1]). Soit x ∈ [−1, 1]. Soit P le polynôme d’interpolation de Lagrange
aux points tj = −1 + p2 j , j = 0, 1, . . . , p.
Posons: p
Q Y
* (t) = (t − j)
j=0

43
Chapitre 3. Intégration numérique


g(x) − P (x)
h(x) = si x 6∈ {t0 , ...tp }

 Q
(x)



et (3.4)

 g 0 (tk ) − P 0 (tk )
 h(tk ) = pour k = 0, . . . , p

 Q0
(tk )
g 0 (x) − P 0 (x) − h(x) 0 (x)
Q
* α(x) = Q si x 6∈ {t0 , ...tp }
(x)
et Q0 Q00
00 00 0
* α(tk ) = (tk ) [g (tk )−P 2((tQ
k )]−
0
(tk ))2
(tk ) [g (tk )−P (tk )]
pour k = 0, . . . , p
On vérifie facilement que lim h(x) = h(tk ) et lim α(x) = α(tk )
x→tk x→tk
En effet
g(x) − P (x) (t − tk ) g(x) − P (x) (t − tk )
lim h(x) = lim Q = lim Q
x→tk x→tk (x) (t − tk ) x→tk (t − tk ) (x)
g 0 (tk ) − P 0 (tk )
= Q0 = h(tk )
(tk )
De la même manière, on obtient la deuxième égalité.
On conclut donc que les fonctions h et α sont continues sur [−1, 1].

Lemme 3.2.4
La fonction h définie par (3.4) est de classe C 1 sur [−1, 1]. De plus, ∀x ∈ [−1, 1],
g (p+2) (ξ)
h0 (x) = α(x) et il existe ξ = ξ(x) ∈ [−1, 1] tel que h0 (x) =
(p + 2)!

Démonstration Q
1/ En définissant les fonctions h, et α comme précèdemment, on voit que la fonction Q h
est dérivable en tout point x tel que x 6∈ {t0 , t1 , . . . .., tp } et on a g(x) − P (x) = (x)h(x)
d’où
g 0 (x) − P 0 (x) = 0 (x)h(x) + (x)h0 (x)
Q Q
et donc
g 0 (x) − P 0 (x) − 0 (x)h(x) = (x)h0 (x)
Q Q
D’après la définition de la fonction α, on obtient α(x) = h0 (x). Et comme α est continue,
on conclut donc que la fonction h est de classe C 1 sur [−1, 1] et α(x) = h0 (x) pour tout
x ∈ [−1, 1]. Q Q
2/ Posons, pour x ∈ [−1, 1], Qx (t) = P (t) + h(x) (t) + (t − x)α(x) (t). On peut vérifer
facilement qu’on a: Q
* Le polynôme Qx est un polynôme de degré (p + 2), car est est un polynôme de
degré (p + 1) et donc Qx ∈ IPp+2 .
* Qx (ti ) = g(ti ) pour i = 0, 1, ..., p
* Qx (x) = g(x) et Q0x (x) = g 0 (x) pour tout x
* Q00x (x) = g 00 (x) pour x ∈ {t0 , t1 , ..., tp }
Posons φ(t) = g(t) − Qx (t) alors on a:
* φ(ti ) = 0 pour i ∈ {0, ..., p}
* φ(x) = φ0 (x) = 0
* φ00 (x) = 0 pour x ∈ {t0 , t1 , ..., tp }

44
3.2 Formules de Newton-Cotes fermées

En appliquant le théorème de Rolle successivement à φ, φ0 , φ00 , . . . ..., φ(p) , on aboutit à


l’existence de ξ = ξ(x) ∈ [−1, 1] tel que φ(p+1) (ξ) = 0.
Or
(p+2)
Qx (t) = (p + 2)!α(x)
car
P (p+2) (t) = (p+2) (t) = 0
Q
Q (p+2)
et ((t − x) (t)) = (p + 2)!
(p+2)
donc: φ (p+1)
(ξ) = 0 d’où α0 (x) = g (p+2)!(ξ)

Lemme 3.2.5
m−1
Y
Q
Si p est un entier pair, p = 2m, et (t) = (t − tj ) alors la fonction définie par:
j=0
Z x Y
u(x) = (t)dt ∀x ∈ [−1, 1]
−1

vérifie

u(x) ≥ 0 ∀x ∈ [−1, 1]
u(1) = u(−1) = 0

Démonstration
1/ on a:
Y2m m−1
Y
(t2 − t2j )
Q
(t) = (t − tj ) = t
j=0 Q j=0
car t2m−j = −tj et donc (t) estQune fonction impaire et alors u(1) Q = u(−1) = 0.
2/Soit k ∈ {0, 1, ..., p}. On a (t) ≥ 0 pour t ∈ [t2k , t2k+1 ] et (t) ≤ 0 pour t ∈
[t2k+1 , t2k+2 ]. La fonction u est donc croissante sur [t2k , t2k+1 ] et elle est décroissante sur
[t2k+1 , t2k+2 ].
3/On Za, pour tout k tel que: Z t2k+12kY+ 2 ≤ m,Z
t2k+2 Y t2k+2 Y
(t)dt = (t)dt + (t)dt
t2k t t
Z 2kt2k+1 Y
2m
2k+1
Z 2m
t2k+2 Y
= (t − tj )dt + (t − tj )dt
t2k j=0 t2k+1 j=0
2
(posons s = t − 2m )
2m
Z t2k+1 Y Z t2k+1 2m−1
Y
= (t − tj )dt + (s − tj )ds
t2k j=0 t2k j=−1
Z t2k+1 2k
Y 2m−1
Y
= (t − t2m + t − t−1 ) (t − tj ) (t − tj )dt
t2k j=0 j=2k+1
2
( Comme tj = −1 + 2m j)
Z t2k+1 2k 2m−1
1 Y Y
= 2(t + ) (t − tj ) (t − tj )dt
t2k 2m j=0 j=2k+1
Or, pour t ∈ [t2k , t2k+1 ], on a:

45
Chapitre 3. Intégration numérique

1 1 2 1
(t + ) ≤ (t2k+1 + ) = −1 + (2k + 1) +
* 2m 2m 2m 2m
1 −1
= −1 + (4k + 2 + 1) ≤ ≤ 0 (car 2k + 2 ≤ m )
2m 2
2k
Y
* (t − tj ) ≥ 0 ( produit de (2k + 1) facteurs positifs).
j=0
2m−1
Y
* (t − tj ) ≤ 0 (produit de (2m − 2k − 1) facteurs négatifs).
j=2k+1
Z t2k+2 Y
donc (t) dt ≥ 0 pour tout k tel que 2k + 2 ≤ m
t2k
4/on a pour tout k tel que m < 2k + 2 ≤ 2m
Z t2k+2 Y
u(t2k+2 ) = (t) dt
−1
Z t2m−2k−2 Y Z t2k+2 Y
= (t) dt + (t) dt
−1 Z t2k+2 Y t2m−2k−2
= u(t2m−2k−2 ) + (t) dt car t2m−2k−2 = −t2k+2
t−2k−2 Q
= u(t2m−2k−2 ) car est impaire
D’où u(t2k+2 ) ≥ 0 d’après 3/ et puisque 2m − 2k − 2 ≤ m.
En conclusion, on a u(t2k+2 ) ≥ 0 pour tout k ∈ {0, . . . , m − 1}. Et comme la fonction u
est donc croissante sur [t2k , t2k+1 ] et décroissante sur [t2k+1 , t2k+2 ] (d’après 1/ et 2/ ), on
a alors u(x) ≥ 0 pour tout x ∈ [−1, 1].

Démonstration du théorème 3.1


On a:
Z 1 p
X
Ep+1 (g) = g(t)dt − 2 λi,p g(ti )
−1 i=0
Z 1 Z 1 Y
= (g(t) − P (t))dt = h(t) (t)dt
−1 −1
Par intégration par parties, on obtient:
Z 1 Z 1
+1
Ep+1 (g) = [h(t)u(t)]−1 − h0 (t)u(t)dt =− h0 (t)u(t)dt
−1 −1
d’où d’après le lemme 3.4,
Z 1 (p+2)
g (ξt )
Ep+1 (g) = − u(t)dt
−1 (p + 2)!
Comme la fonction u est de signe constant et g (p+2) est continue sur [−1, 1], on en déduit,
en appliquant le théorème des valeurs intermédiaires, l’existence d’un réel θ ∈ [−1, 1] tel
que:
Z 1
g (p+2) (θ)
Ep+1 (g) = − u(t)dt
(p + 2)! −1
Or, par une intégration par parties, on obtient:

46
3.3 Formules de Newton-Cotes composées

Z 1 Z 1 p
R1 Y
1)u(t)]+1
Q
u(t)dt = [(t + −1 − −1
(t + 1) (t)dt = (t + 1) (t − tj ) dt
−1 −1 j=0
Z 1 p
Y j
= (t + 1)2 (t + 1 − ) dt changement de variable s = t + 1
−1 j=1
m
Zp 2
Y
2j 1
=− s (s − ) ds changement de variable s = m
t
0 j=1
m
 p+3 Z p p
1 2
Y
=− t (t − j) dt
m 0 j=1
D’où Z
: p p+3 p
1 p
g (p+2) (θ)
 Z
X 1 2
Y
g(t)dt = 2 λi,p g(ti ) + t (t − j) dt
−1 i=0
m (p + 2)! 0 j=1
En utilisant la remarque 3.2, on obtient:
b p p p
b−a b − a p+3 f (p+2) (η)
Z X Z Y
2
f (x)dx = (b − a) λi,p f (a + i ) − ( ) t (t − j)dt
a i=0
p p (p + 2)! 0 j=1

avec η ∈ [a, b]

Exemple 3.5 (Formule de Simpson ) Z 2


1 2 4
Cas p = 2. On a λ0,2 = λ2,2 = , λ1,2 = et t2 (t − 1)(t − 2)dt = − . On a donc:
6 3 0 15
Z b
(b − a)5 (4
 
(b − a) a+b
f (x)dx = f (a) + 4f ( ) + f (b) − f (η) avec η ∈ [a, b]
a 6 2 2880

Exemple 3.6 (Formule De Boole)


7 2 16
Cas p = 4. On a λ0,4 = λ4,4 = 90 , λ1,4 = λ3,4 = , λ2,4 = 15 . 45
b−a
L’application du théorème 3.1 donne en posant h = :
Z b 4
(b − a)
f (x)dx = (7f (a) + 32f ( a + h) + 12 f (a + 2h) + 32f (a + 3h)
a 90
+7f (b) ) + E
 7
8 b−a
avec E = − f (6) (η) et η ∈ [a, b]
945 4

3.3 Formules de Newton-Cotes composées

D’après l’expression du terme d’erreur dans les formules de Newton-Cotes, on con-


state que ces formules sont d’autant plus précises que la longeur de l’intervalle d’intégration
b − a est petit. C’est pour cela que ces formules sont en général utilisées d’une manière
”composée”. Plus précisément: on subdivise l’intervalle [a, b] en n sous-intervalles de
même longueur: a = α0 < ... < αn = b avec αi = a + i b−a n
(i = 0, 1, . . . , n), ) puis on
écrit:

47
Chapitre 3. Intégration numérique

Z b n−1
X Z αi+1
f (x)dx = f (x) dx
a i=0 αi

On applique alors la formule de quadrature sur [αi , αi+1 ], on obtient le:

Théorème 3.3.1 p
p
b−a t − j
Z
∗ 1 Y
Soient p , n ∈ IN . On a, en posant h = et λi,p = ( )dt
n p 0 i − j
j=0
j 6= i
Z b n−1
X
f (x)dx = h λ0 [ f (a) + f (b) ] + 2λ0 f (a + ih)
a i=1
p−1 n−1
! (3.5)
X X h
+ λj f (a + ih + j ) + Ep+1,n (f )
j=1 i=0
p

avec:
1/ Si p est pair et la fonction f est de classe C p+2 sur [a, b]
 p+3  p+2 (p+2) Z p p
b−a 1 f (η) 2
Y
Ep+1,n (f ) = t (t − j) dt avec η ∈ [a, b]
p n (p + 2)! 0 j=1

2/ Si p est impair et la fonction f est de classe C p+1 sur [a, b]


 p+2  p+1 (p+1) p
Z p Y
b−a 1 f (η)
Ep+1,n (f ) = (t − j) dt avec η ∈ [a, b]
p n (p + 1)! 0 j=1

Démonstration
On a d’après le théorème 3.1:
Z b n−1 Z αi+1
X
f (x)dx = f (x) dx
a i=0 αi
p
n−1
!
X X αi+1 − αi
= (αi+1 − αi ) λj f (αi + j ) + Ei (f )
i=0 j=0
p
avec:
1/Si p est pair et la fonction f est de classe C p+2 sur [a, b]
 p+3 (p+2) Z p p
αi+1 − αi f (ηi ) 2
Y
Ei (f ) = t (t − j) dt avec ηi ∈ [αi , αi+1 ]
p (p + 2)! 0 j=1
2/ Si p est impair et la fonction f est de classe C p+1 sur [a, b]
 p+2 (p+1) Z p Y p
αi+1 − αi f (ηi )
Ei (f ) = (t − j) dt avec ηi ∈ [αi , αi+1 ]
p (p + 1)! 0 j=0
Or:
αi+1 − αi h
* =
p p

48
3.3 Formules de Newton-Cotes composées

d’où:
p
n−1
!
X X αi+1 − αi
(αi+1 − αi ) λj f (αi + j )
i=0 j=0
p
p−1
n−1 n−1 X
!
X X h
=h ((λ0 f (αi ) + λp f (αi+1 )) + λj f (αi + j )
i=0 i=0 j=1
p
p−1
n−1 n−1
!
X X X h
= h (λ0 [f (a) + f (b)] + 2λ0 f (a + ih) + λj f (αi + j )
i=1 j=1 i=0
p
* D’après le théorème des valeurs intermédiaires, on a
n−1
1 X (k)
f (ηi ) = f (k) (η) avec η ∈ [a, b],
n j=1
où k = p + 1 si p est impair et k = p + 2 si p est pair.
En utilisant ces trois égalités dans la formule donnée au début de la démonstration, on
obtient la formule du théorème.

Exemple 3.7: (Formule du trapèze composée)


Pour p = 1 et n ∈ IN ∗ on a:
n−1
!
(b − a) 3 00
Z b
b−a X b − a
f (x)dx = ( ) f (a) + f (b) + 2 f (a + i ) − f (η)
a 2n i=1
n 12n2

Exemple 3.8: (Formule de Simpson composée)


Pour p = 2 et n ∈ IN ∗ on a:
" n−1
b
b−a b − a
Z X
f (x)dx = ( ) f (a) + f (b) + 2 f (a + i )
a 6n i=1
n
n−1
#
X 1 b − a
+4 f (a + (i + )( )
i=0 
2 n
5
1 b−a
− 4
f 00 (η)
90n 2
Exemple 3.9:(Formule de Boole composée)
Pour p = 4 et n ∈ IN ∗ on a:
Z b
(b − a)
f (x)dx = (7f (a) + 32f ( a + h) + 12 f (a + 2h)
a 90
+32f (a + 3h) + 7f (b) ) + E
 7
8 b−a
avec E = − f (6) (η) et η ∈ [a, b]
945 4

49
Chapitre 3. Intégration numérique

Z b n−1
h X
f (x)dx = ( ) 7[f (a) + f (b)] + 14 f (a + ih)
a 90 i=1
n−1  
X 1 3
+32 f (a + (i + )h)) + f (a + (i + )h)
i=0
4 4
n−1
!
X 1
+12 f (a + (i + )h)
i=0 
2
7
8 b−a
− 6
f (6) (η)
945n 4

3.4 Formule de quadrature de Gauss

On considère la formule de quadrature :


Z b p
X
f (x)w(x)dx = λi f (αi ) + Ep+1 (f ) (3.6)
a i=0

Choisissons les poids λi ainsi que les noeuds xi tels que la formule (4.3) soit de degré le
plus élevé possible .
Exemple 3.10:
Cas où p = 1, w(x) = 1 et [a, b] = [−1, 1].
Cherchons λ0 , λ1 , x0 , x1 tels que la formule:
Z b
f (x)w(x)dx = λ0 f (x0 ) + λ1 f (x1 ) + E2 (f ),
a
soit de degré le plus élevé possible, c’est à dire tels que: E2 (f ) = 0 pour f (x) = xk avec
k = 0,
Z 1, .., m, et m le plus élevé possible. On aura donc:
1
1dx = λ0 + λ1 = 2
Z−11
xdx = λ0 x0 + λ1 x1 = 0
Z−11
2
x2 dx = λ0 x20 + λ1 x21 =
3
Z−11
x3 dx = λ0 x30 + λ1 x31 = 0
−1
etc...
Les quatres premières équations √forment un système non linéaire qui admet comme solu-
tion λ0 = λ1 = 1, x0 = −x1 = 33
On obtient
Z 1 donc la formule:
√ √
3 3
f (x)dx = f (− ) + f( ) + E2 (f )
−1 3 3
où E2 (f ) est un polynôme de degré 3.

3.4.1 Polynômes orthogonaux


Soit w : [a, b] → R telle que :

50
3.4 Formule de quadrature de Gauss

* w soit continue sur ]a, b[ et w(x) > 0, ∀x ∈ ]a, b[


*x → xk w(x) soit intégrable sur [a, b], ∀ k ∈ IN
On définit sur IP (l’espace vectoriel des polynômes à coefficients réels) le produit scalaire:
Z 1
(P, Q)w = w(x)P (x)Q(x)dx
−1

Théorème 3.4.1
Il existe une suite (Qn )n∈IN unique de polynômes telle que :
1/ deg(Qn ) = n et Qn est monique (i.e: Le coefficient de xn est 1 dans Qn )
2/ Pour tout P dans Pn−1 (le sous espace vectoriel de IP des polynômes de degré ≤ n − 1)

(P, Qn )w = 0

Et la suite (Qn ) est définie par :


Q0 (x) = 1
Q1 (x) = x − (1,x) w
(1,1)w
Qn (x) = (x − αn )Qn−1 (x) − βn Qn−2 (x)
(xQn−1 , Qn−1 )w γn−1
avec αn = , βn = et γk = (Qk , Qk )w
γn−1 γn−2

Démonstration
1/Existence:
En utilisant le procédé d’orthogonalisation de Gram-Schmidt sur la base canonique 1, x, x2 , ...,
on obtient:
Q0 (x) = 1
(1, x)w
Q1 (x) = x −
(1, 1)w
n−1
X (xn , Qi )w
Qn (x) = xn − ai,n Qi (x) avec ai,n =
i=0
γi
Les polynômes Q0 , Q1 , ..., Qn forment une base de l’espace vectoriel Pn .Ils sont orthogo-
naux entre eux par construction et ils vérifient les conditions 1/ et 2/. Il est clair que 1/
et 2/ entrainent l’unicité de Qn .
2/ Calcul des coefficients
On a que, pour tout k ∈ IN ∗ , les polynômes Q0 , Q1 , ..., Qk forment une base de l’espace
vectoriel IPk et que tous les polynômes Qk sont moniques. Alors, pour tout k ∈ IN ∗ ,
k−1
X
Qk − xQk−1 ∈ IPk−1 et il s’écrit d’une façon unique sous la forme Qk − xQk−1 = µi Qi .
i=0
Comme les Qi sont orthogonaux on a:
Xk−1 k−1
X
* ( Qk − xQk−1 , Qk )w = ( µi Qi , Qk )w = µi (Qi , Qk )w = 0
i=0 i=0
d’où
(Qk , Qk )w = (xQk−1 , Qk )w pour tout k ∈ IN ∗
* (Qk − xQk−1 , Qj )w = 0 pour tout j < k − 1 et pour tout k ∈ IN ∗

51
Chapitre 3. Intégration numérique

n−1
X

Soit n ∈ IN . Alors on a Qn − xQn−1 = µi Qi et on peut calculer les produits scalaires
i=0
suivants: !
n−1
X
* (Qn − xQn−1 , Qn−1 )w = µi Qi , Qn−1 = µn−1 (Qn−1 , Qn−1 )w
i=0 w
D’autre part
(Qn − xQn−1 , Qn−1 )w = (Qn , Qn−1 )w − (xQn−1 , Qn−1 )w = −(xQn−1 , Qn−1 )w
d’où
−(xQn−1 , Qn−1 )w
µn−1 =
(Qn−1 , Qn−1 )w !
Xn−1
(Qn − xQn−1 , Qn−2 )w = µi Qi , Qn−2 = µn−2 (Qn−2 , Qn−2 )w
i=0 w
D’autre part
(Qn − xQn−1 , Qn−2 )w = (Qn , Qn−2 )w − (xQn−1 , Qn−2 ) w = −(xQn−1 , Qn−2 )w
d’où
−(xQn−1 , Qn−2 )w (Qn−1 , xQn−2 )w
µn−2 = =−
(Qn−2 , Qn−2 )w (Qn−2 , Qn−2 )w
* (Qn − xQn−1 , Qj )w = 0 pour tout j < n − 2
On obtient donc Qn − xQn−1 = µn−1 Qn−1 + µn−2 Qn−2 d’où
Qn = (x − µn−1 )Qn−1 + µn−2 Qn−2
avec
(xQn−1 , Qn−1 )w (Qn−1 , xQn−2 )w
µn−1 = et µn−2 = −
(Qn−1 , Qn−1 )w (Qn−2 , Qn−2 )w
Et en posant
αn = µn−1 et βn = −µn−2 , on obtient les formules du théorème.

Définition 3.4.1
Les polynômes (Qn )n∈IN définis au théorème 3.3, s’appellent les polynômes orthogonaux
sur [a, b] relativement à la fonction poids w.

Exemples classiques 3.11:


1/[a, b] = [−1, 1] et w(x) = 1. on a:
Q0 (x) = 1
Q1 (x) = x
1
Q2 (x) = x2 −
3
2 3
Q3 (x) = x(x − )
5
6 3
Q4 (x) = x4 − x2 + etc...
7 35
Ces polynômes sont appelés les polynômes de Legendre.
1
2/[a, b] = [−1, 1] et w(x) = √1−x2 on a:

Q0 (x) = 1
1
Qn (x) = n−1 cos(n Arc cos(x)), n ∈ IN ∗
2
Ces polynômes sont appelés les polynômes de Tchebychev et sont en général notés

52
3.4 Formule de quadrature de Gauss

1
Tn (x) = cos(n Arc cos(x)) n ∈ IN ∗
2n−1

Théorème 3.4.2
Soit (Qn )n∈IN la suite des polynômes orthogonaux sur [a, b] relativement à la fonction
poids w. Alors les racines de Qn sont réelles, distinctes et appartiennent à ]a, b[ pour
n ∈ IN ∗ .

Démonstration
Soient α1 , α1 , . . . .., αm , les racines distinctes de Qn appartenant à ]a, b[. On a bien m ≤ n.
Montrons alors que m = n. Raisonnons par l’absurde et supposons que m < n
Ym
Q Q Q
Posons (x) = (x−αi ) alors le polynôme (x) ∈ Pn−1 car m < n donc ( (x), Qn (x))w =
i=0
0 Z b
Q
d’où w(x) (x)Qn (x)dx = 0,
a Q Q
comme w(x) (x)Qn (x) garde un signe constant sur ]a, b[ alors (x)Qn (x) ≡ 0 ce qui est
absurde car deg(Qn ) = n ≥ 1.

Théorème 3.4.3
Pour tout n ∈ IN ; il existe une formule de quadrature unique,
Z b n
X
f (x)w(x)dx = λi f (xi ) + En+1 (f )
a i=0

de degré ≥ 2n + 1. De plus:
1/ Les noeuds xi sont les racines de Qn+1 (le (n + 1)ième polynôme orthogonal sur ]a, b[
relativement à w).
Z b
2/ λi = Li (x) w(x)dx
a
où n
Y x − xj
Li (x) = ( ) pour i ∈ {0, 1, ..., n}
xi − xj
j=0
j 6= i
3/ Si f est de classe C 2n+2 sur [a, b] alors il existe η ∈ [a, b] tel que:
b
f (2n+2) (η)
Z
En+1 (f ) = [Qn+1 (x)]2 w(x) dx
(2n + 2)! a

Démonstration
1/ unicité
Posons n
Q Y
(x) = (x − xj )
j=0
et soit P ∈ Pn alors

53
Chapitre 3. Intégration numérique

Z bY
(x)P (x) w(x)dx = 0
Qa
est nécessairement le (n + 1)ième polynôme orthogonal
Q
car (x)P (x) ∈ P2n+1 . Donc
sur ]a, b[ relativement à w. Ses racines x0 , x1 , . . . , xn sont donc définies d’une manière
unique. De plus, en écrivant que la formule est exacte pour tout Li (x) (les polynômes de
base de Lagrange) appartenant à Pn , on obtient:
Z b
λi = Li (x) w(x)dx
a
Ce qui implique l’unicité des coefficients λi .
2/Existence
Soit Qn+1 le (n + 1)ième polynôme orthogonal sur ]a, b[ relativement à w. On sait que ses
racines sont distinctes et appartiennent à ]a, b[. Notons x0 , x1 , ..., xn ces racines alors
Y n
Qn+1 (x) = (x − xj ).
j=0
Posons Z b
λi = Li (x)w(x)dx
a
Considérons (L0 , . . . , Ln ) la base de l’espace IPn formé par les polynômes de Lagrange,
X n
alors tout polynôme P de Pn s’écrit d’une manière unique sous la forme P (x) = αi Li (x)
i=0
où les αi sont des constantes réelles.
Or puisque 
1 si i = j
Li (xj ) =
0 si 6= j
on a n
X
P (x) = P (xi ) Li (x)
i=0
d’où Z n n
b Z b X X Z b
P (x) w(x)dx = P (xi ) Li (x) w(x)dx = P (xi ) Li (x) w(x)dx
a a i=0 i=0 a
et donc
Z b n
X
P (x) w(x)dx = λi P (xi ) .
a i=0
La formule est donc exacte pour tout polynôme P appartenant à Pn .
Soit maintenant le polynôme S ∈ P2n+1 , la division Euclidienne du polynôme S par le
polynôme Qn+1 donne l’existence de deux polynômes P et R dans Pn tels que:

S(x) = P (x)Qn+1 (x) + R(x),

d’où, on a donc:
Z b Z b Z b
S(x)w(x)dx = P (x)Qn+1 (x) w(x)dx + R(x) w(x)dx
a Za b a
Xn Xn
= R(x) w(x)dx = λi R(xi ) = λi S(xi )
a i=0 i=0

54
3.4 Formule de quadrature de Gauss

Car la formule est exacte sur Pn et Qn+1 (xi ) = 0.


La formule est donc exacte pour tout S dans P2n+1 .
Pour S = L2i qui est un polynôme de P2n la formule est aussi exacte et on obtient:
Rb
λi = a L2i (x) w(x)dx et donc λi > 0 pour i = 0, 1, . . . , n.
3/ Etude de l’erreur
Soit H(x) le polynôme d’interpolation d’Hermite relativement aux points x0 , x1 ,..., xn tel
que H(xi ) = f (xi ) et H 0 (xi ) = f 0 (xi ) pour i = 0, 1, . . . , n. On a :
Z b X n Xn
H(x) w(x)dx = λi H(xi ) = λi f (xi )
a i=0 i=0
Or, si f est de classe C2n+2 sur [a, b] , on sait qu’il existe ξ dans [a, b] tel que :
n
f (2n+2) (ξ) Y
f (x) − H(x) = (x − xj )2
(2n + 2)! j=0
d’où Z b n
X
En+1 (f ) = f (x) w(x)dx − λi f (xi )
a i=0
Z b
= (f (x) − H(x)) w(x)dx
Za b
f (2n+2) (ξx ) 2
= Q (x)w(x)dx
a (2n + 2)! n+1
Comme la fonction Q2n+1 (x) garde un signe constant et que f (2n+2) est continue sur [a, b],
on aura :
f (2n+2) (η) b 2
Z
En+1 (f ) = Q (x)w(x)dx avec η ∈ [a, b].
(2n + 2)! a n+1

Remarque 3.3
En fait, la formule du théorème 3.5 est de degré exactement égal à 2n + 1. En effet, pour
f (x) = x2n+2 , on a f (2n+2) (η) = (2n + 2)! et donc
Z b
En+1 (f ) = Q2n+1 (x)w(x)dx.
a

Remarque 3.4
Dans la formule de quadrature de Gauss à (n + 1) points (théorème 3.5), les coefficients
λi peuvent s’exprimer sous la forme:
γn γn+1
λi = 0 =− 0
Q (xi )Qn (xi ) Qn+1 (xi )Qn+2 (xi )
Z bn+1
avec γk = Q2n+1 (x)w(x)dx
a

Démonstration:
Les racines polynômes Qn+1 sont x0 , x1 , . . . , xn . Il s’écrit alors
Yn
Qn+1 (x) = (x − xj ).
j=0
On sait aussi que le polynôme d’interpolation de Lagrange est:

55
Chapitre 3. Intégration numérique

n
Y x − xj
Li (x) = ( )
xi − xj
j=0
j 6= i
il est facile de voir que
1 Qn+1 (x)
Li (x) = 0
Qn+1 (xi ) x − xi
et le coefficient λi est donné par:
Z b Z b
1 Qn+1 (x)
λi = Li (x) w(x)dx = w(x)dx
a Qn+1 (xi ) a x − xi
Qn+1 (x)
Calculons alors . D’après la relation de récurrence qui lie les polynômes (Qk ), on
x − xi
a:
γk
Qk+1 (x) = (x − αk+1 ) Qk (x) − Qk−1 (x)
γk−1
d’où:
γk
Qk+1 (xi ) = (xi − αk+1 ) Qk (xi ) − Qk−1 (xi )
γk−1
En multipliant la première équation par Qk (xi ) et la deuxième par Qk (x), puis en retran-
chant la première de la deuxième, on aura après division par γk :

Qk+1 (x)Qk (xi ) − Qk (x)Qk+1 (xi ) Qk (x)Qk (xi ) Qk (x)Qk−1 (xi ) − Qk−1 (x)Qk (xi )
= (x−xi ) +
γk γk γk−1

Ce qui entraine que :


n n
X Qk (x)Qk (xi ) X Qk+1 (x)Qk (xi ) − Qk (x)Qk+1 (xi )
(x − xi ) =
k=1
γk k=1
γk
n
X Qk (x)Qk−1 (xi ) − Qk−1 (x)Qk (xi )

k=1
γk−1
Qn+1 (x)Qn (xi ) Q1 (x)Q0 (xi ) − Q0 (x)Q1 (xi )
= −
γn γ0
Qn+1 (x)Qn (xi ) (x − xi )
= −
γn γ0
D’où !
n
Qn+1 (x) γn X Qk (x)Qk (xi ) 1
= +
x − xi Qn (xi ) k=1 γk γ0
d’où Z b
1 Qn+1 (x)
λi = 0 w(x)dx
Qn+1 (xi ) a x − xi !
Z b X n
γn Qk (x)Qk (xi ) 1
= + w(x)dx
Qn (xi )Q0n+1 (xi ) a k=1
γk γ0
( n )
γn X Qk (xi ) Z b Z b
1
= Qk (x) w(x)dx + w(x)dx
Qn (xi )Q0n+1 (xi ) k=1 γk a a γ0
Or Q0 (x) = 1, donc

56
3.4 Formule de quadrature de Gauss

Z b Z b
Qk (x) w(x)dx = Qk (x)Q0 (x) w(x)dx = 0, pour k ≥ 1
a a
et Z b
Q0 (x)Q0 (x ) w(x)dx = γ0 .
a
On obtient donc:
γn
λi =
Qn (xi )Q0n+1 (xi )
D’après la relation de récurrence, on a
γn+1
Qn+2 (x) = (x − αn+2 ) Qn+1 (x) − Qn (x)
γn
d’où
γn+1
Qn+2 (xi ) = − Qn (xi )
γn
D’où
γn γn+1
=−
Qn (xi ) Qn+2 (xi )
et donc
−γn+1
λi =
Qn+2 (xi )Q0n+1 (xi )

Corollaire 3.4.1 (La formule de Gauss -Tchebytchev à (n + 1) points)


f (x)
Soit f une fonction définie sur [−1, 1] telle que √ soit intégrable. Alors, pour tout
1 − x2
n dans IN :

1 n
π f (2n+2) (η)
Z
f (x) π X 2i + 1
√ dx = f (cos π) + avec η ∈ [−1, 1].
−1 1 − x2 n + 1 i=0 2(n + 1) 2 4n (2n + 2)!

Démonstration
on a:
Qn+1 (x) = Tn+1 (x) = 21n cos((n + 1) Arc cos(x)) n ∈ IN ∗
2i + 1
et xi = cos π ,pour i = 0, 1, ..., n.
2(n + 1)
2i+1
Donc, en posant σi = 2(n+1) π

n + 1 sin(n + 1)σi 1
Q0n+1 (xi ) = − n
et Qn+2 (xi ) = n+1 sin(n + 1)σi − sin σi
2 sin σi 2

1 π
cos2 ((n + 1) Arc cos(x))
Z Z
1 1 π 1
γn+1 = ( n )2 √ dx = n cos 2 ((n + 1) s) ds =
2 −1 1 − x2 4 0 2 4n

D’où
γn+1 π
λi = − 0
= pour i = 0, ..., n.
Qn+1 (xi ) Qn+2 (xi ) n+1

57
CHAPITRE 4

RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS DIFFÉRENTIELLES


ORDINAIRES

4.1 Introduction

Les équations différentielles constituent l’outil le plus fréquemment utilisé dans la modélisation
des problèmes des sciences physiques et ceux de l’ingénieur.
Dans ce chapitre, nous présenterons quelques méthodes ( ou schémas) numériques pour
la résolution des équations différentielles avec des conditions initiales.
Le problème auquel on s’intéresse, consiste à trouver y : x → y(x) définie sur [a, b]
vérifiant:
 0
y (x) = f (x, y) x ∈ [a, b] Problème de cauchy
(4.1)
y(a) = y0 Condition initiale
où f : [a, b] × R → R

Théorème 4.1.1 (existence et unicité)


On suppose que
i) f est continue sur D = [a, b] × R ;
ii) ∃L  0; ∀x ∈ [a, b] , ∀(y1 , y2 ) ∈ R2 , |f (x, y1 ) − f (x, y2 )| ≤ L |y1 − y2 |
Alors le problème (4.1) admet une solution unique sur [a, b] .

Remarques 4.1
1) La condition ii) est appelée condition de Lipschitz par rapport à la deuxième variable.
∂f
2) Si (x, y) → est continue et bornée sur D = [a, b]×R, alors la condition ii) est vérifiée
∂y
∂f
( il suffit de prendre L = max (x, y) et d’appliquer la formule des accroissements

(x,y)∈D ∂y
finis à la fonction y → f (x, y)).
Exemple 4.1
Le problème

 y 0 (x) = −y + 1
x ∈ [e, 5]
xLog(x) Log(x)
 y(e) = e

−y 1
admet une solution unique, puisque la fonction f : (x, y) → + , vérifie
xLog(x) Log(x)
y1 − y2 1
|f (x, y1 ) − f (x, y2 )| = ≤ |y1 − y2 |
xLog(x) e
Remarques 4.2
Les résultats obtenus pour (4.1) peuvent être généralisés, modulo quelques ”adaptations”,
aux systèmes différentiels et aux équations différentielles d’ordre supérieur.
Chapitre 4. Résolution numérique des équations différentielles ordinaires

1) Les systèmes différentiels du premier ordre

x ∈ [a, b] ; y(x) ∈ Rn

f : [a, b] × Rn −→ Rn
(x, y) 7−→ f (x, y)
   
y1 f1 (x, y1, ...., yn )
 y2 
  f1 (x, y1, ...., yn ) 
y=
  f (x, y) = 



yn f1 (x, y1, ...., yn )
On cherche y solution de

y 0 (x) = f (x, y) x ∈ [a, b]




y(a) = y0
où encore  0
y (x) = f1 (x, y1, ...., yn )
 10


y2 (x) = f2 (x, y1, ...., yn )


 0
yn (x) = fn (x, y1, ...., yn )
2) Les équations différentielles d’ordre supérieur à 1:
Il suffit de se ramener au cas des systèmes d’ordre 1. Prenons un exemple:
 00
 y (x) = h(x, y, y 0 ) x ∈ [a, b]
y(a) = y0
 0
y (a) = y00
On pose u1 = y et u2 = y 0 . On obtient alors:
 0
u = u2
 10


u2 = h(x, u1 , u2 )

 u1 (a) = y0
u2 (a) = y00

Cas général:

y (m) (x) = h(x, y, y 0 , ..., y (m−1) )



x ∈ [a, b]
0 0 (m−1) (m−1)
y(a) = y0 , y (a) = y0 , ..., y (a) = y0
On pose u1 = y et u2 = y 0 , ...., um = y (m−1) . On obtient alors:
 0
 u1 = u2
 u0 = u

2 3
0
u = h(x, u1 , u2 , ...., um )
 m

 (m−1)
u1 (a) = y0 , u2 (a) = y00 , ....., um (a) = y0
Notations:

60
4.1 Introduction

Dans toute la suite, Y (x) désigne la solution exacte du problème (4.1).


Hypothèse:
Dans toute la suite, on supposera que f vérifie les conditions i) et ii) du théorème 4.1.

4.1.1 Principe des méthodes (ou schémas) numériques


On s’intéresse à la détermination d’une approximation de la solution Y du problème
(4.1). Pour cela, on procède à une discrétisation du problème:
on considère une subdivision a = x0 ≺ x1 ≺ ... ≺ xN = b de l’intervalle [a, b] , et on
cherche une valeur approchée yn de y(xn ) pour n = 0, 1, ...., N .
On étudiera dans ce chapitre deux types de méthodes:
1) Les méthodes à un pas: Le calcul de yn ne fait intervenir que les valeurs de xn−1 et de
yn−1 ( en plus des données du problème).
2) Les méthodes à plusieurs pas: le calcul de yn fait intervenir les valeurs de xn−1 ,..., xn−k
et de yn−1 ,..., yn−k .
Pour la commodité de l’exposé, on imposera dans toute la suite aux points xn d’être
équidistants (en pratique, dans les codes sur les équations différentielles, ca ne sera pas le
b−a
cas). On définit le pas de l’approximation h = , alors xn = a + nh, n = 0, 1..., N .
N

4.1.2 La méthode d’Euler


On cherche une approximation de y solution de
 0
y (x) = f (x, y) x ∈ [a, b]
y(a) = y0
b−a
Soit x0 = a < x1 < ..... < xN = b avec xn = a + nh pour 0 ≤ n ≤ N , h = .
N
Le schéma d’Euler est donné par:

y0 = Y0
(4.2)
yn+1 = yn + hf (xn , yn ) n = 0, 1, ..., N
Ce schéma peut être interprété de trois manières différentes:

4.1.2.1 1) Interprétation graphique


Si on considère la courbe (C) de la fonction Y (x) et la tangente (T ) à la courbe au
point d’abscisse xn , on approche sur [xn , xn+1 ], (C) par (T ).
D’où
T (xn+1 ) − T (xn )
= Y 0 (xn ) = f (xn , Y (xn ))
h
Y (xn+1 ) − Y (xn ) ' T (xn+1 ) − T (xn ) = hY 0 (xn ) = hf (xn , Y (xn ))
=⇒ yn+1 ' Y (xn+1 ) et yn ' Y (xn ) , vérifient

yn+1 = yn + hf (xn , yn )

61
Chapitre 4. Résolution numérique des équations différentielles ordinaires

4.1.2.2 2) Utilisation de la formule des accroissements finies.


Dans l’intervalle [xn , xn+1 ], on a

Y (xn+1 ) − Y (xn ) = hY 0 (cn ) = hf (cn , Y (cn )) où xn ≺ cn ≺ xn+1


En fait, on ne connait pas la valeur de cn . La méthode d’Euler consiste à faire l’approximation
suivante:

remplacer cn par xn et Y (cn ) par yn


On obtient alors

yn+1 = yn + hf (xn , yn )

4.1.2.3 3) Utilisation d’une formule d’intégration numérique


En intégrant y 0 (x) = f (x, y) sur [xn , xn+1 ], on obtient
Z xn+1 Z xn+1
0
Y (x)dx = f (x, Y (x))dx
xn xn

En utilisant la formule d’intégration du rectangle à gauche, on obtient:

Y (xn+1 ) − Y (xn ) = hf (xn , Y (xn )) + erreur


d’où

yn+1 = yn + hf (xn , yn )

4.2 Etude générale des méthodes à un pas

Dans les méthodes à un pas, le calcul de yn+1 se fait à partir de xn , yn et h. Nous


écrivons ceci sous la forme :

y 0 = Y0
(4.3)
yn+1 = yn + hΦ(xn , yn , h) n = 0, 1, ..., N
où Φ est une fonction continue sur [a, b] × R × [0, h∗ ], avec h∗  0 donné. Choisir une
méthode, c’est choisir Φ.
Par exemple, si Φ(x, y, h) = f (x, y), alors il s’agit de la méthode d’Euler.
Nous allons étudier les conditions qu’il faut imposer à Φ et le lien entre Φ et f pour que
la méthode soit jugée ”bonne”.
Dans ce paragraphe, nous ferons d’abord une théorie générale des méthodes à un pas en
vue de l’étude de l’erreur de discrétisation en = Y (xn ) − yn . Ceci nous amène à introduire
les notions de consistance, de stabilité, d’ordre et de convergence.
L’erreur dans une méthode est due à deux causes:

62
4.2 Etude générale des méthodes à un pas

l’erreur de discrétisation due au procédé de calcul: par exemple, dans la méthode d’Euler,
on a approché la courbe par sa tangente,
les erreurs d’arrondi dues aux pertes de chiffres dans les opérations arithmétiques ef-
fectuées par l’ordinateur.
Que doit-on exiger d’une méthode?
Que l’erreur de discrétisation diminue lorsque h diminue et à la limite y doit tendre vers
Y (x) quand h tend vers zéro: c’est la convergence.
Pouvoir évaluer l’erreur de discrétisation en fonction de h, ceci nous permettra d’obtenir
l’ordre de la méthode.
Savoir la répercussion des erreurs globales sur les calculs ultérieurs. C’est la stabilité.
Que la méthode approche l’équation différentielle. C’est la consistance.

Définition 4.2.1 (consistance)


La méthode yn+1 = yn + hΦ(xn , yn , h) est dite consistante avec l’équation différentielle
(4.1) : y 0 (x) = f (x, y) si

Y (xn+1 ) − Y (xn )
lim max − Φ(xn , Y (xn ), h) = 0
h→0 0≤n≤N −1 h
pour toute solution Y (x) de l’équation différentielle (4.1).

Remarque 4.3
Y (xn+1 ) − Y (xn )
La quantité n+1 = − Φ(xn , Y (xn ), h) représente dans un certain sens
h
l’erreur que l’on fait au nième pas, en remplaçant l’équation différentielle (4.1) par le
schéma (4.3).

Définition 4.2.2 (stabilité)


Soient (yn , 0 ≤ n ≤ N ) et (zn , 0 ≤ n ≤ N ) les solutions des systèmes

yn+1 = yn + hΦ(xn , yn , h)
y0 f ixé
et

zn+1 = zn + h(Φ(xn , yn , h) + ξn+1 )
z0 = y0 + ξ0
où ξn est quelconque.
La méthode est dite stable s’il existe une constante C indépendante de h, telle que

max |yn − zn | ≤ C max |ξn |


0≤n≤N 0≤n≤N

Remarque 4.4
Cette notion de stabilité implique qu’une petite perturbation sur les données n’entraine
qu’une petite perturbation sur la solution (approchée) et ceci indépendemment de h,
ce qui, du fait de l’existence des erreurs d’arrondi, est absolument nécessaire pour le
traitement numérique du problème. Un schéma ”instable” ne présente aucun intérêt

63
Chapitre 4. Résolution numérique des équations différentielles ordinaires

pratique. Notons que la notion de stabilité précédente est intrinséque au schéma de


résolution numérique.

Définition 4.2.3 ( convergence)


La méthode (4.3) est dite convergente si:

lim max |Y (xn ) − yn | = 0


h→0 0≤n≤N −1

Remarque 4.5
Cette notion de convergence indique que l’erreur de discrétisation en = Y (xn ) − yn tend
vers zéro lorsque h tend vers zéro.

En fait, les trois notions précédentes : consistance, stabilité et convergence, ne sont pas
indépendantes. Nous allons le voir au théorème suivant.

Théorème 4.2.1
Si la méthode à 1 pas donnée par (4.3): yn+1 = yn +hΦ(xn , yn , h) est consistante et stable,
alors elle est convergente.

Démonstration
Y (xn+1 ) − Y (xn )
Posons ξn+1 = − Φ(xn , Y (xn ), h) pour n = 0, .., N − 1 et ξ0 = 0.
h
On a Y (xn+1 ) = Y (xn ) + h(Φ(xn , Y (xn ), h) + ξn+1 )
et Y (x0 ) = Y0 = y0 + ξ0
Puisque la méthode (4.3) est consistante alors on a

lim max |ξn+1 | = max |ξn | = 0 (4.4)


h→0 0≤n≤N −1 0≤n≤N

Par ailleurs, d’après la stabilité de la méthode , en remplaçant zn par Y (xn ), on sait qu’il
existe C  0 indépendant de h telle que

max |yn − Y (xn )| ≤ C max |ξn | (4.5)


0≤n≤N 0≤n≤N

En faisant tendre h → 0 dans (4.5), on obtient grâce à (4.4):

lim max |yn − Y (xn )| = 0 (4.6)


h→0 0≤n≤N

ce qui prouve que la méthode (4.3) est convergente et achève la démonstration.

Théorème 4.2.2 (condition nécessaire et suffisante de consistance)


La méthode (4.3) est consistante si et seulement si on a

∀x ∈ [a, b] , ∀y ∈ R, Φ(x, y, 0) = f (x, y)

Démonstration
Posons
Y (xn+1 ) − Y (xn )
n+1 = − Φ(xn , Y (xn ), h)
h

64
4.2 Etude générale des méthodes à un pas

Utilisant la formule des accroissements finis, on obtient:

∃cn ∈ [a, b] , n+1 = f (cn , Y (cn )) − Φ(xn , Y (xn ), h)

Posons
αn = f (cn , Y (cn )) − Φ(cn , Y (cn ), 0)
βn = Φ(cn , Y (cn ), 0) − Φ(xn , Y (xn ), h)
On a alors:
n+1 = αn + βn
Remarquons que

|βn | ≤ max |Φ(x, Y (x), h) − Φ(x0 , Y (x0 ), 0)| = β(h)


0≤n≤N

et que, d’après la continuité uniforme de la fonction (x, h) → Φ(x, Y (x), h) sur le compact
[a, b] × [0, h∗ ], lim |β(h)| = 0. Et, par suite, on a:
h→0

lim max |βn | = 0 (4.7)


h→0 0≤n≤N −1

1) condition suffisante: supposons que Φ(x, y, 0) = f (x, y). Alors on a αn = 0 et donc


n = βn . Il s’en suit, d’après (4.7), que lim max |n+1 | = 0. Ainsi, la méthode (4.3)
h→0 0≤n≤N −1
est consistante.
2) condition nécessaire: supposons que la méthode (4.3) est consistante, i. e. lim max |n+1 | =
h→0 0≤n≤N −1
0. Et, par suite, d’après (4.7), on a:

lim max |αn | = 0 (4.8)


h→0 0≤n≤N −1

(puisque |αn | ≤ |n+1 | + |βn |)


Par ailleurs, la fonction t → |f (t, Y (t)) − Φ(t, Y (t), 0)| est continue et donc intégrable au
sens de Riemann sur [a, b] , d’où l’on obtient:
N −1 N −1
X b−a X
lim h |αn | = lim |f (cn , Y (cn )) − Φ(cn , Y (cn ), 0)|
h→0 h→0 N
n=0 Z b n=0

= |f (x, Y (x)) − Φ(x, Y (x), 0)| dx


a
or
N −1 N −1
X b − aX
h |αn | = |αn | ≤ (b − a) max |αn |
n=0
N n=0
0≤n≤N

Il s’en suit, grâce à (4.8), que


Z b
|f (x, Y (x)) − Φ(x, Y (x), 0)| dx = 0
a
D’où f (x, Y (x)) = Φ(x, Y (x), 0), ∀x ∈ [a, b] et pour toute solution Y (x) de (4.1). Soit
maintenant (x∗ , y ∗ ) ∈ [a, b] × R. D’après le théorème 4.1, il existe une solution unique
Y (x) de l’équation différentielle:

65
Chapitre 4. Résolution numérique des équations différentielles ordinaires

y 0 (x) = f (x, y) x ∈ [x∗ , b]




y(x∗ ) = y ∗
On a alors f (x∗ , y ∗ ) = Φ(x∗ , y ∗ , 0)
Ainsi, on a ∀(x, y) ∈ [a, b] × R, f (x, y) = Φ(x, y, 0).
Ce qui achève la démonstration.

Théorème 4.2.3 (condition suffisante de stabilité)


Si la fonction Φ vérifie une condition de Lipschitz par rapport à la deuxième variable, i.e.
∃M  0, ∀x ∈ [a, b] , ∀y, y ∈ R, ∀h ∈ [0, h∗ ]
|Φ(x, y, h) − Φ(x, y, h)| ≤ M |y − y|
alors la méthode (4.3) est stable.

Démonstration
Soient yn , 0 ≤ n ≤ N, et zn , 0 ≤ n ≤ N, vérifiant respectivement
yn+1 = yn + hΦ(xn , yn , h)
zn+1 = zn + h [Φ(xn , zn , h) + n ]
z0 = y0 + 0
n quelconque, 0 ≤ n ≤ N
On a
|yn+1 − zn+1 | ≤ |yn − zn | + h |Φ(xn , yn , h) − Φ(xn , zn , h)| + h |n |
≤ |yn − zn | + hM |yn − zn | + h |n |
≤ (1 + hM ) |yn − zn | + h |n |
Nous allons en déduire par récurrence que

(1 + hM )n+1 − 1
|yn+1 − zn+1 | ≤ (1 + hM )n+1 |y0 − z0 | + max |k | (4.9)
M k≤n

C’est vrai pour n = 0


Supposons que c’est vrai pour n. On a
|yn+1 − zn+1 | ≤ (1 + hM ) |y
 n − zn | + h |n | n

(1 + hM ) − 1
≤ (1 + hM ) (1 + hM )n |y0 − z0 | + max |k | + h |n |
M k≤n−1
(1 + hM )n+1 − 1
≤ (1 + hM )n+1 |y0 − z0 | + max |k |
M k≤n
Ainsi, l’inéquation (4.9) est vérifiée ∀n.
Par ailleurs, pour k  0, on a 1 + k ≤ ek , d’où
e(n+1)hM − 1
|yn+1 − zn+1 | ≤ e(n+1)hM |y0 − z0 | + max |k |
M k≤n
Or (n + 1)h ≤ (b − a); (n ≤ N − 1), d’où
e(b−a)M − 1
|yn+1 − zn+1 | ≤ e(b−a)M |y0 − z0 | + max |k |
M k≤n
(b−a)M
e − 1
D’où en posant C = max(e(b−a)M , ), on obtient
M
max |yn − zn | ≤ C max |k |
0≤n≤N 0≤k≤N
Ce qui prouve que la méthode est stable et achève la démonstration.

66
4.2 Etude générale des méthodes à un pas

Corollaire 4.2.1 (condition suffisante de convergence)


Si la fonction Φ vérifie:
1) Φ(x, y, 0) = f (x, y) ∀(x, y) ∈ [a, b] × R
2)∃M  0 tel que |Φ(x, y, h) − Φ(x, y, h)| ≤ M |y − y| ∀x ∈ [a, b] , ∀y, y ∈ R,
alors la méthode (4.3) est convergente.

Démonstration
La propriété 1) entraine , d’après le théorème 4.3, que la méthode est consistante.
La proprièté 2) entraine que la méthode est stable, d’après le théorème 4.4. Le résultat
découle alors du théorème 4.2.

Définition 4.2.4 (ordre de convergence)


La méthode (4.3) est dite d’ordre p, si pour toute solution Y de y 0 = f (x, y), on a

Y (xn+1 ) − Y (xn )
max − Φ(xn , Y (xn ), h) ≤ Khp
0≤n≤N −1 h
où K est une constante indépendante de h.
Y (xn+1 ) − Y (xn )
(ou encore si max − Φ(xn , Y (xn ), h) = θ(hp )).
0≤n≤N −1 h

Théorème 4.2.4
Si la méthode (4.3) est stable et d’ordre p, alors on a

∃K  0 max |yn − Y (xn )| ≤ Khp


0≤n≤N

Démonstration:
On a
yn+1 = yn + hΦ(xn , yn , h)
Posons
Y (xn+1 ) − Y (xn )
n+1 = − Φ(xn , Y (xn ), h) avec 0 = 0.
h
Alors, on a
Y (xn+1 ) = Y (xn ) − h [Φ(xn , Y (xn ), h) + n+1 ]
La méthode étant stable, on a alors
max |yn − Y (xn )| ≤ C max |n |
0≤n≤N 0≤n≤N
où C est une constante indépendante de h. Or max |n+1 | = max |n | ≤ Khp , car la
0≤n≤N −1 0≤n≤N
méthode est d’ordre p.
Il s’en suit qu’il existe une constante K
e = CK telle que
max |yn − Y (xn )| ≤ C max |n | ≤ CKhp = Kh e p
0≤n≤N k≤n−1
Ce qui prouve le résultat énoncé et achève la démonstration.

Théorème 4.2.5 ( condition nécessaire et suffisante pour que la méthode soit


d’ordre p)
∂Φ ∂ pΦ
On suppose que f est de classe C p sur [a, b] × R et que la fonction Φ, , ....., p existent
∂h ∂h

67
Chapitre 4. Résolution numérique des équations différentielles ordinaires

et sont continues sur [a, b]×R×[0, h∗ ]. Alors la méthode (4.3) est d’ordre p, si et seulement
si, pour tout (x, y) ∈ [a, b] × R, on a:


 Φ(x, y, 0) = f (x, y)



∂Φ 1


(x, y, 0) = f (1) (x, y)



∂h 2 (4.10)





∂ p−1 Φ

 1
(x, y, 0) = f (p−1) (x, y)



∂h p−1 p
où les fonctions f (k) sont définies par la relation de récurrence
 (0)
 f =f
∂f (k) ∂f (k)
 f (k) = +f
∂x ∂y

Démonstration
Posons
Y (xn+1 ) − Y (xn )
n+1 = − Φ(xn , Y (xn ), h)
h
et
1 1 ∂kΦ
Ψk (x, y) = f (k) (x, y) − (x, y, 0)
(k + 1)! k! ∂hk
Les conditions (4.10) s’écrivent encore
Ψk (x, y) = 0 ∀(x, y) ∈ [a, b] × R, ∀k ∈ {0, 1, ....., p − 1}
Il s’agit donc de montrer que
max |n | = θ(hp ) ⇐⇒ Ψk (x, y) = 0 ∀(x, y) ∈ [a, b] × R, ∀k ∈ {0, 1, ....., p − 1}
0≤n≤N −1
On a, en utilisant la formule de Taylor:
∃ cn ∈ ]xn , xn+1 [ tel que
p−1
Y (xn+1 ) − Y (xn ) X hk hp
= Y (k+1) (xn ) + Y (p+1) (cn )
h k=0
(k + 1)! (p + 1)!
p−1
X hk (k) hp
= f (xn , Y (xn ) + Y (p+1) (cn )
k=0
(k + 1)! (p + 1)!

(f étant de classe Cp alors Y est de classe C p+1 )


∃ λ ∈ ]0, h[ tel que
p−1 k k
X h ∂ Φ hp ∂ p Φ
Φ(xn , Y (xn ), h) = k
(xn , Y (xn ), 0) + (xn , Y (xn ), λ)
k=0
k! ∂h p! ∂hp

68
4.2 Etude générale des méthodes à un pas

D’où
p−1
X
n+1 = hk Ψk (xn , Y (xn ))+
k=0
(4.11)
p
 
1 1∂ Φ
hp Y (p+1) (cn ) − (xn , Y (xn ), λ)
(p + 1)! p! ∂hp
a) Condition suffisante: supposons que les conditions (4.10) sont vérifiées, alors Ψk (xn , Y (xn )) =
0, pour k = 0, 1, ...., p −
 1 et donc
1 ∂ pΦ

p
1 (p+1)

max |n | ≤ h max Y (x) + max
p! ∂αp (x, y, α)
0≤n≤N −1 a≤x≤b (p + 1)!
a≤x≤b

y∈R
α ∈ [0, h∗ ]
∂ pΦ
Utilisant le fait que Y est de classe C p+1 sur [a, b] et que est continue sur [a, b] × R ×

∂αp
[0, h ] , on obtient:
∃K  0 max |n+1 | ≤ Khp
0≤n≤N −1
Et par suite, la méthode (4.3) est d’ordre p.
b) Condition nécessaire: supposons que la méthode (4.3) est d’ordre p, et montrons que
les conditions (4.10) sont vérifiées.
Raisonnons par l’absurde: supposons que les conditions (4.10) ne sont pas vérifiées. Soit
k0 le plus petit entier ∈ {0, 1, ..., p − 1} tel que Ψk0 (x, y) 6= 0. On a alors, d’après (4.11)
p−1
1 ∂ pΦ
 
X
k p 1 (p+1)
n+1 = h Ψk (xn , Y (xn )) + h Y (cn ) − (xn , Y (xn ), λ)
k=k0
(p + 1)! p! ∂hp

D’où

n+1 = hk0 Ψk0 (xn , Y (xn )) + θ(hk0 +1 ) (4.12)


Or la méthode étant d’ordre ≥ p, alors on a

max |n+1 | ≤ Khp


0≤n≤N −1

d’où
|n+1 |
max ≤ Khp−k0
0≤n≤N −1 hk0

et par suite
|n+1 |
lim max =0 (4.13)
h→0 0≤n≤N −1 hk0
Par ailleurs, on a
N −1 N −1
X |n+1 | b − a X |n+1 | |n+1 |
h k
= k
≤ (b − a) max (4.14)
h0 N n=0 h 0 0≤n≤N −1 hk0
n=0

69
Chapitre 4. Résolution numérique des équations différentielles ordinaires

Or, on a d’après (4.12)


N −1 N −1
X |n+1 | X
lim h = lim h |Ψk0 (xn , Y (xn )) + θ(h)|
h→0
n=0
hk0 h→0
n=0
N −1
b−a X
= lim |Ψk0 (xn , Y (xn ))| (puisque lim hθ(h) = 0)
N →+∞ N n=0 h→0
Z b
= |Ψk0 (t, Y (t))| dt
a
car la fonction t → |Ψk0 (t, Y (t))| est continue, alors elle est Riemann intégrable. Il s’en
Z b
suit, grâce à (4.13) et (4.14) que |Ψk0 (t, Y (t))| dt = 0. Et par suite, on obtient:
a

Ψk0 (t, Y (t)) = 0 ∀t ∈ [a, b] , ∀Y solution de (4.1)


Soit (x∗ , y ∗ ) ∈ [a, b] × R quelconque. Alors, d’après le théorème 4.1, il existe une solution
unique Y (x) de l’équation différentielle
 0
y (x) = f (x, y) x ∈ [x∗ , b]
y(x∗ ) = y ∗

D’où

Ψk0 (x∗ , Y (x∗ )) = Ψk0 (x∗ , y ∗ ) = 0


Ainsi, on a

∀x ∈ [a, b] , ∀y ∈ R, Ψk0 (x, y) = 0


Ce qui contredit le fait que Ψk0 (x, y) 6= 0. Ainsi les conditions (4.10) sont nécessairement
vérifiées.

4.3 Exemples de schémas à un pas

4.3.1 Méthodes du développement à un pas


L’idée la plus simple pour construire une méthode d’ordre p est de choisir, d’après le
théorème 4.6:
h h2 hp−1 (p−1)
Φ(x, y, h) = f (x, y) + f (1) (x, y) + f (2) (x, y) + .... + f (x, y)
2 3! p!

Les relations (4.10) sont trivialement vérifiées.


Pour p = 1, on retrouve le schéma d’Euler.
Si les fonctions f (k) (x, y) , k = 0, 1, ..., p−1, vérifient la condition de Lipschitz par rapport
à la deuxième variable:
∃Lk  0; ∀x ∈ [a, b] , ∀(y, z) ∈ R2 ,
(k)
f (x, y) − f (k) (x, z) ≤ Lk |y − z| ; 0 ≤ k ≤ p − 1

70
4.3 Exemples de schémas à un pas

Alors la fonction Φ vérifie aussi la condition de Lipschitz par rapport à la deuxième


variable:
∃L  0; ∀x ∈ [a, b] , ∀(y, z) ∈ R2 ,

|Φ(x, y, h) − Φ(x, z, h)| ≤ L |y − z|


avec
(b − a) (b − a)2 (b − a)p−1
L = L0 + L0 + L1 + .... + Lp .
2 3! p!
Et par suite, d’après le théorème 4.4, la méthode à un pas,

yn+1 = yn + hΦ(xn , yn , h)
est stable.
Les méthodes du développement de Taylor présentent de graves inconvénients du point de
vue pratique. En effet, elles utilisent les p fonctions f, f (1) , ...., f (p−1) , ce qui mobilise un
nombre excessif de mémoire. De plus, pour k assez grand, la complexité des expressions
analytiques des fonctions f (k) augmente énormément.

4.3.2 Méthodes de Runge et Kutta (RK)


Elles consistent à choisir , pour p≥ 1
p
X
Φ(x, y, h) = ak Vk (x, y, h)
k=1
où
V1 (x, y, h) = f (x, y) !
k−1
X
Vk (x, y, h) = f x + αk h, y + h βkj Vj (x, y, h) k≥2
j=1
Les coefficients ak , 1 ≤ k ≤ p, αk et βkj , k=1,....,p , 1≤ j ≤ k − 1, sont choisis de telle
sorte que les relations (4.10) du théorème 4.6 soient vérifiées.

Exemples
1) Cas où p = 1

Φ(x, y, h) = a1 V1 (x, y, h) = a1 f (x, y)


La condition (4.10) du théorème 4.6 s’écrit alors dans ce cas

Φ(x, y, 0) = a1 f (x, y) = f (x, y)


D’où a1 = 1 et Φ(x, y, h) = f (x, y)
On retrouve la méthode d’Euler, qui est d’ordre 1.

2) Cas où p = 2

Φ(x, y, h) = a1 V1 (x, y, h) + a2 V2 (x, y, h) = a1 f (x, y) + a2 f (x + α2 h, y + β21 f (x, y))

Les conditions (4.10) du théorème 6 s’écrivent alors dans ce cas:

71
Chapitre 4. Résolution numérique des équations différentielles ordinaires


 Φ(x, y, 0) = (a1 + a2 )f (x, y) = f (x, y)
∂Φ ∂f ∂f 1
(x, y, 0) = a2 α2 (x, y) + a2 β21 f (x, y) (x, y) = f (1) (x, y)
∂h ∂x ∂y 2

  
∂Φ ∂f ∂f
(x, y, h) = a2 α2 (x + α2 h, y + β21 f (x, y)) + β21 f (x, y) (x + α2 h, y + β21 f (x, y))
∂h ∂x ∂y
Ainsi,
 la méthode est d’ordre 2, si et seulement si:
a1 + a2 = 1
a2 α2 = a2 β21 = 21
En posant β = β21 (6= 0), on doit donc avoir
1
α2 = β, a2 = 2β , a1 = 2β−1

Pour β = 12 , cette méthode s’appelle la méthode d’Euler modifiée:


yn+1 = yn + h(f (xn + 12 h, yn + 21 hf (xn , yn ))
(α2 = 21 , a2 = 1, a1 = 0)
Pour β = 1, cette méthode s’appelle la méthode de Heun
yn+1 = yn + h2 (f (xn , yn ) + f (xn + h, yn + hf (xn , yn ))
(α2 = 1, a2 = 21 , a1 = 21 )

3) Cas où p = 4
La méthode de Runge et Kutta classique est donnée par:
h
yn+1 = yn + [V1 + 2V2 + 2V3 + V4 ]
6
où
V1 = f (xn , yn )
V2 = f (xn + 21 h, yn + 12 hV1 )
V3 = f (xn + 12 h, yn + 12 hV2 )
V4 = f (xn + h, yn + hV3 )
Cette méthode est d’ordre 4 ( à vérifier en exercice)
Exercice
Montrer que sous les hypothèes du théorème 4.1, les méthodes de Runge et Kutta sont
stables.

72