Vous êtes sur la page 1sur 50

Contents

f
lla
1
1.1
1.2

1.3
he
Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Interpolation polynomiale . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Existence et unicité . . . . . . . . . . . . . . . . . . . . .
Méthodes d’interpolation polynomiale . . . . . . . . . . . . . . .
3
3
4
5
7
1.3.1 Méthode de Vandermonde . . . . . . . . . . . . . . . . . . 7
.K
1.3.2 Méthode de Lagrange . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Méthode de Newton. . . . . . . . . . . . . . . . . . . . . . 10
1.4 Erreur d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Interpolation d’Hermite . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 Polynôme d’interpolation coincidant avec la première dérivée. 14
1.6 Approximation au sens des moindres carrés . . . . . . . . . . . . 17
1.6.1 Régression linéaire . . . . . . . . . . . . . . . . . . . . . . 17
1.6.2 Régression non linéaire : . . . . . . . . . . . . . . . . . . . 18
1.6.3 Approximation au sens de moindres carrés en utilisant des
Dr

polynômes orthogonaux . . . . . . . . . . . . . . . . . . . 19
1.6.4 Erreur d’approximation . . . . . . . . . . . . . . . . . . . 25
1.6.5 Série de Fourier . . . . . . . . . . . . . . . . . . . . . . . 26
1.7 Interpolation par des Splines . . . . . . . . . . . . . . . . . . . . 28
1.7.1 Interpolant polynômiale par morceaux . . . . . . . . . . . 28
1.7.2 Splines cubiques . . . . . . . . . . . . . . . . . . . . . . . 29

2 Dérivation et Intégration Numérique 35


2.1 Dérivation numérique . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Différence avant d’ordre 1 . . . . . . . . . . . . . . . . . . 35
2.2.2 Différence arrière d’ordre 1 . . . . . . . . . . . . . . . . . 35

1
2.2.3 Différence centrée. . . . . . . . . . . . . . . . . . . . . . . 36
2.2.4 Dérivée seconde. . . . . . . . . . . . . . . . . . . . . . . . 37
2.3 Intégration numérique . . . . . . . . . . . . . . . . . . . . . . . . 37
2.4 Principe de l’intégration numérique . . . . . . . . . . . . . . . . . 37
2.5 Méthode de quadrature de Newton Cotes. . . . . . . . . . . . . . 38
2.6 Méthodes de quadrature classiques . . . . . . . . . . . . . . . . . 38
2.6.1 Méthode des points milieu . . . . . . . . . . . . . . . . . . 38
2.6.2 Méthode des trapèzes . . . . . . . . . . . . . . . . . . . . 39
2.6.3 Méthode de Simpson . . . . . . . . . . . . . . . . . . . . . 41
2.6.4 La méthode de Newton (Méthode de Simpson 3/8) . . . . 42

f
2.6.5 Formule d’erreur dans l’intégration numérique . . . . . . . 43
2.7 Quadrature de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 44

lla
2.7.1 Quadrature de Gauss avec 1 point. . . . . . . . . . . . . . 44
2.7.2 Quadrature de Gauss avec 2 points. . . . . . . . . . . . . 45
2.7.3 Formule d’erreur des quadratures de Gauss . . . . . . . . 45

3 Résolution numérique des équations différentielles 47


3.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.2

3.3
3.4
he
Théorème d’existence et unicité . . . . . . . . . . . . . . . . . . .

Schémas numériques . . . . . . . . . . . . . . . . . . . . . . . . .
Résolution de systèmes différentiels dans R2 . . . . . . . . . . . .
48

49
50
.K
Dr

2
1

f
Interpolation et Approximation Polynomiale

lla
1.1 Généralité
he
Soit f une fonction assez régulière, définie sur l’intervalle [a, b] dont la valeur
numérique de f n’est connue qu’en (n + 1) points de [a, b]. Soit {x0 , x1 , · · · , xn }
cet ensemble de points.

Définitions
.K
• L’interpolation est une méthode qui permet d’obtenir une fonction ϕ(x)
de la fonction f (x) pour toute valeur x ∈ [a, b], et ceci de telle sorte que
les conditions suivantes soient vérifiées:

ϕ(xi ) = f (xi ) i = 0, 1, · · · , n.

• La fonction ϕ ainsi déterminée, est appelée fonction d’inerpolation de f


sur l’ensemble de points {x0 , x1 , · · · , xn }.
Dr

• En général, la fonction d’interpolation ϕ est une combinaison linéaire des


fonctions:

1. Polynômes,
2. Fonctions circulaires ou trigonométriques,
3. Exponentielles.

• Les points xi pour i = 0, 1, · · · , n sont appelés les abscisses ou noeuds


d’interpolation et l’ensemble {x0 , x1 , · · · , xn } est appelé maillage d’interpolation
tandis que les couples (xi , f (xi )) pour i = 0, 1, · · · , n sont appelés les
points de collocation ou les points d’interpolation.

• En général, les points d’interpolation proviennent de données expérimentales.

3
1.2. INTERPOLATION POLYNOMIALE

• L’interpolation nous permet d’obtenir une approximation de f (x) pour


une valeur x différente de xi . La figure 1.2 résume la situation.

f
lla
1.2
he
Figure 1.1: Problème d’interpolation.

Interpolation polynomiale
.K
Exemple réel
En physique, on mesure expérimentalement la température d’un objet qui refroidit
au cours du temps. On obtient une suite de valeurs à différents temps ti . On
cherche alors à tracer la courbe de refroidissement la plus proche possible des
points mesurés, et ainsi à estimer des valeurs de la fonction en des points non
mesurés.
Les fonctions les plus faciles à évaluer numériquement sont les polynômes. Il est
donc important de savoir approximer une fonction arbitraire par des polynômes.
L’interpolation polynomiale consiste à chercher la fonction pn sous forme d’un
Dr

polynôme. C’est à ce cas qu’on va s’intéresser dans cette section.

Formalisation du Problème
A partir d’une fonction f connue seulement en (n + 1) points (xi , f (xi )) pour
i = 0, 1, · · · , n. Déterminer un polynôme pn de degré inférieur ou égal à n tel
que:
pn (xi ) = f (xi ), i = 0, 1, · · · , n.

Autrement, interpoler la fonction f par le polynôme pn aux noeuds x0 , x1 , · · · , xn .


Le polynôme déterminer pn s’appelle, polynôme d’interpolation de f aux noeuds
x0 , x1 , · · · , xn .

4
CHAPTER 1.

Question
Un tel polynôme, existe-t-il ? Si oui, est-il unique.

1.2.1 Existence et unicité


On se donne une famille, de (n+1) points de collocation (xi , yi ), obtenue à partir
d’une fonction f telle que yi = f (xi ). On cherche à construire le polynôme pn ,
qui interpole cette famille de points, sous la forme:

f
pn (x) = a0 + a1 x + ... + an xn .

lla
En utilisant les conditions d’interpolation, cela revient à résoudre le système
suivant:

pn (x0 ) = a0 + a1 x0 + a2 x20 + ... + an xn0 = y0




n
 2
 pn (x1 ) = a0 + a1 x1 + a2 x12 + ... + an x1n = y1



pn (x2 ) = a0 + a1 x2 + a2 x2 + ... + an x2 = y2

he..
.




pn (xn ) = a0 + a1 xn + a2 x2n + .... + an xnn = yn

qui est équivalent à Mn+1 a = y, avec

x20 xn0
 
1 x0 ...
1 x1 x22 ... xn1 
.K
Mn+1 =  . ..  ,
 
. .. .. ..
. . . . . 
1 xn x2n ... xnn
 
a0
 a1 
a =  . ,
 
 .. 
an
 
y0
Dr

 y1 
y =  . .
 
 .. 
yn

La matrice Mn+1 est appelée matrice de Vandermonde d’ordre n+1. Si cette


matrice est inversible alors on peut assurer l’existence et l’unicité du polynôme
d’interpolation.

Théorème 1. Pour tout n > 1,


Y
det (Mn+1 ) = (xj − xi ) .
06i,j6n
i<j

5
1.2. INTERPOLATION POLYNOMIALE

Proof. On procède par réccurence. Pour n = 1 (c-à-d, on considère deux


premiers points d’interpolation), on a
 
1 x0
det = x1 − x0 .
1 x1
Supposons que la propriété est vraie pour l’ordre n − 1. On a
1 x0 x20 ... xn0
1 x1 x21 ... xn1
det(Mn+1 ) = ... ..
.
..
.
..
.
..
. .

f
1 xn−1 x2n−1 ... xnn−1
1 xn x2n ... xnn

lla
On effectue les opérations Ci → Ci − x0 Ci−1 pour i = 2, 3, · · · , n + 1, nous
obtenons (Ci désigne la ième colonne)
1 0 0 ... 0
1 x1 − x0 x1 (x1 − x0 ) ... xn−1
1 (x1 − x0 )
det(Mn+1 ) = .. .. .. .. ..
. . . . .

=
1
1

n+1
Y
he
xn−1 − x0
xn − x0

(xj − x0 )
1
..
.
xn−1 (xn−1 − x0 )

x1
xn (xn − x0 )

..
.
...
..
.
x1n−1
..
.
...
...

.
xnn−1 (xn−1 − x0 )
xnn−1 (xn − x0 )

n−1
j=2 1 xn−1 ... xn−1
.K
1 xn ... xnn
On remplace par la formule à l’ordre n − 1 pour obtenir le résultat souhaité.
Corollaire 1. Si les noeuds d’interpolations x0 , x1 , · · · , xn sont deux à deux
distincts, alors le polynôme d’interpolation pn existe et il est unique.
Proof. Si les abscisses x0 , x1 , · · · , xn sont deux à deux distinctes, alors det(Mn+1 ) 6=
0 et Mn+1 est invervisible. Donc, on peut calculer le vecteur a donc on construit
le polynôme d’interpolation pn .
Supposons maintenant, qu’ils existent deux polynômes pn et p̃n qui interpolent
Dr

les noeuds x0 , x1 , · · · , xn . Alors,


{pn (xi ) = p̃n (xi ) , 0 6 i 6 n,
ce qui nous donne:
−1
Mn+1 a = Mn+1 ã ⇒ a = Mn+1 Mn+1 ã = ã
⇒ pn = p̃n ,
et donc pn est unique.
Remarque 1. Rien n’oblige à ce que le coefficient an de l’interpolant soit
différent de 0. L’interpolant passant par les n + 1 points d’interpolation peut
donc être de degré inférieur à n. Par exemple, si on choisit 10 points sur une
droit, l’interpolant sera quand même de degré 1

6
CHAPTER 1.

1.3 Méthodes d’interpolation polynomiale

Dans cette section, nous allons présenter les méthodes les plus utilisées pour la
construction du polynôme d’interpolation.

1.3.1 Méthode de Vandermonde

f
Cette méthode est très intuitive pour calculer le polynôme d’interpolation pn .

lla
Elle consiste à résoudre le système:
{pn (xi ) = yi , 0 6 i 6 n,
Pour obtenir les coefficients a0 , a1 , · · · , an .
Exemple 1. Soient les données suivantes:

Nous obtenons le système suivant:


xi
yi
he
0
-1
1
0
2
0

 
a0 = −1, a0 = −1,
.K

3
a0 + a1 + a2 = 0, ⇒ a1 = 2,
a0 + 2a1 + 4a2 = 0. a2 = − 21 .
 

Donc, on a
3 1
p2 (x) = −1 + x − x2 .
2 2
Exemple 2. On doit calculer le polynôme passant par les points de collocation
(0, 1), (1, 2), (2, 9) et (3, 28). Etant donné ces 4 points, donc le polynôme
recherché est tout au plus de degré 3. Nous obtenons l’équation matricielle
suivante:
Dr

     
1 0 0 0 a0 1
1 1 1 1 a1  2
 ×  =  
1 2 4 8  a2  9
1 3 9 27 a3 28
dont la solution (obtenue par décomposition LU ) est [1, 0, 0, 1]t . Le polynôme
recherché est donc
p3 (x) = 1 + x3 .
On note que si on utilise directement la commande inv() sur matlab pour calculer
l’inverse de cette matrice, la solution de l’équation matricielle ne sera pas exactement
[1, 0, 0, 1]t .

7
1.3. MÉTHODES D’INTERPOLATION POLYNOMIALE

La méthode de Vandermonde est trop coûteuse et peu pratique puisque le


calcul de l’inverse de la matrice demande beaucoup de temps et en plus génère
beaucoup d’erreur d’arrondi. Cette méthode est intéressante lorsque le nombre
de points d’interpolation est petit. Elle perd toute son efficacité lorsque le
nombre de points augmente et la distance entre les noeuds x0 , x1 , · · · , xn devient
petite, ce qui rend la matrice très proche d’une matrice singulière et donc elle
devient mal conditionnée.

1.3.2 Méthode de Lagrange

f
lla
Joseph-Louis Lagrange (Giuseppe Lodovico Lagrangia) 25 janvier 1736
- 10 avril 1813 Italie.
Le but de la méthode de Lagrange est de contourner la résolution du système
de la méthode de Vandermonde. Donc, elle nous permet de construire le
polynôme d’interpolation d’une façon directe et simple. L’outil et l’ingéniosité
de cette méthode se résume dans la construction des polynômes notés li . Soit
he
la subdivision de l’intervalle [a, b] suivante:
a 6 x0 < x1 < x2 < ... < xi < ... < xn 6 b.
Pour tout x ∈ [a, b], on définit les polynômes de degrè n:
n
Y (x − xj )
li (x) = .
.K
j=0
(xi − xj )
j6=i

On remarque que pour tout 0 6 i, k 6 n:



1 i = k,
li (xk ) = δik =
0 i 6= k.
Les li sont appelés les polynômes de Lagrange correspondant à la subdivision
ou l’ensemble {x0 , x1 , · · · , xn }.
Le polynôme d’interpolation de Lagrange pour les n+1 points de collocation
Dr

(xi , yi ), est:
n
X
Ln [f ] (x) = yi li (x) .
i=0

Théorème 2. Les polynômes {li }06i6n forment une base du sous-espace vectoriel
des polynômes de degré n.
Proof. Exercice.
Théorème 3. Soient (xi , yi )06i6n , (n + 1) points distincts. Il existe alors un
polynôme unique pn (x) de degré n qui vérifie
yi = pn (xi ) , ∀i = 0, 1.., n

8
CHAPTER 1.

ce polynôme est donnée par


n
X
pn (x) = Ln [f ](x) = yi li (x)
i=0

Proof. Simple vérification.


Exemple 3. Reprenons les mêmes données que l’Exemple 1 précédent. Calculons
les polynômes de Lagrange correspondant.
(x − 1) (x − 2) 1
l0 (x) = = (x − 1) (x − 2) ,

f
(0 − 1) (0 − 2) 2
(x − 0) (x − 2)

lla
l1 (x) = = −x (x − 2) ,
(1 − 0) (1 − 2)
(x − 0) (x − 1) 1
l2 (x) = = x (x − 1) .
(2 − 0) (2 − 1) 2
Le polynôme d’interpolation est
1 3 1
L3 [f ] (x) = y0 l0 (x) + y1 l1 (x) + y2 l2 (x) = (−1) (x − 1) (x − 2) = −1 + x − x2 .
he 2 2 2
Cette méthode est très pratique comme on va le constater en TP. Sauf que
le calcul devient très coûteux lorsqu’on veut approcher une fonction. En effet,
rajouter des points d’interpolation revient à la reconstruction totale des polynômes
li .
.K
Exemple 4. Calculer par la méthode de Lagrange le polynôme d’interpolation
passant par les points
xi 1 3 5 7
yi 2 −72 −402 −1180

On commence par calculer les polynômes de Lagrange :

(x − 3) (x − 5) (x − 7) 1 3 5 71 35
Dr

l0 (x) = =− x + x2 − x +
(1 − 3) (1 − 5) (1 − 7) 48 16 48 16
(x − 1) (x − 5) (x − 7) 1 3 13 2 47 35
l1 (x) = = x − x + x−
(3 − 1) (3 − 5) (3 − 7) 16 16 16 16
(x − 1) (x − 3) (x − 7) 1 11 31 21
l2 (x) = = − x3 + x2 − x +
(5 − 1) (5 − 3) (5 − 7) 16 16 16 16
(x − 1) (x − 3) (x − 5) 1 3 3 23 5
l3 (x) = = x − x2 + x −
(7 − 1) (7 − 3) (7 − 5) 48 16 48 16
Le polynôme d’interpolation est donné par :
p3 (x) = 2l0 (x) − 72l1 (x) − 402l2 (x) − 1180l3 (x)
= −4x3 + 4x2 − x + 3

9
1.3. MÉTHODES D’INTERPOLATION POLYNOMIALE

Remarque 2. L’inconvénient majeure de la méthode d’interpolation de Lagrange


est qu’elle n’est pas récursive, si on calcule le polynome passant par n point et
qu’on désire ajouté un autre point, on doit tout refaire depuis le début ce qui
fait de la méthode de Lagrange une technique non économique.

1.3.3 Méthode de Newton.


Lorsqu’on écrit pour les polynômes de Lagrange :
n
X n
X

f
pn (x) = f (xk ) lk (x) = yk lk (x)
k=0 k=0

lla
le polynôme d’interpolation est déterminé en réalité de manière indirecte car
c’est le résultat d’une combinaison linéaire de plusieurs polynômes qui chacun
son tour est définie comme produit de n monomes. Il serait intéréssant de
déterminer dans ce cas une technique permettant de trouver le polynôme par
une approche directe ce qui reviendra à calculer les coéfficients ai dans le
développement suivant
he
pn (x) = a0 + a1 (x − x0 ) + ... + an (x − x0 ) ... (x − xn−1 )

Pour calculer les coéfficients ai une technique simple consiste à remplacer à


chaque fois xi dans le polynôme et de résoudre l’équation
Quand x = x0
a0 = pn (x0 ) = f (x0 )
.K
Quand x = x1

f (x0 ) + a1 (x1 − x0 ) = pn (x1 ) = f (x1 ) ⇒


f (x1 ) − f (x0 )
a1 =
x1 − x0
Quand x = x2 on trouvera
f (x2 ) − (a0 + a1 (x2 − x0 ))
a2 =
Dr

(x2 − x0 ) (x2 − x1 )
en remplaçant a0 et a1 par leurs valeurs respectives on obtient
   
f (x2 ) − f (x1 ) f (x1 ) − f (x0 )

x2 − x1 x1 − x0
a2 =
x2 − x0
Donc ça revient à la résolution du système d’équations linéaires :


 pn (x0 ) = a0 = y0
 pn (x1 ) = a0 + a1 (x1 − x0 ) = y1

.. .. ..


 . . .
pn (xn ) = a0 + a1 (xn − x0 ) + · · · + an (xn − x0 ) × · · · × (xn − xn−1 ) = yn

10
CHAPTER 1.

Construction des différences divisées.


A partir du calcul des différents coéfficients ai on définira les différences divisés
de la fonction f (x)

Ordre 0 f [xi ] = f (xi )


f [xi+1 ] − f [xi ]
Ordre 1 f [xi , xi+1 ] =
xi+1 − xi
f [xi+1 , xi+2 ] − f [xi , xi+1 ]

f
Ordre 2 f [xi , xi+1 , xi+2 ] =
xi+2 − xi

lla
..
.
f [xi+1 , xi+2 , · · · , xi+k ] − f [xi , xi+1,··· , xi+k−1 ]
Ordre k f [xi , xi+1 , xi+2 , · · · , xi+k ] =
xi+k − xi

Théorème 4. Le polynôme d’interpolation de Newton de degré n passant par


he
les (n + 1) points (xi , yi ) peut s’écrire sous la forme récursive :

pn (x) = pn−1 (x) + an (x − x0 ) (x − x1 ) ... (x − xn−1 ) ,

où les coéfficients de ce polynôme sont les différences divisées

ai = f [x0 , x1 , ....xi ] , pour 0 6 i 6 n


.K
Cette méthode nous permet de rajouter des points d’interpolation dans le calcul
du polynôme sans détruire ce qu’on vient déjà de construire. En effet, elle nous
permet de combler les lacunes de la méthode de Lagrange.

Remarque 3. Le polynôme de Newton sera égal au polynôme de Lagrange (le


polynôme d’interpolation étant unique).

Exemple 5. Calculer par la méthode de Newton le polynôme passant par les


points (les mêmes points que l’Exemple 4)
Dr

xi 1 3 5 7
yi 2 −72 −402 −1180

xi f [xi ] f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [x0 , x1 , x2 , x3 ]

−72 − 2
1 2 = −37
3−1
−402 − (−72) −165 − (−37) −56 − (−32)
3 −72 = −165 = −32 = −4
5−3 5−1 7−1
−1180 − (−402) −389 − (−165)
5 −402 = −389 = −56
7−5 7−3
7 −1180

11
1.4. ERREUR D’INTERPOLATION

p3 (x) = f [x0 ] + f [x0 , x1 ] (x − x0 ) + f [x0 , x1 , x2 ] (x − x0 ) (x − x1 ) +


f [x0 , x1 , x2 , x3 ] (x − x0 ) (x − x1 ) (x − x2 )

En remplaçant on obtient :

p3 (x) = 2 − 37 (x − 1) − 32 (x − 1) (x − 3) − 4 (x − 1) (x − 3) (x − 5)

⇒ p3 (x) = 3 − x + 4x2 − 4x3 .

Exemple 6. Dans cette exemple nous allons montrer que la méthode de Newton

f
est très pratique et au même temps elle est récursive. Considérons les deux

lla
points d’interpolations (0, −1) et (1, 0): Alors le polynôme d’interpolation est:

xi yi = f [xi ] f [x0 , x1 ]

0 -1

−1 − 0
he
1 0
0−1
=1

p1 (x) = −1 + x. Ajoutons maintenant un autre points d’interpolation (2, 0),


nous trouvons les mêmes données que l’Exemple 1:
.K
xi yi = f [xi ] f [xi , xi+1 ] f [xi , xi+1 , xi+2 ]

0 -1

−1 − 0
1 0 =1
0−1
0−0 1−0 1
2 0 =0 =−
1−2 0−2 2
Dr

Le polonôme d’interpolation est

1
p2 (x) = p1 (x) − x (x − 1)
2
1 3 1
= −1 + x − x (x − 1) = −1 + x − x2 .
2 2 2

1.4 Erreur d’interpolation


L’erreur d’interpolation commise en remplaçant une fonction f par un polynôme
Pn peut être estimé par le théorème suivant :

12
CHAPTER 1.

Théorème 5. Soit [a, b] un intervalle contenant x0 , x1 , ...xn on suppose que


f est (n + 1) fois dérivables sur [a, b] , alors pour tout x ∈ [a, b] il existe un
ξ ∈ [a, b] tel que :

f (n+1) (ξ) n
f (x) − pn (x) = Π (x − xi ) .
(n + 1)! i=0

Pour effectuer la preuve on a besoin du lemme suivant issu du théorème de Rolle


:

f
Lemme 1. Soit g une fonction m fois dérivable sur [a, b]. S’il existe m + 1
points c0 < c1 .... < cm de [a, b] tels que g (ci ) = 0 pour tout i = 0, 1, · · · , m alors

lla
il existe un point c ∈ ]a, b[ tel que g (m) (c) = 0.

Proof. Soit la fonction g


n
Q
(t − xj )
j=0
g (t) = f (t) − pn (t) − (f (x) − pn (x)) Q
n
he j=0

La fonction g admet (n + 2) racines aux points x, x0 , x1 , ...xn .


(x − xj )

D’après le lemme précedent il existe un point ξ tel que g (n+1) (ξ) = 0.

(n + 1)!
g (n+1) (ξ) = f (n+1) (ξ) − (f (x) − pn (x)) Q =0
.K
n
(x − xj )
j=0

On obtient alors :
(n + 1)!
f (n+1) (ξ) = (f (x) − pn (x)) Q
n
(x − xj )
j=0
n
Q
(x − xj )
Dr

j=0
⇒ f (x) − pn (x) = f (n+1) (ξ)
(n + 1)!

Remarque 4. Le théorème précédent ne permet d’estimer l’erreur que dans


le cas où la fonction est déjà connue, dans ce cas on peut majorer la dérivée
d’ordre (n + 1) .

13
1.5. INTERPOLATION D’HERMITE

1.5 Interpolation d’Hermite


Charles Hermite 24 décembre 1822-14 janvier 1901 France.
L’interpolation d’Hermite est une généralisation de l’interpolation de Lagrange.
Dans l’interpolation de Lagrange on exige que le polynôme passe par les points
{(xi , yi = f (xi ))}i=0,...,n .
Dans l’interpolation d’Hermite on exige en plus qu’ils coincident sur un certain
nombre de dérivées de la fonction f.

f
1.5.1 Polynôme d’interpolation coincidant avec la première
dérivée.

lla
On cherche un polynôme qui vérifie les conditions suivantes

P (xi ) = yi = f (xi ) : ∀i = 0, ..., n


0
P (xi ) = zi = f 0 (xi ) : ∀i = 0, ..., n

Question he
Quel est le degrè de polynôme cherché ?

Réponse
Si on se donne n+1 noeuds d’interpolation x0 , · · · , xn Alors le polynôme satisfait
.K
les conditions précédentes, est de degré inférieur ou égal à 2n + 1. En effet;

Exemple 7. Trouver le polynôme P de degé inférieur ou égal à 3, tel que

P (xi ) = yi = f (xi ) : ∀i = 0, 1
0
P (xi ) = zi = f 0 (xi ) : ∀i = 0, 1

Ce polynôme s’écrit comme: P (x) = a0 + a1 x + a2 x2 + a3 x3 . En appliquant ces


conditions, on trouve le système suivant:
Dr

a0 + a1 x0 + a2 x0 2 + a3 x30 = f (x0 )
0 + a1 + 2a2 x0 + 3a3 x20 = f 0 (x0 )
a0 + a1 x1 + a2 x1 2 + a3 x31 = f (x1 )
0 + a1 + 2a2 x1 + 3a3 x21 = f 0 (x1 )

Cela équivalent à,

x20 x30
     
1 x0 a0 f (x0 )
0 1 2x0 3x20  a1  f 0 (x0 )
 ×  =  
1 x1 x21 x31  a2   f (x1 ) 
0 1 2x1 3x21 a3 f 0 (x1 )

14
CHAPTER 1.

Ou bien encore
AX = B
On a det A = −(x1 − x0 )4 puisque x0 6= x1 d’où l’existence de P .

Revenons au problème principal de cette section; Trouver un polynôme P tel


que

P (xi ) = yi = f (xi ) : ∀i = 0, ..., n


0
P (xi ) = zi = f 0 (xi ) : ∀i = 0, ..., n

f
Comme on a 2n+2 données le polynôme sera de degré inférieur ou ègal à 2n+1.

lla
Pour l’exitence, nous allons construir directement ce polynôme. En posant
n
X n
X
P (x) = yi hi (x) + zi ki (x)
i=0 i=0
avec

hi (x)
ki (x)
=
=
he
[1 − 2 (x − xi ) li0 (xi )] li2 (x)
(x − xi ) li2 (x)

où les li sont les polynômes de Lagrange pour l’ensemble

{x0 , x1 , · · · , xn }.
.K
Comme les polynômes li sont de degré n, alors il est clair par construction que
les polynômes hi et ki sont de degré 2n + 1.
Maintenant, commençons par remarquer que :

1 : si j = i
hi (xj ) = [1 − 2 (xj − xi ) li0 (xi )] li2 (xj ) =
0 : si j 6= i
ki (xj ) = (xj − xi ) li2 (xj ) = 0 : ∀ 0 6 j 6 n.
Dr

Ainsi on a :
n
X n
X
P (xj ) = yi hi (xj ) + zi ki (xj ) = yj
i=0 i=0
| {z }
=0

Pour évaluer la dérivée on commence par évaluer les dérivées des fonctions hi
et ki :
0
h0i (x) = −2xli0 (xi ) li2 (x) + 2 [1 − 2 (x − xi ) li0 (xi )] li (x) li (x)
On remarque que
0
h0i (xj ) = −2xj li0 (xi ) li2 (xj )+2 [1 − 2 (xj − xi ) li0 (xi )] li (xj ) li (xj ) = 0 : ∀ 0 6 j 6 n.

15
1.5. INTERPOLATION D’HERMITE

On va évaluer à présent la dérivée de ki

ki0 (x) = li2 (x) + 2 (x − xi ) li0 (x) li (x)

On a :

1 : si j = i
ki0 (xj ) = li2 (xj ) + 2 (xj − xi ) li0 (xj ) li (xj ) =
6 i
0 : si j =

Par conséquent on obtient :

f
n
X Xn
P (xj ) = yi h0i (xj ) + zi ki0 (xj ) = yj

lla
i=0
| {z } i=0
=0

Ainsi le polynôme P est le polynôme recherché.


Maintenant, pour montrer l’unicité de Polynôme de Hermite, on suppose qu’il
existe deux polynôme P1 et P2 . Définissons le polynôme

R(x) = P1 (x) − P2 (x).

R(xi )
R0 (xi )
=
=
he
Pour avoir l’unicité, on doit prouver que R = 0. Comme

P1 (xi ) − P (x2 ) = f (xi ) − f (xi ) = 0 i = 0, 1, · · · , n


P10 (xi ) − P 0 (x2 ) = f 0 (xi ) − f 0 (xi ) = 0 i = 0, 1, · · · , n

Donc, xi est une racine double de R. On conclut que le polynôme R admet


.K
(n + 1) racines doubles, ce qui fait R admet 2n + 2 racines, d’où la contradiction
avec le fait que R est de degré inféreiur ou égal à 2n+1 et qu’il admet seulement
2n + 1 racines. D’où R est un polynôme nul.
Exemple 8. On doit construire le polynôme p tel que

p(0) = 0, p(1) = 1, p0 (0) = 1, et p0 (1) = 0.

Ici, n = 1 avec x0 = 0, et x1 = 1. Comme p(0) = p0 (1) = 0, alors le polynome


de Hermite est:
Dr

p(x) = (0) × h0 (x) + (1) × h1 (x) + (1) × k0 (x) + (0) × k1 (x) = h1 (x) + k0 (x).

De l’autre côté, on a:

l0 (x) = (1 − x), l1 (x) = x.

Alors,
h1 (x) = [1 − 2(x − x1 )l10 (x1 )](l1 (x))2 = x2 (3 − 2x),
k0 (x) = (x − x0 )(l0 (x))2 = (1 − x)2 x.
Finalement, le polynôme de Hermite est:

p(x) = −x3 + x2 + x.

16
CHAPTER 1.

Théorème 6. Soit [a, b] un intervalle contenant x0 , x1 , ...xn On suppose que


f est (2n + 2) fois dérivables sur [a, b] Soit P (x) le polynôme d’interpolation
d’Hermite alors pour tout x ∈ [a, b] il existe un ξ ∈ [a, b] tel que :

f (2n+2) (ξ) n 2
f (x) − P (x) = Π (x − xi ) .
(2n + 2)! i=0

Proof. Exercice.

f
1.6 Approximation au sens des moindres carrés

lla
Contrairement à l’interpolation ici on ne cherche plus à passer par tous les
points mais à trouver une forme de fonction qui passe le plus près possible de
l’ensemble des points. Si la fonction modèle est un polynôme de degré 1 on
parle de régression linéaire sinon on parle de régression non linéaire.

1.6.1 Régression linéaire


he
Soient {Xi , Yi }i=0,n un ensemble de point et y = ax + b la droite que nous
cherchons à faire passer par le maximum de points, pour que la droite soit le
plus proche possible de tous les points nous définissons les écarts quadratique
2
par Ei = (Yi − yi ) avec yi = aXi + b
Nous cherchons à minimiser les écarts quadratiques, nous considérons donc la
.K
somme de ceux ci
n
X n
X
2 2
(Yi − yi ) = (Yi − aXi − b) = R (a, b)
i=0 i=0

La somme des écarts quadratiques est donc une fonction de deux variables (a, b)
pour trouver son minimum on doit annuler ses deux dérivées partielles :
 n
∂R X
= −2Xi (Yi − aXi − b) = 0


Dr

 ∂a


 i=0

 n

 ∂R X

 = 2 (Yi − aXi − b) = 0
∂b

i=0

On obtient en réorganisant les équations :


 Xn Xn Xn
2
aX + bX − Xi Yi = 0

i

 i


 i=0 i=0 i=0


 n
X n
X n
X

 −a Xi − b+ Yi = 0


i=0 i=0 i=0

17
1.6. APPROXIMATION AU SENS DES MOINDRES CARRÉS

Nous devons donc résoudre le système suivant pour calculer les coéfficients (a, b)
 X n Xn Xn
2
a X + b X = Xi Yi

i

 i


 i=0 i=0 i=0


 n
X n
X



 a Xi + b (n + 1) = Yi
i=0 i=0

Exemple 9. Soit f une fonction connue aux points x0 = 0, x1 = 1 et x2 = 2

f
telle que f (x0 ) = 1, f (x1 ) = 0 et f (x2 ) = 2.
On se propose de déterminer le polynôme p de degré inférieur ou égal à 1 qui

lla
approche au sens des moindres carrés la fonction f .
Donc, le polynôme cherché est:

p(x) = a + bx

Donc les composantes a et b vérifie le système:





X

2
2
X
 i=0
x2i

xi = 3
=5
he
2
X

i=0

(2 + 1) = 3



xi = 3    
 × a =  i=0

b


 X
2
 2
X
xi f (xi ) = 5

f (xi ) = 3




i=0 i=0
.K
d’où
1 1
p(x) = + x
2 2

1.6.2 Régression non linéaire :


Le principe consiste toujours à minimiser les écarts quadratiques, on remplace
seulement l’équation de la droite par celle d’un polynôme ou d’un autre modèle
prédeterminé par exemple f (x) = axb , aebx , a cos (bx) ...etc.
Dr

Soient {Xi , Yi }i=0,n un ensemble de point et y = a0 + a1 x + ... + am xm un


polynôme de degré m < n
Nous cherchons à minimiser les écarts quadratiques, nous considérons donc la
somme de ceux ci
n
X n
X
2 2
R= (Yi − yi ) = (Yi − (a0 + a1 x + ... + am xm )) = R (a0 , ...am )
i=0 i=0

ainsi R est une fonction de (m + 1) variables elle admet toujours un minimum


∂R
pour = 0 donc on doit résoudre un système de (m + 1) équations linéaires
∂ai
par rapport aux coéfficients ai .

18
CHAPTER 1.

1.6.3 Approximation au sens de moindres carrés en utilisant


des polynômes orthogonaux
Commençons par quelques définitions utiles par la suite:
Définition 1. Soit E un espace vectoriel réel.
1. L’application
< ·, · >: E × E → R
(x, y) → < x, y >

f
est appélée produit scalaire sur E si elle vérifie:

lla
i) < x, x >> 0, ∀x ∈ E,
ii) < x, x >= 0 ⇐⇒ x = 0E ,
iii) < x, y >=< y, x >,
vi < x, αy + βz >= α < x, y > +β < x, z >, ∀x, y, z ∈ E et α, β ∈ R.
2. L’application
k · kE
x →
he
→ R+
kxk =

< x, x >
est appélée norme sur E associée au produit scalair < ·, · >.
3. Un espace vectoriel réel muni par un produit scalaire est dit préhilbertien
.K
sur R.

4. un espace préhilbertien complet pour la norme associée a ce produit scalaire


est dit espace de Hilbert.

5. La famille {ϕ0 , ϕ1 , · · · , ϕn } est une base de E:


a) La famille {ϕ0 , ϕ1 , · · · , ϕn } est appelée base orthogonale de E si
Dr

< ϕi , ϕj >= 0 ∀i, j = 0, · · · , n et i 6= j.

b) La famille {ϕ0 , ϕ1 , · · · , ϕn } est appélée base orthonomée de E si:



1 si j = i
< ϕi , ϕj >=
0 si j 6= i

Exemple 10. Soit E = Rn , x = (x1 , · · · , xn ), y = (y1 , · · · , yn ) ∈ E, alors


l’application:
< ·, · >: E × E → R
n
X
(x, y) → < x, y >= xk yk
k=1

19
1.6. APPROXIMATION AU SENS DES MOINDRES CARRÉS

définit un produit scalaire sur E = Rn et la norme associée à ce produit scalaire


est définie par la relation:
n  12
√ X
kxk = < x, x > = x2k
k=1

Exemple 11. Soit E = C([a, b]), si f, g ∈ E alors l’application:


< ·, · >: E × E → R
Z b
(f, g) → < f, g >= f (x)g(x)dx

f
a

lla
définit un produit scalaire sur E = C([a, b]) et la norme associée à ce produit
sclaire est définie par:
p Z b  21
kf k = < f, f > = f (x)2 dx .
a

1
Exemple 12. La famille {1, x, (3x2 − 1)} est une base orthonormé de P2 ([−1, 1])
he 2
pour le produit scalaire défini par:

< f, g >=
Z 1
f (x)g(x)dx
−1

Position du problème
.K
Soit E un espace vectoriel réel tel que Pn ⊂ E, où Pn est l’espace des polynômes
de degré inférieur ou égal à n. L’approximation polynomiale au sens des moindres
carrés consiste à déterminer le polynôme pn qui vérifie:
kf − pn k = min kf − pk.
p∈Pn

pn est appélé meilleur approximation au sens des moindres carrés de


f dans Pn .
Dr

Existence et unicité de la meilleure approximation au S.M.C


Théorème 7. Soit E un espace de Hilbert et F ⊆ E un convexe fermé non
vide. Alors,
∀f ∈ E, ∃p∗ ∈ F : kf − p∗ k = min kf − pk.
p∈F

De plus, p est caractérisé par:
< f − p∗ , p >= 0 ∀p ∈ F.
Pour appliquer ce théorème dans notre cas, on a F = Pn où dim Pn = n + 1,
alors d’une part, F est convexe, et d’autre part, F est complet et donc il est
fermé. Donc, le meilleur approximation au sens des moinders carrés de f dans
Pn existe et désigne par pn et il est unique.

20
CHAPTER 1.

f
lla
Figure 1.2: La projection orthogonale.

Détermination de la meilleure approximation au S.M.C

∀p ∈ Pn =⇒ p =
he
Soit {ϕ0 , ϕ1 , · · · , ϕn } une base de Pn , et soit f ∈ E. On remarque que
n
X

i=0
ai ϕi , ai ∈ R.

Maintenant caractérisons notre inconnu pn ∈ Pn par


.K
n
X
pn = a∗i ϕi , a∗i ∈ R.
i=0

Donc, pour déterminer pn on doit déterminer le vecteur (a∗0 , a∗1 , · · · , a∗n ).


D’après le théorème de la projection pn vérifie la relation:

< f − pn , p >= 0, ∀p ∈ Pn
Dr

Cela implique
n
X
< f − pn , aj ϕj >= 0, ∀aj ∈ R.
j=0

Cela implique
n
X
aj < f − pn , ϕj >= 0, ∀aj ∈ R.
j=0

Cela implique
< f − pn , ϕj >= 0, ∀j = 0, 1, · · · , n.
Cela implique
< pn , ϕj >=< f, ϕj >, ∀j = 0, 1, · · · , n.

21
1.6. APPROXIMATION AU SENS DES MOINDRES CARRÉS

Cela implique
n
X
< a∗k ϕk , ϕj >=< f, ϕj >, ∀j = 0, 1, · · · , n.
k=0

Cela implique
n
X
a∗k < ϕk , ϕj >=< f, ϕj >, ∀j = 0, 1, · · · , n
k=0

f
Cela implique Ba∗ = b où

lla
 
< ϕ0 , ϕ0 > < ϕ0 , ϕ1 > ... < ϕ0 , ϕn >
 < ϕ0 , ϕ1 > < ϕ1 , ϕ1 > ... < ϕn , ϕ1 > 
B = ,
 
 .. .. .. ..
 . . . . 
< ϕ0 , ϕn > < ϕ1 , ϕn > ... < ϕn , ϕn >

a∗ =
 ∗
a0
 a∗1 
 ..  ,
 
.


a∗n

he
< f, ϕ0 >
.K
 < f, ϕ1 > 
b = .
 
 ..
 . 
< f, ϕn >

Ce sytème admet une et une seule solution car pn existe et il unique.

Remarque 5. Si la famille {ϕ0 , ϕ1 , · · · , ϕn } forme une base orthogonale de


Pn , alors la matrice B devient une matrice diagonale, d’où les coefficient a∗k
satisfont l’equation
Dr

< f, ϕk > < f, ϕk >


a∗k = = , k = 0, 1, 2, · · · , n.
< ϕk , ϕk > kϕk k2

Remarque 6. Si la famille {ϕ0 , ϕ1 , · · · , ϕn } forme une base orthonormale de


Pn , on trouve immédiatement

a∗k =< f, ϕk >, k = 0, 1, 2, · · · , n.

Exemple 13. On cherche le polynome p qui approche la fonction h(x) = ex au


sens des moindres carrés sur l’espace E = C([0, 1]) muni par le produit scalaire
Z 1
< f, g >= f (x)g(x), ∀f, g ∈ E.
0

22
CHAPTER 1.

On pose p ∈ F = vect{ϕ0 , ϕ1 , ϕ2 } où
1 1
ϕ0 (x) = 1, ϕ1 (x) = x − , ϕ2 (x) = x2 − x + .
2 6
On peut vérifier que la famille {ϕ0 , ϕ1 , ϕ2 } base orthogonale. De l’autre côté le
polynôme cherché p est:

p(x) = a∗0 ϕ0 (x) + a∗1 ϕ1 (x) + a∗2 ϕ2 (x).

Donc, d’après la forme matricielle, on a

f
R1
ex ϕi (x)dx

lla
a∗i = R 01 , i = 0, 1, 2.
0
(ϕi (x))2 dx

Cela implique

a∗0 = e − 1, a∗1 = 18 − 6e, a∗2 = 210e − 570.

Alors he
p(x) = (210e − 570)x2 + (588 − 216e)x + (39e − 105).

Application au cas discret


Soit E = C([a, b]). Soient x0 , x1 , x2 , · · · , xN (1+N ) points distincts de l’intervalle
.K
[a, b]. Soit f ∈ E une fonction connue seulement aux points xi pour i =
0, 1, · · · , N . On définit F = Pn où n < N , et on munit F par le produit scalaire:
N
X
< g, h >= wi g(xi )h(xi ), ∀g, h ∈ Pn ,
i=0

où wi sont des poids des nombres positifs données non nuls à la fois. La norme
associée à ce produit scalaire est définie par:
v
Dr

uN
uX
kgk = t wi (g(xi ))2 , ∀g ∈ Pn
i=0

On definit la base canonique de Pn par

ϕ0 (x) = 1, ϕ1 (x) = x, · · · , ϕn (x) = xn .

La meilleure approximation au sens des moindres carrés pn de f , s’écrit:

pn (x) = a0 + a1 x + · + an xn ,

où le vecteur (a0 , a1 , · · · , an ) est l’unique solution du système matriciel:Ba = b


23
1.6. APPROXIMATION AU SENS DES MOINDRES CARRÉS

 N
X N
X N
X

 wi w i xi ... wi xni
 i=0 i=0 i=0

 N N N

X X X 
n+1 
w i xi wi x2i ... wi xi 


B = 
 i=0 i=0 i=0
,

 .. .. .. .. 

 . . . . 

X N N
X XN 
wi xni wi xn+1 2n 

... wi xi

f
i
i=0 i=0 i=0
 
a0

lla
 a1 
a =  ..  ,
 
.
an
 N 
X
 wi f (xi ) 

b =
 i=0
 N
X



 i=0



X N
.
he
wi xi f (xi ) 

..




.





wi xni f (xi )
 
.K
i=0

Exemple 14. Soit f une fonction connue aux points x0 = 0, x1 = 1 et x2 = 2


telle que f (x0 ) = 1, f (x1 ) = 0 et f (x2 ) = 2.
On se propose de déterminer le polynôme p de degré inférieur ou égal à 1 qui
approche au sens des moindres carrés la fonction f .
Donc ce polynôme p ∈ P1 = vect{1, x}, alors
p(x) = a0 + a1 x
Cet espace P1 est muni du produit scalaire:
Dr

2
X
< g, h >= g(xi )h(xi ), ∀g, h ∈ P1
i=0

Donc les composantes a0 et a1 vérifie le système:


 2 2
  2 
X X X
 1=3 xi = 3     f (xi ) = 3 
 × a0 =  i=0
   
 i=0 i=0 
X 2 X 2  a1  2 
2 X
xi = 3 xi = 5 xi f (xi ) = 5
  
i=0 i=0 i=0

d’où
1 1
p(x) = + x
2 2

24
CHAPTER 1.

1.6.4 Erreur d’approximation


On définit l’érreur d’approximation polynomiale par:
v
u n
X
u
kf − pn k = tkf k2 − < f, ϕk >.
k=0

En effet;

f
kf − pn k = < f − pn , f − pn >

lla
= < f − pn , f > − < f − pn , pn >
n
X
= kf k − a∗k < f, ϕk > .
i=0

En particulier: si la base {ϕ0 , ϕ1 , · · · , ϕn } est orthonormal’, on obtient


v
u
uhe
kf − pn k = tkf k2 −

Algorithme de Gram-Schmidt
Xn

k=0
(a∗k )2 .

Soit F un espace de dimension finie. En partant d’une base quelconque de F ,


.K
notée {ϕ0 , ϕ1 , · · · , ϕn }, on peut construire à la fois une base orthogonale de F ,
notée {u0 , u1 , · · · , un }, et une autre base orthonormée notée, {h0 , h1 , · · · , hn },
à l’aide de l’algorithme de Gram-Schmidt suivant:
Dr

25
1.6. APPROXIMATION AU SENS DES MOINDRES CARRÉS

1.6.5 Série de Fourier

Soit f une fonction continue de R dans R, T -périodique c.-à-d. ∀x ∈ R,

f (x + T ) = f (x) .

On appelle série de Fourier de la fonction f , la série suivante :


+∞     
1 2π 2π

f
X
S (f ) (x) = a0 + ak cos kx + bk sin kx ,
2 T T
k=1

lla
où,
Z T  
2 2π
ak = f (t) cos kt dt, k > 0,
T 0 T
Z T  
2 2π
bk = f (t) sin kt dt, k > 1.

suivante :

1
n 
X
he
T 0



 
T

On appelle série de Fourier tronquée à l’ordre n de la fonction f , la série



Sn (f ) (x) = a0 + ak cos kx + bk sin kx .
2 T T
.K
k=1

On accèpte sans démonstartion le résultat suivant:


Théorème 8. Soient f et g des fonctions continues de R dans R, T -périodiques.
Si elles ont les mêmes coefficients de Fourier alors on a, f = g.
Proof. Voir [?].
Théorème 9. Si f ∈ C 2 (R) et T -périodique, alors il existe C > 0, pour tout
n∈N
Dr

1
sup |f (x) − Sn (f ) (x)| 6 C sup |f 00 (x)| .
x∈R x∈R n

Proof. En intégrant par partie les coefficients de Fourier de la fonction f , on


obtient pour k > 0

2 T
Z  

ak = f (t) cos kt dt,
T 0 T
Z T  
1 2π
= f 0 (t) sin kt dt,
πk 0 T
Z T  
T 00 2π
= − f (t) cos kt dt.
2πk 2 0 T

26
CHAPTER 1.

De la même façon, on obtient pour k > 1


Z T  
T 00 2π
bk = − f (t) sin kt dt.
2πk 2 0 T
Donc, il existe C1 > 0 tel que
C1
|ak | 6 sup |f 00 (x)| , k > 0,
k 2 x∈R
C1
|bk | 6 sup |f 00 (x)| , k > 1.
k 2 x∈R

f
Alors, la série

lla
+∞     
1 X 2π 2π
a0 + ak cos kx + bk sin kx ,
2 T T
k=1

est absolument convergente sur R. Soit g ∈ C (R) la somme de cette série, on


constate que les coefficients de Fourier de la fonction g et celles de f sont égales.
En utilisant le théorème précédent on conclut que

1
f (x) = a0 +

On a, ∀x ∈ R
2
+∞ 
X
ak cos
k=1


T

he
kx + bk sin


T
kx

.

+∞     
.K
X 2π 2π
|f (x) − Sn (f ) (x)| = ak cos kx + bk sin kx ,
T T
k=n+1
+∞
X
6 (|ak | + |bk |) ,
k=n+1
+∞
X 1
6 2C1 sup |f 00 (x)| .
x∈R k2
k=n+1
Z k
1 dt
Dr

Mais, 6 . Donc,
k2 k−1 t2
Z +∞
dt
|f (x) − Sn (f ) (x)| 6 2C1 sup |f 00 (x)| ,
x∈R n t2
1
6 2C1 sup |f 00 (x)| .
x∈R n
Il suffit de prendre C = 2C1
Remarque 7. Le théorème précédent nous assure la convergence de cette méthode
d’approximation. Mais la construction de cette série n’est pas aussi évidente
dans le cas général, car le calcul des coefficients de Fourier exige une connaissance
presque complète de la fonction f .

27
1.7. INTERPOLATION PAR DES SPLINES

1.7 Interpolation par des Splines


Lorsqu’on réalise une interpolation, on espère généralement que l’interpolation
marche encore en dehors des points pris en compte pour calculer le polynôme. Or
l’interpolation polynomiale diverge rapidement en dehors des points d’interpolation.
Ceci est aussi vrai sur les bords du domaine comme c’est le cas pour la fonction
de Runge où des oscillations apparaissent lorsque le nombre de points est supérieur
à 10. Une meilleure répartition des points (répartition de Tchebychev) permet
de réduire l’erreur mais des oscillations subsistent. De plus, l’utilisation de
polynômes de degré élevé est à éviter puisqu’on introduit rapidement des instabilités

f
numériques.
On leur préfère alors une interpolation polynomiale par morceaux appelée spline.

lla
Plutot que de trouver un polynôme de degré important passant par tous les points,
on cherche plusieurs polynômes qui se rejoingne sur les points du nuage.
Ainsi notre fonction spline S (x) sera définie par


 S0 (x) si x0 6 x 6 x1
S1 (x) si x1 6 x 6 x2

S (x) = he
 ............

Sn (x) si xn−1 6 x 6 xn

Lorsque les polynômes Si (x) sont de degré 1, on parle de spline linéaire; quand
ils sont de degré 2, on parle de spline quadratique. S’ils sont de degré 3, on
parle de spline cubique.
.K
1.7.1 Interpolant polynômiale par morceaux

n
Soit {tj }j=1 une subdivision de l’intervalle [α, β]. On définit la suite de fonctions
n
{ej }j=1 par

 t−t
Dr

j−1
 t ∈ [tj−1 , tj ] ,
 tj − tj−1


tj+1 − t
ej (t) = t ∈ [tj , tj+1 ] , 2 6 j 6 n − 1,



 t j+1 − t j
0 ailleurs.
( t −t
2
t ∈ [t1 , t2 ] ,
e1 (t) = t2 − t1
0 ailleurs.

 t − tn−1 t ∈ [tn−1 , tn ] ,
en (t) = tn − tn−1
 0 ailleurs.

L’interpolant polynômiale par morçeaux d’ordre 1 d’une fonction f ∈

28
CHAPTER 1.

C (α, β) est donné par


n
X
∀t ∈ [α, β] , Pn,1 [f ] (t) = f (tj ) ej (t) .
j=1

Pour h > 0, la fonction suivante

w0 (f, h) = max |f (s) − f (t)|


|s − t| 6 h
α6s,t6β

f
est appellée le module de continuité de f . Donc, si h tend vers 0 alors w0 (f, h)

lla
tend vers 0, puisque f est continue.
Théorème 10.

sup |f (t) − Pn,1 [f ] (t)| 6 w0 (f, hn ) .


t∈[α,β]

Où,

hn = max
16j6n−1

Proof. On a, pour tout t ∈ [tj , tj+1 ],


he
(tj+1 − tj ) .

Pn,1 [f ] (t) = f (tj ) (1 − αj (t)) + f (tj+1 ) αj (t) ,


.K
où,
t − tj
αj (t) = ∈ [0, 1] .
tj+1 − tj

Ceci montre que pour tout t ∈ [tj , tj+1 ],

Pn,1 [f ] (t) − f (t) = (f (tj ) − f (t)) (1 − αj (t)) + (f (tj+1 ) − f (t)) αj (t)


Dr

et enfin,

sup |f (t) − Pn,1 [f ] (t)| 6 w0 (f, hn ) .


t∈[α,β]

1.7.2 Splines cubiques


Les splines cubiques sont les plus populaires parmi les les méthodes Splines.
Dans cette technique on utilise pour chaque intervalle [xi−1 , xi ] un polynôme de
degré 3 de la forme

pi (x) = ai x3 + bi x2 + ci x + di : 1 6 i 6 n

29
1.7. INTERPOLATION PAR DES SPLINES

Les différents points doivent être reliés entre eux de sortes que la fonction
résultant soit deux fois différentiables.
Il y a n polynômes à calculer, ces n polynômes doivent vérifier des conditions
sur les dérivées premières et secondes aux points de jonction (xi , yi ) : 1 6 i 6
n−1. Les deux extrémités (x0 , y0 ) et (xn , yn ) doivent juste vérifier les conditions
d’interpolation.
Ainsi on peut résumer les contraintes comme suit :

p1 (x0 ) = y0 , pn (xn ) = yn

f
Pour chaque point de jonction on a les conditions de continuités :
f (xi ) = yi : 1 6 i 6 n − 1

lla
pi (xi ) =
pi+1 (xi ) = f (xi ) = yi : 1 6 i 6 n − 1
Les conditions de dérivabilité première :
p0i (xi ) = p0i+1 (xi ) : 1 6 i 6 n − 1
Les conditions de dérivabilité seconde :
he
p00i (xi ) = p00i+1 (xi ) : 1 6 i 6 n − 1
Nous avons donc au total (4n − 2) équations
On peut tenter de résoudre directement le système d’équations mais il existe une
façon de réduire la taille du sysème d’équations :
Comme dans l’intervalle [xi−1 , xi] la dérivée seconde est un polynôme de degré 1
.K
00
dont les sommets sont xi−1 , fi−1 et (xi−1 , fi00 ) ainsi on peut utiliser l’interpolation
de Lagrange :
(x − xi ) (x − xi−1 )
p00i (xi ) = fi−1
00
+ fi00
(xi−1 − xi ) (xi − xi−1 )
En intégrant deux fois cette équation, on obtient :
2 2
(x − xi ) (x − xi−1 )
p0i (xi ) = fi−1
00
+ fi00 + αi
2 (xi−1 − xi ) 2 (xi − xi−1 )
Dr

D’où :
3 3
00 (x − xi ) (x − xi−1 )
pi (xi ) = fi−1 + fi00 + αi (x − xi ) + βi
6 (xi−1 − xi ) 6 (xi − xi−1 )
αi et βi étant les constantes d’intégration.
Comme on a pi (xi ) = f (xi ) = yi
3 3
00 (xi − xi ) (xi − xi−1 )
pi (xi ) = f (xi ) = fi−1 + fi00 + αi (xi − xi ) + βi
6 (xi−1 − xi ) 6 (xi − xi−1 )
Ce qui entraine que :
2
(xi − xi−1 )
βi = f (xi ) − fi00
6

30
CHAPTER 1.

D’un autre coté on a pi (xi−1 ) = f (xi−1 )


3 3
00 (xi−1 − xi ) (xi−1 − xi−1 )
pi (xi−1 ) = f (xi−1 ) = fi−1 +fi00 +αi (xi−1 − xi )+βi
6 (xi−1 − xi ) 6 (xi − xi−1 )
En remplaçant la valeur de βi on obtient :
2 3 2
(xi−1 − xi )
00 (xi−1 − xi−1 ) (xi − xi−1 )
f (xi−1 ) = fi−1 + fi00 + αi (xi−1 − xi ) + f (xi ) − fi00
6 6 (xi − xi−1 ) 6
!
2 2
(x i − x i−1 ) (x i−1 − x i )
⇒ −αi (xi−1 − xi ) = − (f (xi−1 ) − f (xi )) − fi00 00
− fi−1

f
6 6

lla
!
2 2
00 (xi − xi−1 ) 00 (xi−1 − xi )
⇒ αi (xi − xi−1 ) = (f (xi ) − f (xi−1 )) − fi − fi−1
6 6

D’où on obtient la valeur de αi


f 00 − fi−1
00

f (xi ) − f (xi−1 ) (xi − xi−1 )
αi = − i
(xi − xi−1 ) 6
Ainsi l’équation de la spline est donnée par :

pi (x) = 00
fi−1
(x − xi )
3

6 (xi−1 − xi )
+ fi00
he
(x − xi−1 )
3

6 (xi − xi−1 )
+
!
2
fi00 − fi−1
00

f (xi ) − f (xi−1 ) (xi − xi−1 ) (xi − xi−1 )
− (x − xi ) + f (xi ) − fi00
.K
(xi − xi−1 ) 6 6

Qu’on peut réecrire sous la forme :


3 3  
00 (x − xi ) 00 (x − xi−1 ) f (xi−1 ) 00 (xi − xi−1 )
pi (x) = −fi−1 + fi − − fi−1 (x − xi )
6 (xi − xi−1 ) 6 (xi − xi−1 ) (xi − xi−1 ) 6
  2
f (xi ) (xi − xi−1 ) (xi − xi−1 )
+ − fi00 (x − xi−1 ) + f (xi ) − fi00
(xi − xi−1 ) 6 6
A présent on va remplacer le terme (x − xi ) par (x − xi−1 ) + (xi−1 − xi ) dans
Dr

l’avant dernier terme :


3 3  
00 (x − xi ) 00 (x − xi−1 ) f (xi−1 ) 00 (xi − xi−1 )
pi (x) = −fi−1 + fi − − fi−1 (x − xi )
6 (xi − xi−1 ) 6 (xi − xi−1 ) (xi − xi−1 ) 6
  2
f (xi ) (xi − xi−1 ) (xi − xi−1 )
+ − fi00 ((x − xi−1 ) + (xi−1 − xi )) + f (xi ) − fi00
(xi − xi−1 ) 6 6
D’où on obtient :
3 3  
00 (x − xi ) 00 (x − xi−1 ) f (xi−1 ) 00 (xi − xi−1 )
pi (x) = −fi−1 + fi − − fi−1 (x − xi )
6 (xi − xi−1 ) 6 (xi − xi−1 ) (xi − xi−1 ) 6
 
f (xi ) (xi − xi−1 )
+ − fi00 ((x − xi−1 ))
(xi − xi−1 ) 6

31
1.7. INTERPOLATION PAR DES SPLINES

Si on pose xi − xi−1 = hi on obtient :


3 3  00
f (xi ) fi00 hi
  
00 (x − xi ) (x − xi−1 ) f (xi−1 ) fi−1 hi
pi (x) = −fi−1 +fi00 − − (x − xi )+ − (x − xi−1 )
6hi 6hi hi 6 hi 6
00
Il faut à présent déterminer les fi−1 , nous allons utiliser pour celà la dernière
condition qui n’a pas été utilisée : la continuité des dérivées premières.
On a d’une part
2 2  00
f (xi ) fi00 hi
  
00 (x − xi ) (x − xi−1 ) f (xi−1 ) fi−1 hi
p0i (x) = −fi−1 +fi00 − − + −

f
2hi 2hi hi 6 hi 6

lla
et d’autre part :
2 2  00
f (xi ) fi00 hi+1
  
(x − xi+1 ) 00 (x − xi ) f (xi+1 ) fi+1 hi+1
p0i+1 (x) = −fi−1
00
+fi+1 − − + −
2hi+1 2hi+1 hi+1 6 hi+1 6

Comme on doit satisfaire à l’équation : p0i (xi ) = p0i+1 (xi ) on obtient :

00 (xi
−fi−1
− xi )
2hi
2

00 (xi − xi )
+fi+1
2hi+1
2


he
00 (xi − xi−1 )
+ fi
2hi
2



00
f (xi ) fi hi+1
hi+1

6
hi
 
+

00
f (xi−1 ) fi−1
6
hi
 
+
f (xi ) fi00 hi

00
hi
f (xi+1 ) fi+1 hi+1
hi+1

6


6

00 (xi − xi+1 )
= −fi−1
2hi+1
2

On obtient alors :
.K
2 00 2
f (xi ) fi00 hi
   
(xi − xi−1 ) f (xi−1 ) fi−1 hi 00 (xi − xi+1 )
fi00 − − + − = −fi−1
2hi hi 6 hi 6 2hi+1
 00
  00 
f (xi ) fi hi+1 f (xi+1 ) fi+1 hi+1
− − + −
hi+1 6 hi+1 6

Qui devient :
2 00 2
f (xi ) fi00 hi
   
(hi ) f (xi−1 ) fi−1 hi 00 (hi+1 )
fi00 − − + − = −fi−1
Dr

2hi hi 6 hi 6 2hi+1
 00
  00 
f (xi ) fi hi+1 f (xi+1 ) fi+1 hi+1
− − + −
hi+1 6 hi+1 6

On regroupe les termes faisant intervenir les dérivées secondes du même coté
hi 00 hi hi 00 hi+1 hi+1 00 hi+1 f (xi−1 ) f (xi ) f (xi ) f (xi+1 )
fi00 +fi−1 −fi00 +fi−1 −fi00 −fi+1 = − − +
2 6 6 2 6 6 hi hi hi+1 hi+1
On multiplie les deux membres de l’équation par 6 et on regroupe ensuite selon
les dérivés :
    
00 00 00 00 00 00 f (xi ) − f (xi−1 ) f (xi+1 ) − f (xi )
3fi hi +fi−1 hi −fi hi +3fi−1 hi+1 −fi hi+1 −fi+1 hi+1 = 6 − +
hi hi+1

32
CHAPTER 1.

00
⇒ fi−1 hi + (3fi00 hi − fi00 hi + 3fi00 hi+1 − fi00 hi+1 ) + fi+1
00
hi+1
    
f (xi ) − f (xi−1 ) f (xi+1 ) − f (xi )
= 6 − +
hi hi+1
00
⇒ fi−1 hi + 2 (fi00 hi + 2fi00 hi+1 ) + fi+1
00
hi+1 = 6 (f [xi , xi+1 ] − f [xi−1 , xi ])
On a hi+1 + hi = (xi+1 − xi ) + (xi − xi−1 ) = xi+1 − xi−1 .
D’où on obtient :
hi hi+1 (f [xi , xi+1 ] − f [xi−1 , xi ])
f 00 + 2fi00 + f 00 = 6

f
hi+1 + hi i−1 hi+1 + hi i+1 hi+1 + hi

lla
On obtient donc la formule à utiliser :
Proposition 1. La formule générale de la méthode des splines cubiques est
donnée par :
hi 00 hi+1
fi−1 + 2fi00 + f 00 = 6f [xi−1 , xi , xi+1 ] : i = 1, ..., n − 1.
hi+1 + hi hi+1 + hi i+1

Avec : hi = xi − xi−1 : i = 1, ..., n.


he
Remarque 8. On remarque que nous avons n+1 inconnues pour n−1 équations.
Il existe plusieurs façons d’ajouter les deux contraintes la plus populaire consiste
à poser f000 = fn00 = 0 la variante est appelée Spline naturelle dans ce cas.
.K
Dr

33
1.7. INTERPOLATION PAR DES SPLINES

f
lla
he
.K
Dr

34
2

f
Dérivation et Intégration Numérique

lla
2.1 Dérivation numérique
2.2 Dérivée première
he
Soit f une fonction assez régulière. On utilise le développement de Taylor de f .

2.2.1 Différence avant d’ordre 1


.K
. considérons le developpement de Taylor de degré 1 suivant :

0 h 00 h2
f (x + h) = f (x) + f (x) + f (ξ)
1! 2!
En négligeant le reste d’ordre 2 on obtient :

0 h 0 f (x + h) − f (x)
f (x + h) ' f (x) + f (x) ⇒ f (x) '
1! h
Dr

Cette formule est connue comme la différence avant d’ordre 1

f (x + h) − f (x)
f 0 (x) = + o(h),
h
où la fonction o(h) désigne le reste d’order h.

2.2.2 Différence arrière d’ordre 1


. considérons le developpement de Taylor de degré 1 suivant :

0 h 00 h2
f (x − h) = f (x) − f (x) + f (ξ)
1! 2!

35
2.2. DÉRIVÉE PREMIÈRE

En négligeant le reste d’ordre 2 on obtient :


0 h 0 f (x) − f (x − h)
f (x − h) ' f (x) − f (x) ⇒ f (x) '
1! h
Cette formule est connue comme la différence arrière d’ordre 1
f (x) − f (x − h)
f 0 (x) = + o(h),
h
où la fonction o(h) désigne le reste d’order h.

f
2.2.3 Différence centrée.

lla
En utilisant le développement de Taylor :

0 h 00
h2 3
 f (x + h) ' f (x) + f (x) 1! + f (x) 2! + o(h )



0 h 0 h
⇒ f (x + h)−f (x − h) ' f (x) +f (x)
 h 1! 1!
 f (x − h) ' f (x) − f 0 (x) + f 00 (x) h + o(h3 )

 2

1! 2!

d’ordre 2:
he0
⇒ f (x) '
f (x + h) − f (x − h)
2h
Cette formule est connue comme la formule à deux points avec le reste

f (x + h) − f (x − h)
f 0 (x) = + o(h2 )
.K
2h
Exemple 15. On tente d’évaluer la dérivée de f (x) = ex en x = 0. La solution
exacte est dans ce cas f 0 (0) = e0 = 1. On peut dès lors comparer ce résultat avec
ceux que l’on obtient par les différentes formules aux différences. Par exemple,
la différence avant d’ordre 1 donne pour h = 0.1 :
e0+h − e0 e0.1 − 1
f 0 (0) ' = = 1.05170918.
h 0.1
La différence arrière d’ordre 1 donne pour h = 0.1
Dr

e0 − e0−h 1 − e−0.1
f 0 (0) ' = = 0.95162582
h 0.1
Une valeur plus petite de h conduit à un résultat plus précis. Ainsi, si :
e0.05 − 1
h = 0.05 : f 0 (0) ' = 1.0254219 différence avant d’ordre 1
0.05
1 − e−0.05
h = 0.05 : f 0 (0) ' = 097541151 différence arrière d’ordre 1
0.05
Si on utilise cette fois une différence centrée d’ordre 2, on obtient avec
h = 0.05:
e0.05 − e−0.05
f 0 (0) ' = 1.0004167.
2 (0.05)

36
CHAPTER 2. DÉRIVATION ET INTÉGRATION NUMÉRIQUE

2.2.4 Dérivée seconde.


Par un développement de Taylor autour de xi , on a :
(
h2 00 h3 (3) h4 (4)
f (xi − h) = f (xi ) − hf 0 (xi ) + 2 f (xi ) − 3! f (xi ) + 4! f (xi ) − ...
h2 00 h3 (3) h4 (4)
f (xi + h) = f (xi ) + hf 0 (xi ) + 2 f (xi ) + 3! f (xi ) + 4! f (xi ) + ...

On obtient :
h4 (4)
f (xi − h) − 2f (xi ) + f (xi + h) h2 f 00 (xi ) + 12 f (xi ) + ...

f
=
h2 h2
h2 (4)

lla
= f 00 (xi ) + f (xi ) + ... = f 00 (xi ) + O(h2 )
12

f (x − h) − 2f (x) + f (x + h)
f 00 (x) = + o(h2 ).
h2
Finalement pour résumer toutes les formules, on les suggère dans le tableau
suivant:
he
.K
Dr

2.3 Intégration numérique

2.4 Principe de l’intégration numérique


On a vu qu’une fonction peut être approximée par un polynôme en utilisant les
techniques d’interpolation. Le polynôme d’interpolation peut encore servir de
base pour approximer la dérivée et l’intégrale de la fonction.

37
2.5. MÉTHODE DE QUADRATURE DE NEWTON COTES.

Le principe de base consiste à remplacer la fonction à intégrer par une fonction


plus simple à intégrer (un polynôme par exemple) avec une erreur donnée :
Z b Z b Z b
f (x) = Pn (x) + En (x) ⇒ f (x) = Pn (x) + En (x)
a a a

Pour avoir une valeur vraiment précise on divise d’abord l’intervalle d’intégration
[a, b] en n sous intervalles de tailles réduites [xi , xi+1 ] avec i = 0, n − 1 .
Z b n−1
X Z xi+1

f
f (x) ' P i (x) dx
a i=0 xi

lla
Définition 2. Une méthode d’intégration numérique est dite d’ordre n si l’erreur
d’intégration est nulle pour tout polynôme de degré inférieur où égal à n.

2.5 Méthode de quadrature de Newton Cotes.


he
Isaac Newton 25 décembre 1642– 20 mars 1727 anglais.
Roger Cotes 10 juillet 1682– 5 juin 1716 anglais.

Définition 3. Une formule de quadrature associée à une fonction f est donnée


par
n
X
wi f (xi )
.K
i=0

Où les points xi sont répartis sur l’intervalle [a, b] et les coéfficients wi sont
appelés les poids de la formule de quadrature.

Remarque 9. Si les points xi sont équidistants la formule de quadrature est


appelée formule de Newton Quotes.

2.6 Méthodes de quadrature classiques


Dr

2.6.1 Méthode des points milieu


La méthode consiste à décomposer l’intervalle d’intégration [a, b] en n parties de
b−a
même longueur .
n
Ainsi chaque point est donné par l’expression

b−a
xi = a + i , i = 0, · · · , n
n
Sur chaque sous intervalle [xi , xi+1 ] on prend comme fonction la droite
 horizentale

xi + xi+1
qui correspond à la valeur de f au point milieu de l’intervalle f .
2

38
CHAPTER 2. DÉRIVATION ET INTÉGRATION NUMÉRIQUE

Rb
La valeur approchée de a
f (x) dx est alors donnée par :

b−a b−a
 
b−a
n−1 
xi + xi+1

b−a
n−1 a+i + a + (i + 1)
n n 
X X
f = f

n 2 n 2

i=0 i=0

n−1    
b−a X 1 b−a
= f a+ i+
n i=0 2 n

f
Exemple 16. On désire trouver une valeur approchée de l’intégrale
4

lla
Z
1
dx
1 x

En effectuant une partition en 10 (n = 10) sous intervalles, donner l’intégrale


approchée dans ce cas.
Réponse : On a [a, b] = [1, 4] .
On divise l’intervalle en 10 parties égales.
La longueur de chaque partie est donc de
La valeur approchée de
Z 4

1
1
x
dx
4−1
10
=
3
10
he
= 0.3

est donc donnée par :


.K
n−1    
3 X 1 3
f 1+ i+ = 1.38283500
10 i=0 2 10

De l’autre côté, on a
Z 4
1
dx = ln(4) − ln(1) = 1.386294361
1 x
Dr

2.6.2 Méthode des trapèzes


La méthode des trapèzes consiste à remplacer le graphe de la fonction f sur
l’intervalle [xi , xi+1 ] par le segment de droite reliant les points (xi , f (xi )), (xi+1 , f (xi+1 ))
et à calculer l’aire de chaque trapèze.
On considère uniquement deux points a, b et on cherche une formule permettant
de calculer l’intégrale d’une fonction f entre ces deux points en fonction de leurs
images.
La formule pour deux points est par conséquent donnée par :

Zb  
b−a
f (x) dx ≈ [f (a) + f (b)]
2
a

39
2.6. MÉTHODES DE QUADRATURE CLASSIQUES

f
Cas de n+1 points

lla
Si l’intervalle [a, b] est divisé en n parties par les points a = x0 , x1 , ..., xn = b.
L’intégrale d’une fonction f entre les deux points a et b est donnée par :

Zb n−1
X xi+1 − xi
f (x) dx ≈ (f (xi ) + f (xi+1 ))
i=0
2
a

Zb

a
f (x) dx '
n−1
X

i=0

Zb
he
Si les points sont équidistants l’intégrale s’écrit sous la forme:

xi+1 − xi
2
(f (xi ) + f (xi+1 )) =

 
n−1
X b−a

i=0
n
2
(f (xi ) + f (xi+1 ))

n−1
b − a f (a) + f (b) b−a X
⇒ f (x) dx ' + f (xi )
.K
n 2 n i=1
a
Dr

Figure 2.1: Méthode de Trapèze pour n = 4

Exemple 17. On cherche toujours une valeur approchée de l’intégrale


Z 4
1
dx
1 x

40
CHAPTER 2. DÉRIVATION ET INTÉGRATION NUMÉRIQUE

en effectuant une partition en 10 sous intervalles.


La valeur approchée de
Z 4
1
dx
1 x
est donc donnée par :
  n−1  
3 ln(1) + ln(4) 3 X 3
+ ln 1 + i = 1.393261030
10 2 10 i=1

f
lla
2.6.3 Méthode de Simpson
Thomas Simpson . 20 août 1710- 14 mai 1761 Angletterre.
La méthode de Simpson consiste à remplacer la fonction f entre xi−1 et xi+1
par l’arc de parabole passant par f (xi−1 ),f (xi ) et f (xi+1 ) .

Cas avec 3 points

On pose x0 = a, x1 = a+b

On pose x0 = a, x1 = a+b
2
he
et x2 = b ainsi h = xi+1 − xi pour i = 0, 1 On
considère 03 points et le polynôme de degré 2 passant par ces points.
2 et x2 = b ainsi h = xi+1 − xi pour i = 0, 1

Zb
.K
Z b Z b
f (x) dx ' p2 (x)dx = l0 (x)f (x0 ) + l1 (x)f (x1 ) + l2 (x)f (x2 )
a a
a


(x − x1 )(x − x2 )
l0 (x) =
(x0 − x1 )(x0 − x2 )

(x − x0 )(x − x2 )
l1 (x) =
(x1 − x0 )(x1 − x2 )
Dr

(x − x0 )(x − x1 )
l2 (x) =
(x2 − x0 )(x2 − x1 )
La formule pour deux points est par conséquent donnée par :

Zb  
b−a
f (x) dx ' [f (x0 ) + 4f (x1 ) + f (x2 )]
6
a
 
h
= [f (x0 ) + 4f (x1 ) + f (x2 )]
3

41
2.6. MÉTHODES DE QUADRATURE CLASSIQUES

f
Cas avec n triplets. (x2i , x2i+1 , x2i+2 )

lla
Si l’intervalle [a, b] est divisé en 2n parties par les points a = x0 , x1 , ..., x2n = b.
L’intégrale d’une fonction f entre les deux points a et b est donnée par :

Zb xZ
2i+2
n−1
X
f (x) dx ' f (x) dx
a

=
he i=0 x

n−1
X

i=0
2i

1
3
h [f (x2i ) + 4f (x2i+1 ) + f (x2i+2 )]

R4 1
Exemple 18. On cherche toujours une valeur approchée de l’intégrale dx
.K
1 x
en effectuant une partition en 10 sous intervalles.
R4 1
La valeur approchée de 1 dx est donc donnée par :
x
9  
3 X 1 1
2 ∗ 10 i=0 3 + 3 = 1.393261030
1 + i 10 1 + (i + 1) 10

2.6.4 La méthode de Newton (Méthode de Simpson 3/8)


Dr

La méthode consiste à prendre 04 points equidistants et de prendre le polynôme


de degré 3 passant par ces points.
On trouve :

Zb
3
f (x) dx ' h [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )]
8
a

Cas avec n quadruplets (x3i , x3i+1 x3i+2 , x3i+3 )


Si l’intervalle [a, b] est divisé en 3n parties par les points a = x0 , x1 , ..., x3n = b.
L’intégrale d’une fonction f entre les deux points a et b est donnée par :

42
CHAPTER 2. DÉRIVATION ET INTÉGRATION NUMÉRIQUE

Zb xZ
3i+3
n−1
X
f (x) dx ' f (x) dx
a i=0 x
3i

n−1
X 3
= h [f (x3i ) + 3f (x3i+1 ) + 3f (x3i+2 ) + f (x3i+3 )]
i=0
8

2.6.5 Formule d’erreur dans l’intégration numérique

f
Soit f une fonction n fois continument dérivable sur [a, b] telle que f n+1 existe

lla
sur [a, b]. On pose
n
X
wi f (xi )
i=0
Rb
est l’approximation d’ordre n de a
f (x)dx alors,


Z

a
b
f (x)dx −
n
X

i=0
he
wi f (xi ) 6
Mn+1
(n + 1)!
Z

a
b n
Y

i=0
(x − xi ) dx

Mn+1 = max |f n+1 (x)|


x∈[a,b]
.K
Erreur dans la formule des trapèzes
b
b−a (b − a)3
Z
f (x)dx − [f (a) + f (b)] 6 M2 .
a 2 12

Formule générale:
Dr

b
(b − a)3
 
b − a f (a) + f (b)
Z
f (x)dx − + f (x1 ) + f (x2 ) + · · · + f (xn−1 ) 6 M2 .
a n 2 12n2

Erreur dans la formule de Simpson


b
(b − a)5
 
b−a
Z
a+b
f (x)dx − f (a) + 4f ( ) + f (b) 6 M4 .
a 6 2 2880

Formule générale: 2n

b n−1
(b − a)5
Z X 1
f (x)dx h [f (x2i ) + 4f (x2i+1 ) + f (x2i+2 )] 6 M4 .
a i=0
3 180n4

43
2.7. QUADRATURE DE GAUSS

Erreur dans la formule de Newton ( 83 Simpson)

2.7 Quadrature de Gauss


Le principe des quadratures de Gauss repose sur une utilisation des points
(xi )i=0,n comme paramètres de la formule des quadratures au lieu des les fixer
préalablement comme c’est le cas dans les quadratures de Newton Cotes.
La formule générale des quadratures de Gauss est donnée par :
Z b n
X

f
f (x) dx ' wi f (xi )
a i=1

lla
Où les wi et les xi sont les paramètres de la formule.
Grace à cette technique on gagne en degré de la méthode qui devient de 2n − 1
pour n points d’intégration.

2.7.1 Quadrature de Gauss avec 1 point.


La formule est donnée par he Z

a
b
f (x) dx ' w1 f (x1 )

Cette formule doit être valable pour tout polynôme de degré 1.


.K
 R
b
 a 1dx = w1 .1 = b − a w1 = b − a
 (
 2 b
Rb x b2 − a2 ⇒ b+a
 a xdx = w1 x1 =
 = x1 =
2 a 2 2

La formule est donc donnée par :


Z b  
b+a
f (x) dx ' (b − a) f
a 2
Dr

44
CHAPTER 2. DÉRIVATION ET INTÉGRATION NUMÉRIQUE

2.7.2 Quadrature de Gauss avec 2 points.


La formule est donnée par
Z b
f (x) dx ' w1 f (x1 ) + w2 f (x2 )
a

Cette formule doit être valable pour tout polynôme de degré 3.


 Rb

 a
1dx = w1 + w2 = b − a
  2 b

f
b2 − a2


 R b x

 xdx = w 1 x 1 + w2 x 2 = =
 a 2 2


 3 ab

lla
Rb 2 2 2 x b − a3
3

a
x dx = w 1 x 1 + w 2 x 2 = =
3 3


 3 ab


b − a4
4


b x
 a x3 dx = w1 x31 + w2 x32 =
 R

 =
3 a 3

On obtient :
Z b

a
f (x) dx '

2.7.3
(b − a)
2
 
f
(b − a)
2

−√
1
3

+
he
(b + a)
2

Formule d’erreur des quadratures de Gauss



+f

(b − a)
2


1
3

+
(b + a)
2


Théorème 11. La quadrature de Gauss à n points est exacte dans le cas des
.K
polynômes de degré (2n − 1) .
Le terme d’erreur est donné par :
4
22n+1 (n!) (2n)
3f (ξ) : ξ ∈ [a, b]
(2n + 1) ((2n)!)
Dr

45
2.7. QUADRATURE DE GAUSS

f
lla
he
.K
Dr

46
3

f
Résolution numérique des équations

lla
différentielles

he
Nous abordons dans ce chapitre la résolution numérique du problème de Cauchy
pour les équations différentielles ordinaires (EDO).

3.1 Position du problème


.K
Soit I = [a, b] un intervalle fermé de R et f une application donnée

f : I × R −→ R,
(t, y) 7−→ f (t, y)

et soit y une application différentiable de R dans R.


On appelle équation différentielle du premier ordre, la relation
Dr

y 0 (t) = f (t, y(t)), t ∈ I. (1)

On dit que y est la solution de cette équation différentielle sur [a, b] si y vérifie
la relation (1) pour tout t ∈ [a, b].
On appelle problème de CAUCHY ou problème de condition initiale l’équation
différentielle à laquelle on adjoint la condition initiale y(t0 ) = y0 où y0 est un
nombre donnée :

y 0 (t) = f (t, y(t)), t ∈ I, y(t0 ) = y0 . (2)

3.2 Théorème d’existence et unicité


47
3.2. THÉORÈME D’EXISTENCE ET UNICITÉ

Exemple 19. On se donne f (t, y(t)) = 3t − 3y(t) et y0 = α (un nombre


quelconque). On cherche une fonction y : t ∈ R+ → y(t) ∈ R qui satisfait

y 0 (t) = 3t − 3y(t), ∀t > 0, y(0) = α.

Sa solution, définie sur R, est donnée par y(t) = (α + 1/3)e−3t + t − 1/3. En


effet, on a
y(0) = (α + 1/3) − 1/3 = α et y 0 (t) = 3t − 3y(t).

f
Cet exemple montre le cas où il existe une et une seule solution du problème
de CAUCHY définie sur R. Les choses ne se passent pas toujours si bien.

lla
Les exemples ci-dessous montrent que l’étude mathématique de l’existence et
de l’unicité des solutions d’un problème de CAUCHY peut être une affaire
délicate.

Exemple 20. Existence et unicité sur I ⊂ R (mais non existence sur


R) de la solution d’un problème de CAUCHY
he
On cherche une fonction y : t ∈ R+ → y(t) ∈ R qui satisfait

y 0 (t) = (y(t)) ,
3
∀t > 0,

On vérifie que la solution y est donnée par y(t) = √2t−11


y(0) = 1,

qui n’est définie que


pour t ∈ [0; 1/2[. Cet exemple montre qu’un problème de CAUCHY n’a pas
.K
toujours une solution pour tout t ∈ [0; +∞[ puisqu’ici la solution explose lorsque
t tend vers la valeur 1/2.

Exemple 21. Non unicité de la solution d’un problème de CAUCHY


On cherche une fonction y : t ∈ R+ → y(t) ∈ R qui satisfait
p
y 0 (t) = 3
(y(t)), ∀t > 0, y(0) = 0,
Dr

p p
On vérifie que les fonctions y1 (t) = 0, y2 (t) = 8t2 /27, y3 (t) = − 8t2 /27, pour
tout t > 0, sont toutes les trois solutions du problème de CAUCHY donné.
Cet exemple montre qu’un problème de CAUCHY n’a pas nécessairement une
solution unique.

Théorème 12. Si f est une application définie sur [a, b]×R continue et L−Lipschitzienne
par rapport à y, alors le problème de cauchy (2) admet une solution unique sur
[a, b] et ceci pour toute condition initiale y0 (∀y0 ∈ R).

Proposition 2. Une condition suffisante pour que les hypothèses du théorème


soient vérifiées et que f soit dérivable par rapport à y et que sa dérivée soit
bornée.

48
CHAPTER 3. RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS
DIFFÉRENTIELLES

3.3 Schémas numériques


On ne sait intégrer qu’un nombre très petit d’EDO non linéaires. De plus,
même quand c’est possible, il n’est pas toujours facile d’exprimer explicitement
la solution, considérer par exemple l’équation très simple y 0 = (y−t)/(y+t), dont
la solution n’est définie que de manière implicite par la relation (1/2)log(t2 +
y 2 )+tan−1 (y/t) = C, où C est une constante dépendant de la condition initiale.
Pour cette raison, nous sommes conduits à considérer des méthodes numériques.
Celles-ci peuvent en effet être appliquées à n’importe quelle EDO, sous la seule

f
condition qu’elle admette une unique solution.

lla
Abordons à présent l’approximation numérique du problème de Cauchy (1).
On fixe 0 < T < +∞ et on note I =]t0 , t0 + T [ l’intervalle d’intégration. Pour
h > 0, soit tn = t0 + nh, avec n = 0, 1, 2, ..., Nh , une suite de noeuds de I
induisant une discrétisation de I en N sous-intervalles In = [tn , tn+1 ]. La
longueur h de ces sous-intervalles
R t est appelée pas de discrétisation. La méthode
d’approximation de l’intégrale tnn+1 f (s, y(s))ds produit plusieurs méthode.
La méthode d’Euler explicite approche l’intégrale au travers d’un rectangle
he
de base h dont la hauteur est calculée à l’abcisse tn :

yn+1 = yn + hf (tn , yn ), y(t0 ) = y0 .

La méthode d’Euler implicite approche l’intégrale au travers d’un rectangle


de base h dont la hauteur est calculée à l’abcisse tn+1 :
.K
yn+1 = yn + hf (tn+1 , yn+1 ), y(t0 ) = y0 .
La méthode trapezoïdale approche l’intégrale au travers d’un trapèze dont les
côtés parallèles sont calculés aux abcisses tn et tn+1 :
h
yn+1 = yn + (f (tn , yn ) + f (tn+1 , yn+1 )) , y(t0 ) = y0 .
2
La méthode de Runge-Kutta d’ordre deux (RK2) est donnée par
Dr

h
yn+1 = yn + (k1 + k2 ) , y(t0 ) = y0 ,
2
où 
k1 = f (tn , yn ),
k2 = f (tn + h, yn + hk1 ),
La méthode de Runge-Kutta classique d’ordre quatre (RK4) est donnée par

yn+1 = yn + h (k1 + 2k2 + 2k3 + k1 ) /6, y(t0 ) = y0 ,

où 

 k1 = f (tn , yn ),
k2 = f (tn + h/2, yn + hk1 /2),


 k3 = f (tn + h/2, yn + hk2 /2),
k4 = f (tn + h, yn + hk3 ),

49
3.4. RÉSOLUTION DE SYSTÈMES DIFFÉRENTIELS DANS R2

Définition 4. (méthodes explicites et méthodes implicites) Une méthode


est dite explicite si la valeur yn+1 peut être calculée directement à l’aide des
valeurs précédentes yk , k 6 n (ou d’une partie d’entre elles). Une méthode
est dite implicite si yn+1 n’est définie que par une relation implicite faisant
intervenir la fonction f . Noter que les méthodes implicites nécessitent à chaque
pas de temps la résolution d’un problème non linéaire (si f dépend non linéairement
de la seconde variable).

f
3.4 Résolution de systèmes différentiels dans R2

lla
Soit le système différentiel :

y 0 (t) = f (t, y, z), z 0 (t) = g(t, y, z), t ∈ I, (2)

L’application de l’algorithme d’Euler à ce système se fait composante par composante,


d’où :
he
yn+1 = yn + hf (tn , yn , zn ), zn+1 = zn + hg(tn , yn , zn ).
Cet algorithme s’applique aux équations différentielles d’ordre 2 (où plus ...) à
condition de les réduire, au préalable, à des systèmes différentiels du premier
ordre, comme vu précédemment.
L’application d’autres algorithmes par exemple RK2 se fait moins simplement.
.K
Dr

50

Vous aimerez peut-être aussi