Vous êtes sur la page 1sur 113

1

CONTENU DU COURS D’ANALYSE NUMERIQUE

OBJET ET OBJECTIF DU COURS :


 L’objet de l’Analyse numérique est de concevoir et d’étudier des
méthodes de résolution de certains problèmes mathématiques, en
général issus de problèmes réels, et dont on cherche à calculer la
solution { l’aide d’un ordinateur.
 A l’issue de ce cours, l’étudiant sera capable de résoudre un
problème réel en utilisant des méthodes numériques et { l’aide d’un
ordinateur.
PLAN DETAILLE DU COURS :
Chapitre I : GENERALITES SUR L’ANALYSE NUMERIQUE
1.1. Introduction
1.2. Algorithme
1.3. Sources d’erreurs dans une méthode numérique
1.4. Conditionnement d’un problème
1.5. Importance du choix de l’algorithme

Chapitre II : METHODES ITERATIVES DE RESOLUTION DES SYSTEMES


LINEAIRES
2.1. Introduction
2.2. Quelques rappels d’algèbre linéaire.
2.2.1. Matrices.
2.2.2. Normes matricielles.
2.2.3. Rayon spectral.
2.2.4. Produit scalaire et matrices définies positives.
2.3. Méthodes directes.
2.4. Méthodes itératives.
2.4.1. Définitions et propriétés.
2.4.2. Méthode de la puissance itérée.
2.4.3. Convergence des méthodes itératives.
2.4.4. Méthodes de Jacobi, de Gauss-Seidel et de relaxation.
2.4.4.1. Méthode de Jacobi.
2.4.4.2. Méthode de Gauss-Seidel.
2.4.4.3. Méthode de relaxation.
2.4.4.4. Convergence des méthodes de Jacobi, de Gauss- Seidel et
de relaxation.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


2

2.4.5. Autres méthodes itératives.


2.4.5.1. Méthode du gradient.
2.4.5.2. Méthode du gradient à pas optimal.

Chapitre III : INTERPOLATION.

3.1. Approximation d’une fonction.


3.2. Interpolation.
3.2.1. Problème.
3.2.2. Problème d’interpolation dans la base de Lagrange.
3.2.2.1. Détermination du polynôme d’interpolation de Lagrange.
3.2.2.2. Erreur d’interpolation.
3.2.2.3. Convergence du polynôme d’interpolation.
3.2.3. Polynôme d’interpolation dans la base de Newton.
3.2.3.1. Détermination du polynôme d’interpolation de Newton.
3.2.3.2. Différences divisées.
3.2.3.3. Calcul de l’erreur d’interpolation
3.2.3.4. Calcul pratique des différences divisées.
3.2.4. Interpolation de Tchebychev.
3.2.5. Interpolation d’Hermite.
3.2.6. Interpolation par splines.
3.2.6.1. Position du problème.
3.2.6.2. Splines linéaires.
3.2.6.3. Splines quadratiques.
3.2.6.4. Splines cubiques.
3.2.6.5. Erreur d’interpolation
Chapitre IV : DIFFERENTIATION NUMERIQUE.
4.1. Introduction
4.2. Différentiation numérique.
4.2.1. Principe de base.
4.2.2. Dérivées premières.
4.2.3. Dérivées d’ordre 1.
4.2.4. Dérivées d’ordre supérieur.
4.2.5. Instabilité numérique de la différentiation.
4.2.6. Extrapolation de Richardson.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


3

Chapitre V : INTEGRATION NUMERIQUE


5.1. Introduction
5.2. Formules de Newton-Cotes.
5.2.1. Méthode du trapèze simple.
5.2.2. Méthode des trapèzes composée.
5.2.3. Méthode de Simpson 1/3 simple.
5.2.4. Méthode de Simpson 1/3 composée.
5.2.5. Méthode de Simpson 3/8 simple.
5.2.6. Méthode de Simpson 3/8 composée.
5.2.7. Méthode de Boole.
5.2.8. Méthode de Romberg.
5.3. Méthodes gaussiennes (Quadratures de Gauss).
5.3.1. Introduction.
5.3.2. Quadratures à 1 point.
5.3.3. Quadratures à 2 points.
5.3.4. Quadratures à n points.

Chapitre VI : RESOLUTION NUMERIQUE DES EQUATION DIFFERENTIELLES


6.1. Introduction.
6.2. Principe des méthodes numériques.
6.3. Les schémas à un pas.
6.3.1. Les schémas d’Euler { partir de l’intégration numérique.
6.3.2. Méthodes de Taylor.
6.3.3. Schémas prédicteurs-correcteurs.
6.3.4. Méthodes de Runge-Kutta.
6.3.4.1. Méthodes RK d’ordre 2.
6.3.4.2. Méthode du pont-milieu.
6.3.4.3. Méthodes RK d’ordre 4.
6.3.5. Ordre et consistance des schémas à un pas.
6.3.6. Stabilité et convergence de schémas à un pas.
6.4. Les schémas à pas multiples.
6.4.1. Formules d’Adams-Bashforth.
6.4.2. Formules d’Adams-Moulton.
6.4.3. Schémas de prédiction-correction.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


4

 METHODES ET TECHNIQUES D’ENSEIGNEMENT.


Exposé de l’enseignant et interaction avec les étudiants. Pour le
deuxième chapitre, exposé introductif par l’enseignant et présentation
des exposés des étudiants.
 STRATEGIES D’EVALUATION.
L’évaluation se fera sous trois formes :
1. d’interrogations écrites :
- Une sur le second chapitre ;
- Une sur le troisième et le quatrième chapitre ;
- Une sur le sixième chapitre.
- Le second chapitre sera évalué à travers les exposés des étudiants.
2. de travaux pratiques
3. d’examen final par écrit (10 points sur l’ensemble de l’évaluation).
Travaux pratiques :
Ils sont effectués sous deux formes : travaux dirigés (une séance par
semaine) et travaux à domicile. Ils comptent pour 10 points sur
l’ensemble de l’évaluation.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


5

CHAPITRE I. GENERALITES SUR L’ANALYSE NUMERIQUE

L’analyse numérique est un domaine de mathématiques


appliquées s’intéressant au développement d’outils et de méthodes
numériques pour le calcul d’approximations de solutions des problèmes
mathématiques qu’il serait difficile, voire impossible, d’obtenir par des
moyens analytiques. Elle se propose donc d’introduire des procédures
calculatoires détaillées susceptibles d’être mises en œuvre par des
calculateurs (électroniques, mécaniques ou humains) et d’analyser leurs
caractéristiques et leurs performances.

On peut donc considérer l’analyse numérique comme un


ensemble de procédés mathématiques qui permettent de résoudre à
l’aide des machines des problèmes satisfaisant les hypothèses suivantes :
les données ainsi que la solution sont un ensemble fini de nombres. Ainsi
par exemple, le calcul de toute primitive P(f) = f(x)dx n’est pas un
problème { résoudre du point de vue de l’analyse numérique. Par contre,
le calcul de l’intégrale I = ∫ f(x)dx peut être abordé par elle. De manière
analogue, si une fonction apparaît dans les données ou dans la solution,
elle sera représentée par un ensemble fini de nombres : par exemple par
un tableau de valeurs

X x x . . . x
f(x) y y . . . y

ou un nombre fini de coefficients de son développement de Taylor.

Tout problème P traitable par l’analyse numérique apparaît


donc comme une application associant à un vecteur x de de données,
un vecteur y de de solutions

P: →
x↦y (1.1)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


6

1.1. Algorithme

Un algorithme est un procédé de calcul permettant de résoudre un


problème (ou une classe de problèmes) en un nombre fini d’opérations
élémentaires arithmétiques ou logiques.
L’analyse numérique résout un problème P de données x et de
solution y { l’aide d’un algorithme Q. Celui-ci est donc une succession
d’opérations appliquées { la représentation x̃ de x, et qui fourniront un
résultat ̃.
y Q apparaît donc comme une application :

Q: →
̃
x ↦ ỹ (1.2)

Les opérations contenues dans Q doivent être réalisées par une


machine : il s’agit donc d’opérations élémentaires telles que les quatre
opérations fondamentales, des tests de comparaison, des calculs de
fonctions élémentaires (sinus, cosinus, …). Elles doivent aussi satisfaire
ces hypothèses :

o Elles doivent être en nombre fini ;


o Elles doivent porter sur un nombre fini de nombres ;
o Ces nombres doivent être représentés par un nombre fini de
chiffres.
1.2. Sources d’erreurs dans une méthode numérique
Ce qui vient d’être dit ci-haut suggère qu’il existe
inévitablement un écart entre la solution y et l’approximation ỹ. On
classe généralement les causes de cet écart qu’on appelle erreur en trois
catégories :
 Les erreurs d’arrondi : elles sont inhérentes { l’utilisation d’un
ordinateur pour qui tout nombre sera représenté par un nombre
fini de chiffres. Ces erreurs affectent les données mais aussi le
résultat de tout calcul élémentaire effectué par l’ordinateur. Si le
nombre d’opérations exigées par l’algorithme est élevé, ces erreurs
s’accumulent et leur effet peut être désastreux sur la précision du
résultat final ;

 Les erreurs sur les données : elles sont liées à une connaissance
imparfaite des données du problème que l’on cherche { résoudre ;

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


7

c’est le cas par exemple lorsque ces erreurs proviennent des


mesures physiques soumises à des contraintes expérimentales ;
 Les erreurs de troncature, d’approximation ou de discrétisation :
elles proviennent de l’impossibilité de réaliser un nombre infini
d’opérations ou de traiter un nombre infini de nombres : par
exemple, le fait de tronquer le développement en série infini d’une
solution analytique pour permettre son évaluation, l’arrêt d’un
processus itératif dès qu’un itéré satisfait un critère donné avec
une tolérance prescrite, le calcul d’une intégrale remplacé par celui
d’une somme finie, …
A ces erreurs, on peut aussi ajouter les erreurs qualifiées
d’ « humaines » ou grossières, telles les erreurs de programmation, ou
causées par des dysfonctionnements des machines réalisant les calculs :
faute de frappe { l’implémentation du programme, erreurs sur les
données.
L’analyse numérique étudie donc toutes ces erreurs, les
mécanismes qui en sont les causes et analyse leurs effets sur le résultat
d’une suite de calculs.
Pour mesurer l’erreur entre la solution obtenue par une méthode
numérique et la solution du problème que l’on cherche { résoudre (on
parle encore d’estimer la précision de la méthode), on introduit les
notions d’erreur absolue et d’erreur relative.
Définition
Soit x̃ une approximation d’un nombre x. On définit l’erreur absolue
entre ces deux nombres par :
∣x - x̃∣ (1.3)
Et, lorsque x est non nul, l’erreur relative par :

̃
(1.4)

Dans la pratique, on utilise souvent l’erreur relative pour évaluer la


précision d’un résultat.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


8

1.3. Conditionnement d’un problème


Un problème P de donnée x et de solution y est bien posé s’il
possède encore une solution lorsque la donnée x subit un petit
changement x.
Exemple d’un problème mal posé : Soit { résoudre l’équation
x2 – 0,03x + 0,0002 = 0
les racines de cette équation sont 0,01 et 0,02. Une légère modification
des coefficients de l’équation (c’est-à-dire les données) peut conduire à
un discriminant négatif, donc { l’absence de solution. C’est le cas pour
l’équation 1,2x2 – 0,03x + 0,0002 = 0 qui n’a pas de solution dans .
Lorsqu’un problème est bien posé, il peut être bien ou mal
conditionné. Comment évaluer la qualité du conditionnement ?
Considérons l’application

P: →
x↦y
et désignons par φ le lien qui unit y { x :
y = φ(x) (1.5)
A la donnée x + x, associons la solution y + y telle que
y + y = φ(x + x) (1.6)
L’écart y vérifie donc
x
y = φ(x + x) - φ(x) = [ ]= Dφ(x) x (1.7)
x
[ ]
Où Dφ est la matrice jacobienne de φ. Les grandeurs représentent les
sensibilités avec lesquelles la composante y de y réagit aux
perturbations x : on a en effet
y =. / x +…+. / x (1.8)

Une autre formule analogue peut être établie pour les erreurs relatives :

= . / x +…+ . / x (1.9)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


9

qui s’écrit aussi, sachant que y = φ (x) et en introduisant les erreurs


relatives sur les x ,

= . / +…+ . / (1.10)
( ) ( )

Les coefficients ( ) jouent le rôle d’amplificateurs d’erreurs


( )

relatives : on les appelle conditionnements.

Si un des conditionnements est grand en valeur absolue, le problème est


dit mal conditionné. Il est bien conditionné si tous les conditionnements
sont petits. En pratique, un problème est donc mal conditionné si une
petite erreur relative sur une donnée engendre une erreur relative
importante sur la solution. Cette manière d’évaluer le conditionnement
d’un problème est très précise dans la mesure où elle fournit le moyen de
mesurer séparément l’effet d’une erreur relative sur chaque donnée xj du
problème, mais cette précision devient un handicap lorsque les
dimensions n et m de x et de y sont grandes, car elle demande alors
l’évaluation de n.m conditionnements.

En outre, en général, les erreurs relatives potentiellement commises sur


les composantes de la donnée sont en principe identiques, et si on
observe que (1.7) s’écrit pour toutes les composantes de y :

[ ]= [ ]
[ ]

On peut donc à partir de là admettre la définition suivante du


conditionnement :

On appelle conditionnement tout nombre C tel que : C .

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


10

Application aux opérations fondamentales

Convenons de désigner par ε les erreurs relatives, (1.10) s’écrit :

ε = . / ε +…+ . / ε (1.11)
( ) ( )

Appliqué aux opérations arithmétiques, (1.11) donne :

y = φ(x1,x2) = x1x2 ⇒ εy = ε + ε

y = φ(x1,x2) = ⇒ εy = ε - ε

y = φ(x1,x2) = x1 x2 ⇒ εy = ε ε

y = φ(x) = √x ⇒ εy = εx

On constate que les conditionnements relatifs à la multiplication, à la


division et au calcul de la racine carrée sont bons : ils sont en module
1. Ce n’est pas le cas pour l’addition de deux nombres de signes opposés
ou de la soustraction de deux nombres de même signe qui peuvent être
imprécises quand en module ces nombres sont grands et voisins.

1.4. Importance du choix de l’algorithme


La notion de conditionnement permet de comprendre la manière
avec laquelle la nature du problème à résoudre influence la précision
finale ; le problème étant fixé, sa résolution peut être en général menée
avec plusieurs algorithmes parmi lesquels il faut choisir celui qui
assurera la meilleure précision finale.
Exemple 1 : Calculer la somme des trois nombres suivants représentés
avec une mantisse à 8 chiffres :

a = 0,23371258.10-4
b = 0,33678429.10-2
c = 0,33677811.10+2
Algorithme 1 :

a + (b + c) = 0,23371258.10-4 + (0,00000618.10+2)
= 0,23371258.10-4 + 0,61800000.10-3)
= 0,64137126.10-3
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
11

Algorithme 2 :

(a + b) + c = (0,3367845237258.10+2) – 0,33677811.10+2
= (0,0000641.10+2)
= 0,64100000.10-3

Le résultat correct étant 0,641371258.10-3, il est évident que le choix de


l’algorithme influence sur la précision finale.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


12

CHAPITRE 2. METHODES ITERATIVES DE RESOLUTION DES SYSTEMES


LINEAIRES

2.1. INTRODUCTION
On note par MN( ) l’ensemble des matrices carrées d’ordre N.
Soit A MN( ) une matrice inversible et b N.

On cherche à résoudre le système linéaire :


Trouver x N, tel que Ax = b (3.1).
Pour ce faire, on utilise deux types de méthodes :
- méthodes directes,
- méthodes itératives.
Selon le type et la taille d’une matrice, on utilise une méthode directe ou
une méthode itérative.
2.2. QUELQUES RAPPELS D’ALGEBRE LINEAIRE
2.2.1. Matrices
La transposée d’une matrice A = (a ) , est une matrice
,
A = (a ) , avec a = a pour 1 i, j N.
,
On a évidemment les propriétés suivantes :

 (A ) = A
 (A + B) = A + B ;
 (AB) = BA ;
 ( A) = A R;
 det(A ) = det (A) ;

Si A est inversible, (A ) = (A ) .
La matrice adjointe de A est A* = ̅̅̅
A . On a alors les propriétés :
 (A ) =A ;
 (A + B) = A + B
 (AB) = B A
 ( A) = A C
 Det (A ) = det (A).
̅̅̅̅̅̅̅̅̅

Si A est inversible, (A ) = (A ) .

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


13

Une matrice A MN(R) est symétrique si A = A.


Une matrice A MN(C) est hermitienne si A = A.
Une matrice A MN(R) est orthogonale si A A = AA = IN, c’est-à-dire
A = A .
Une matrice A MN(C) est unitaire si A A = AA = IN, c’est-à-dire
A = A .
On dit que A est normale si A A = AA .

Si A = (a ) , la trace de A est définie par :


,
tr(A) = ∑ a .

2.2.2. Normes matricielles

Soit E un espace vectoriel sur . On définit . une norme


vectorielle sur E, c’est-à-dire une application :

. :E →
x→ x
vérifiant les propriétés suivantes :
 x E, x = 0 x=0
 R, x E, x = x
 x, y E, x + y = x + y .

Exemples : Soit x = (x , x , … , x ) .

x→ x = |x | + |x | + + |x |
x→ x = √|x | + |x | + + |x |
x→ x = max(|x |, |x |, … , |x |)
sont trois normes vectorielles sur N.

Définition 2.1

Soit . une norme vectorielle sur E = N. On appelle une norme


matricielle induite, par cette norme vectorielle, sur MN( ), qu’on note
par . :
A → A = sup{ Ax , x , x = 1} (2.2)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


14

Remarque
On dit aussi que c’est une norme matricielle subordonnée ou
associée à la norme vectorielle.
Proposition 2.1
Si . est une norme matricielle induite (par une norme
vectorielle . sur E = N) sur MN( ), alors on a les propriétés
suivantes :
 x et A MN( ), Ax A x
 A = max { Ax , x , x = 1}
 A = max { ,x , x 0+.

Démonstration
Soit x non nul.
y= x ⇒ y =1
⇒ Ay A (par définition)

1 Ax
‖A x‖ A A
x x
Ax A x .

Si x = 0 alors Ax = 0 et l’inégalité Ax A x est encore


vérifiée.
A = { Ax , x , x = 1}.
Comme l’application x → x est continue sur {x , x = 1} qui est
un compact de N, il existe un xo {x R , x = 1} tel que :
A = = max{x , x = 1}.
Si x est non nul, = ‖ . /‖ et
{x , x = 1}.

Proposition 2.2
Pour toute matrice A = (a ) , on a :
,
A = sup = max ∑ |a |
A = sup = max ∑ |a |.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


15

1 2
Exemple : Si A = . /, A = max{4,2} = 4 et A = 3.
3 0

2.2.3 Rayon spectral

Définition 2.2

Soit A MN( ) et C. On dit que est une valeur propre de A,


s’il existe un vecteur u N, u 0, et tel que :
Au = (2.3)

On dit alors que u est un vecteur propre de A associé à .

Proposition 2.3

On a l’équivalence suivante :
est une valeur propre de A ssi det(A – I) = 0.

Les valeurs propres de A sont donc les racines du polynôme PA(x)


= det(A-xI), appelé le polynôme caractéristique de A. C’est un polynôme
de degré N, il a donc N racines dans ℂ (non nécessairement distinctes).
La matrice A a donc N valeurs propres dans ℂ (non nécessairement
distinctes) : , , … , .

On montre que :
det(A)=∏ et tr(A)= ∑ . (2.4)

Propriété 2.1
Si A MN(R) est une matrice symétrique, alors toutes ses valeurs
propres sont réelles et il existe une matrice orthogonale P (P-1 = Pt) telle
que :
0
P-1AP =( )=D (2.5)
0
où les sont les valeurs propres de A. A est donc semblable à la matrice
diagonale D.
Définition 2.3
On dit que deux matrices A et B sont semblables s’il existe une
matrice inversible P telle que A = P-1BP.
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
16

Exemple :
0 1 1
A = (1 0 1)
1 1 0

det(A - xI) = x3 – 3x – 2 = (x – 2)(x + 1)2 ; les valeurs propres de A sont :


2, -1, -1. Les vecteurs propres sont :
1 1
Pour 1 = -1 : ( 0 ) + ( 2) avec et R, ( , ) (0,0).
1 1
1
Pour 2 = 2 : (1), avec *.

1
0
1 1 1
Si P=( 0 2 1), on a P-1 = ,
1 1 1
( )

0
0 1 1 1 1 1
P-1AP = (1 0 1) ( 0 2 1)
1 1 0 1 1 1
( )
1 0 0
= (0 1 0)
0 0 2
Remarque
√ √ √
Si on prend P = 0 , son inverse : P-1 = Pt, on a :
√ √

( √ √ √ )
1 1 1 1 1
0
√2 √2 √2 √6 √3
1 2 0
1 1 1 2 1
= (1 0 1) 0
√6 √6 √6 1 1 0 √6 √3
1 1 1 1 1 1
( √3 √3 √3) ( √2 √6 √3)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


17

1 0 0
=( 0 1 0).
0 0 2

Définition 2.4
Le rayon spectral de A est :
(A) = max*| |, ℂ, valeur propre de A + (2.6)
Proposition 2.4
Soit A MN(R), alors pour toute norme matricielle, (induite ou
non), on a :
(A) A (2.7)
Démonstration
Soit une valeur propre de A telle que : (A) | |. Il existe p RN non
nul, tel que A.p = p.
p vecteur non nul ⇒ q RN tel que p.qt 0.
⇒ (A) p. q = | | p. q = ( )q
= (Ap)q = A(p. q )
A p. q .
⇒ (A) A .

On montre aussi le résultat suivant :


Proposition 2.5
et A MN(R), il existe au moins une norme matricielle
subordonnée telle que :
A (A) + . (2.8)
On montre aussi la proposition suivante :
Proposition 2.6
Soit A = (a ) A MN( ), alors on a :
,
A = max = √ (A A) =
√ (AA ) (2.9)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


18

Théorème 2.1
On désigne par IN la matrice identité de MN( ).
Soit . une norme matricielle induite sur MN( ).
Si A MN( ) est telle que A 1, alors la matrice IN + A est
inversible et
‖((I + A)) ‖ .
Si I + A est singulière, alors A 1, pour toute norme matricielle
sur MN( ).
Démonstration
(I + A)x = 0 ⇒ A = Ax A x . Comme A < 1, on a : x = 0.
Ce qui entraine que I + A est inversible et comme ((I + A)) = IN -
A((I + A)) on a :

‖((I + A)) ‖ 1 + A . (I + A) 1
⇒ (1- A ).‖((I + A)) ‖ 1
⇒ ‖((I + A)) ‖ .
IN + A singulière ⇒ det(IN + A) = 0
= -1 est une valeur propre de A
1 (A) A .

2.2.4 Produit scalaire et matrices définies positives


Définition 2.5

Si E est un espace vectoriel sur 𝕂 = ou ℂ, un produit scalaire sur


E est une application :
ExE→ 𝕂
(x,y) 〈 , 〉
qui vérifie les propriétés suivantes :
 〈x, x〉 0, x E et 〈x, x〉 = 0 ⇒ x = 0
 〈 (x + y), z〉 = 〈x, z〉 + 〈y, z〉, 𝕂, x, y, z E
 〈y, x〉 = 〈̅̅̅̅̅̅
x, y〉, x, y E.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


19

Exemple : 𝕂 = , E = N, pour x, y E : x = (x , x , … , x ) et y =
(y , y , … , y ), l’application (x, y) → 〈x, y〉 = y x = ∑ x y définit un
produit scalaire sur N.
Définition 2.6
Une matrice A MN( ) est définie positive si : 〈Ax, x〉 0,
x N

Si l’inégalité stricte est remplacée par une inégalité large, on dit que la
matrice est semi-définie positive.
Définition 2.7
Les mineurs principaux dominants de A = (a ) ,1 k N
,
sont les N déterminants des sous-matrices de A :(a ) ,1 k N.
,

Proposition 2.7
Soit A MN( ) une matrice symétrique. A est définie positive si et
seulement si l’une des propriétés suivantes est satisfaite :
1. 〈Ax, x〉 0, ,x 0
2. Les valeurs propres de A sont strictement positives.
3. Les mineurs principaux dominants de A sont tous strictement
positifs.

2.3. METHODES DIRECTES


2.3.1. Définition 2.8
Une méthode directe de résolution d’un système linéaire est une
méthode qui calcule x, la solution exacte du système (2.1), après un
nombre fini d’opérations élémentaires (+, -, x, /). C’est aussi un
algorithme qui, si l’ordinateur faisait des calculs exacts, donnerait la
solution en un nombre fini d’opérations.
Pour n’importe quel vecteur b donné, la solution x du système
(2.1) existe et est unique si et seulement si la matrice associée au
système linéaire est non singulière (régulière).
Théoriquement, si A est non singulière, la solution est donnée par la
formule de Cramer :
( )
xi = , i = 1, …, n, (2.10)
( )
où Ai est la matrice obtenue en remplaçant la iième colonne de A par le
vecteur b.
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
20

Cependant l’application de cette formule est inacceptable pour la


résolution pratique des systèmes, car son coût est de l’ordre
(n+1) flotting-point operations (flops). En fait, le calcul pratique de
chaque déterminant par la formule :
det(A) = ∑ ( 1 ( )) ∏ a, (2.11)
()

(où la somme est étendue à toutes les permutations sur n objets) exige
n flops.
Par exemple, sur un ordinateur effectuant 109 flops par seconde il
faudrait 9,6.1047 années pour résoudre un système linéaire de seulement
50 équations.
Il faut donc développer des algorithmes alternatifs avec un coût
raisonnable.
2.3.2. Principe de résolution des systèmes linéaires
Pour résoudre le système (2.1), on cherche à écrire :
A = LU (2.12),
où - L est une matrice triangulaire inférieure avec des 1 sur la
diagonale ;
- U est une matrice triangulaire supérieure.

La résolution de Ax = b se ramène alors aux résolutions successives des


systèmes échelonnés Ly = b et Ux = y.

2.3.2.1. Résolution des systèmes triangulaires


Une matrice A = (aij) est triangulaire supérieure si
aij = 0, pour tous i,j : 1 j n;
et triangulaire inférieure si
aij = 0, pour tous i,j : 1 i n.
Suivant les cas, le système à résoudre est dit système triangulaire
supérieur ou inférieur.
 Si A est triangulaire inférieure on a :
x1 =
et pour i = 2, 3, …, n
xi = (b ∑ a x ).
Cet algorithme est appelé méthode de descente.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


21

 Si A est triangulaire supérieure, on a :


x1 =
et pour i = n-1, n-2, …, 2,1
xi = (b ∑ a x ).
Cet algorithme est appelé méthode de remontée.

Le nombre de multiplications et de divisions nécessaires dans cet


( )
algorithme est et le nombre d’additions et de soustractions
( )
est , donc l’algorithme nécessite n2 flops.
2.3.2.2. Méthode d’élimination de Gauss et décomposition LU
Soit A = (aij) une matrice non singulière d’ordre n. l’algorithme de
Gauss est le suivant :
On pose A(1) = A, c’est-à-dire (aij)(1) = aij pour i,j = 1, …, n ;
Pour k = 1, …, n on calcule
( )
lik= ( ) , i = k+1, …, n

( ) ( ) ( )
a =a l a , i = k+1, …, n.
A la fin de ce procédé, les éléments de la matrice U sont définis
par :
()
uij= a ; tandis que les éléments de la matrice L sont les
termes lij engendrés par l’algorithme de Gauss.
Le coût de cette méthode de factorisation est de l’ordre de flops. En
fait, pour passer de A(k) à A(k+1) on modifie tous les éléments de A(k) sauf
les premières k lignes et les premières k colonnes, qui ne changent pas ;
on a donc 2(n-k)2 opérations à faire. Au total, pour fabriquer A(n) il faut :

(n 1)n(2n 1) n
∑ 2(n k) = 2 ∑ j = 2 2
6 3

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


22

Remarque
Pour que l’algorithme de Gauss puisse terminer, il faut que tous les
( ) ( )
termes a , qui correspondent aux termes diagonaux u de la matrice U
et qu’on appelle pivots, soient non nuls.
Le fait que la matrice A ait des entrées non nulles ne prévient pas
l’apparition de pivots nuls, comme on remarque dans l’exemple qui suit :
1 2 3
A = [2 4 5]
7 8 9
1 2 3
A = [0 0
(2) 1]
0 6 12
Cependant on a :
Proposition 2.8.
La factorisation LU de la matrice carrée A d’ordre n par la méthode de
Gauss si et seulement si les sous-matrices principales Ai = (ahk), h,k = 1,
…, i, sont non singulières.

Cette propriété est satisfaite en particulier dans les cas suivants :


1. A est une matrice symétrique définie positive ;
2. A est une matrice { diagonale dominante stricte par lignes, c’est-à-
dire pour tout i = 1, …, n :

|a | ∑|a |

3. A est une matrice à diagonale dominante stricte par colonnes, c’est-


à-dire pour tout i = 1, …, n :
|a | ∑ |a |.

Si A est non singulière, sa factorisation LU est unique.


Exemple : on donne les systèmes linéaires suivants :
+2 +3 +4 =1 + 2 + 3 + 4 = 10
2 +3 +4 + =2 2 + 3 + 4 + = 10
{ et {
3 +4 + +2 =3 3 + 4 + + 2 = 10
4 + +2 +3 =4 4 + + 2 + 3 = 10

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


23

1. Résoudre ces systèmes par la méthode du pivot de Gauss.


2. Factoriser la matrice A de ces systèmes (sans utiliser la technique
du pivot) et les résoudre.
3. Calculer le déterminant de A.
4. Calculer A-1.
Solution :
1. Ecrivons ces systèmes sous forme matricielle :
1 2 3 4 x 1 1 2 3 4 x 10
y y
*2 3 4 1+ *z+ = *2+et*2 3 4 1+ *z+ = *10+
3 4 1 2 3 3 4 1 2 10
4 1 2 3 t 4 4 1 2 3 t 10
Résolvons le premier système par la méthode du pivot de Gauss :
,A|b-=
1 2 3 4 1 1 2 3 4 1 1 2 3 4 1
*2 3 4 1| 2+ *0 1 2 7 | 0+ *0 1 2 7 |0+
3 4 1 2 3 0 2 8 10 0 0 0 4 4 0
4 1 2 3 4 0 7 10 13 0 0 0 4 36 0
L2 L2-2L1L3 L3-2L2L4 L4+L3
L3 L3-3L1L4 L4-7L3
L4 L4-4L1
1 2 3 4 1
*0 1 2 7 |0+ d’ où : t = 0, z = 0, y = 0, x = 1.
0 0 4 4 0
0 0 0 40 0
Résolvons ensuite le second système par la même méthode :
,A|b-=
1 2 3 4 10 1 2 3 4 10 1 2 3 4 10
10
*2 3 4 1| 10+ *0 1 2 7 | 10+ *0 1 2 7|
0 +
3 4 1 2 10 0 2 8 10 20 0 0 4 4
4 1 2 3 10 0 7 10 13 30 0 0 4 36 40
L2 L2-2L1L3 L3-2L2 L4 L4+L3
L3 L3-3L1 L4 L4-7L3
L4 L4-4L1

1 2 3 4 10
10
*0 1 2 7|
0 + d’où : t = 1, z = 1, y = 1, x = 1.
0 0 4 4
0 0 0 40 40

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


24

2. Factorisation de la matrice A :

1 2 3 4 1 2 3 4 1 2 3 4
*2 3 4 1+ *2 1 2 7 + *2 1 2 7+
3 4 1 2 3 2 8 10 3 2 4 4
4 1 2 3 4 7 10 13 4 7 4 36
L2 L2-2L1L3 L3-2L2 L4 L4+L3
L3 L3-3L1 L4 L4-7L3
L4 L4-4L1

1 2 3 4 1 0 0 0
*2 1 2 7+ ; donc L = *2 1 0 0+
3 2 4 4 3 2 1 0
4 7 1 40 4 7 1 1
1 2 3 4
et U = *0 1 2 7+
0 0 4 4
0 0 0 40

Pour résoudre le premier système linéaire on résout les systèmes


triangulaires Ly = b

1 0 0 0 y 1
*2 1 0 0 + *y + = *2+ ⇒ y1 = 1, y2 = 0, y3 = 0, y4 = 0
3 2 1 0 y 3
4 7 1 1 4

Et Ux = y :
1 2 3 4 y 1
y
*0 1 2 7+ * + = *0+ ⇒ x = 0, x = 0, x = 0, x = 1.
4 3 2 1
0 0 4 4 y 0
0 0 0 40 0

Pour résoudre le second système linéaire on résout les systèmes


triangulaires Ly = b

1 0 0 0 y 10
*2 1 0 0 + *y + = *10+ ⇒ y1 = 10, y2 = -10, y3 = 0, y4 = 40
3 2 1 0 y 10
4 7 1 1 10

Et Ux = y :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


25

1 2 3 4 x 10
*0 1 2 7+ *x + = * 10+ ⇒ x = 1, x = 1, x = 1, x = 1.
4 3 2 1
0 0 4 4 x 0
0 0 0 40 x 40

3. Le déterminant de A est u11u22u33u44 = 4x(-1)x(-4)x40 = 640.

4. Pour calculer A-1 on résout les quatre systèmes linéaires


1 2 3 4 x 1 1 0 0 10 y 1 1
x y
*2 3 4 1+ *x +=*0+ c.à.d. *2 1 0 0 + *y + = *0+ ⇒ * 2+puis
3 4 1 2 0 3 2 1 0 0 1
4 1 2 3 x 0 4 7 1 1 0 11
1 2 3 4 x 1 9⁄40
*0 1 2 7+ *x + = * 2+ ⇒ [ 1⁄40 ]
0 0 4 4 x 1 1⁄40
0 0 0 40 x 11 11⁄40
1 2 3 4 x 0 1 0 0 10 y 0 0
x y
*2 3 4 1+ *x +=*1+ c.à.d. *2 1 0 0 + *y + = *1+ ⇒ * 1 +puis
3 4 1 2 0 3 2 1 0 0 2
4 1 2 3 x 0 4 7 1 1 0 9
1 2 3 4 x 0 1 ⁄40
*0 1 2 7+ * + = * 1 + ⇒ [ 1⁄40 ]
x
0 0 4 4 x 2 11⁄40
0 0 0 40 x 9 9⁄40
1 2 3 4 x 0 1 0 0 10 y 0 0
x y
*2 3 4 1+ *x +=*0+ c.à.d. *2 1 0 0 + *y + = *0+ ⇒ *0+puis
3 4 1 2 1 3 2 1 0 1 1
4 1 2 3 x 0 4 7 1 1 0 1
1 2 3 4 x 0 1 ⁄40
*0 1 2 7+ *x + = *0+ ⇒ [ 11⁄40 ]
0 0 4 4 x 1 9⁄40
0 0 0 40 x 1 1⁄40
1 2 3 4 x 0 1 0 0 10 y 0 0
x y
*2 3 4 1+ *x +=*0+ c.à.d. *2 1 0 0 + *y + = *0+ ⇒ *0+puis
3 4 1 2 0 3 2 1 0 0 0
4 1 2 3 x 1 4 7 1 1 1 1
1 2 3 4 x 0 ⁄
11 40
*0 1 2 7+ *x + = *0+ ⇒ [ 9⁄40]
0 0 4 4 x 0 1⁄40
0 0 0 40 x 1 1⁄40

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


26

et finalement
9⁄40 1⁄40 1⁄40 11⁄40
1⁄40 1⁄40 11⁄40 9⁄40
A-1 = [ ] =
1⁄40 11⁄40 9⁄40 1⁄40
11⁄40 9⁄40 1⁄40 1⁄40
9 1 1 11
* 1 1 11 9+
11 11 9 1
11 9 1 1

Les autres méthodes directes sont { voir dans le cours d’Algèbre 1.

2.4. METHODES ITERATIVES


2.4.1 Définitions et propriétés
Soit A MN( ) une matrice inversible et b . On cherche à
résoudre le système linéaire (2.1).
Définition 2.8
On appelle méthode itérative de résolution du système linéaire
(2.1) une méthode qui construit une suite (x ( ) ) (où l’itéré x ( ) est
calculé à partir des itérés x ( ) , x ( ) , … , x ( )
) censée converger vers x,
solution de (2.1).

L’intérêt des méthodes itératives, comparées aux méthodes


directes, est d’être simple { programmer et de nécessiter moins de place
en mémoire. Par contre, le temps de calcul est souvent plus long.

La plupart des méthodes itératives sont de la forme suivante :

Partant d’un vecteur arbitraire x(0), on construit une suite (x(k))


définie par :

xk+1 = Bxk + c (2.13),


où B est la matrice d’itération de la méthode itérative (dépendant de A)
et c est un vecteur (dépendant de b).

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


27

Définition 2.9
Une méthode itérative est dite convergente si pour tout
choix x ( ) , on a :
lim x ( ) = x. (2.14)

et la limite vérifie Ax = b. (Ax = b est équivalente à x = Bx + c).
Définition 2.10
L’erreur d’approximation { la k-ième étape s’écrit :

e(k) = x(k) – x = Bx(k-1) + c – Bx – c = B(x(k-1) – x) = Be(k-1).

De proche en proche on obtient :

e(k) = Be(k-1), et donc e(k) = B(k)e(0), k = 0, 1, …

Définition 2.11

Une méthode itérative est convergente si pour tout x(0), on a :

lim e( ) = 0. (2.15)

Ce qui équivaut à :

lim → B( ) = 0 x 𝕂 , lim → B( ) x = 0 lim B ( ) = 0, pour



toute norme matricielle.

Théorème 2.2. (Convergence des méthodes itératives)

On a : lim → B( ) = 0 (B) 1, (2.16)

(B) désigne le rayon spectral de la matrice B, c’est-à-dire (B) =


max | (B)|, (B) sont les valeurs propres de la matrice B.

Une technique générale pour construire des méthodes itératives


est basée sur une décomposition (splitting) de la matrice A sous la forme

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


28

A = P – N, où P et N des matrices à déterminer avec P non singulière. La


matrice P est appelée matrice de préconditionnement.
Plus précisément, x(0) étant donné, on peut calculer x(k), pour k 1,
en résolvant le système :
Px(k+1) = Nx(k) + b, k 0 (2.17)
Clairement, la solution exacte x satisfait Px = Nx + b et donc Ax = b. Le
système (2.17) peut s’écrire aussi sous la forme (2.13), avec B = P-1N, et
c = P-1b.
Une relation de récurrence équivalente à (2.17) est la suivante :
P(x(k+1) – x(k)) = r(k), k 0 (2.18),

où r(k) = b – Ax(k) est le résidu { l’itération k.


On peut généraliser la relation précédente comme
P(x(k+1) – x(k)) = r(k), k 0 (2.19), où on a
introduit un paramètre (qui peut être différent à chaque itération k)
afin d’accélérer la convergence. Cette méthode est dite de Richardson.
2.4.2. Méthodes de Jacobi, de Gauss-Seidel et de relaxation
Ces méthodes sont des cas particuliers de la méthode suivante :
A = P – N avec A inversible et assez simple.
On aurait alors :
Ax = b Px = Nx + b
x = P-1Nx + P-1b
x = Bx + c, où B = P-1N et c = P-1b.
2.4.2.1. Méthode de Jacobi
En posant : A = D – (E + F) ; M est la diagonale de A et N = E + F.
D’où : Ax = b Dx = (E + F)x + b
On suppose que D est inversible, c’est-à-dire : aii 0, 1 i N.
La matrice J = D-1(E + F) = IN- D-1A est appelée la matrice de Jacobi.
A chaque étape, on calcule les N composantes :
( ) ( ) ( )
x ,x ,…,x du vecteur x ( )
( ) ( ) ( )
a x = a x a x +b
( ) ( ) ( ) ( )
a x = a x a x … a x +b
… = ………………………………………
( ) ( ) ( )
a x = a x a x

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


29

2.4.2.2. Méthode de Gauss-Seidel


M est la partie triangulaire inférieure de A :
M = D – E et N = F.
On pourrait améliorer la méthode précédente en utilisant les quantités
déjà calculées, on calcule successivement les N composantes
( ) ( ) ( )
x ,x ,…,x du vecteur x ( ) .
( ) ( ) ( )
a x = a x a x +b
( ) ( ) ( ) ( )
a x = a x a x … a x +b
… = ………………………………………
( ) ( ) ( ) ( )
a x = a x a x a x +b .
Ce qui revient à écrire :
Dx ( ) = Ex ( )+ Fx ( ) + b ;
ou encore
(D – E)x ( ) = Fx ( )+ b
x ( ) = (D – E)-1Fx ( ) + D – E)-1b
L1 = (D – E)-1F est la matrice de Gauss-Seidel. Elle est inversible si
a 0, 1 i N.
2.4.2.3. Méthode de relaxation
Pour 0, en posant :
M = D E, N = D+F
on a : A=M–N=. D E/ . D + F/
( ) ( ) ( ) ( ) ( )
a x =a x 2a x +a x + +a x +b 3
( ) ( ) ( ) ( ) ( )
a x =a x 2a x +a x + +a x +b 3
… = ……………………………………………………….
( ) ( ) ( ) ( ) ( )
{a =a x 2a x +a x + +a , x +a x +b 3

Ce qui revient à écrire :


1 1
( D E) x ( )
=( D + F) x ( )
+ b

La matrice de relaxation est :

L =. D E/ . D + F/ = (D E)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


30

2.4.2.4. Convergence des méthodes de Jacobi, de Gauss-Seidel et de


relaxation
Théorème 1.3
Soit A une matrice symétrique définie positive.
On suppose que A = M – N, avec M inversible.
Si la matrice symétrique Mt + N est définie positive, alors :
(M N) 1.

Démonstration
Mt + N est symétrique : A = M – N → Mt + N = (A + N)t + N = At + Nt +
N = M + Nt .
Comme A est symétrique définie positive, l’application
v N → v = √v Av
définit une norme sur N.
On considère la norme matricielle . induite par cette norme
vectorielle.
M N = I M A = sup v M Av

Soit v un vecteur tel que = 1. On pose w = M-1Av.


v w = (v w) A(u w) = 1 v Aw w Av + w Aw
= 1 - wtMtw - w Mw + w Aw
= 1 - w (Mt + N)w.
v 0 → v = M-1Av 0 → w (Mt + N)w 0.
Donc, si la matrice symétrique Mt + N est définie positive, on a :
v w = 1 w (M + N)w 1.
Proposition 1.9
Soit A une matrice symétrique définie positive.
0 2 ⇒ la méthode de relaxation converge.
Proposition 1.10
Soit A une matrice, alors pour tout 0,
(L ) | 1|.
Corollaire
Soit A une matrice symétrique définie positive, alors
0 2 la méthode de relaxation converge.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


31

2.4.3. Autres méthodes itératives


2.4.3.1. Méthode du gradient
x(o) arbitraire
x(n+1) = x(n) – (A x(n)- b), n 0, où est une constante fixée.
Si on pose r(n) = Ax(n) – b, n 0, on a :
x(n+1) = x(n) – (A x(n)- b)
= x(n) - A r(n)
D’où : r(n+1) = r(n) - A r(n) = (I – A) r(n).

Une condition nécessaire et suffisante de convergence est :


(I - A) 1.
Proposition 1.11
Si la matrice A est symétrique définie positive, alors la méthode de
gradient à pas fixe converge si, et seulement si,
0 ,
ù est la plus grande valeur propre de A.
De plus = qui est une valeur optimale de (I – A) est le plus petit
rayon spectral).
2.4.3.2. Méthode du gradient à pas optimal
x(o) arbitraire
x(n+1) = x(n) – n(A x(n)- b), n 0, où n est choisi tel que r(n+1)┴ r(n)
avec r(n) = A x(n)- b, n 0.
Donc r(n+1) = r(n) - n r(n)
‖ ( )‖
r(n+1)┴ r(n) 〈r ( ) , r ( ) r( )〉 = 0 =〈 ( ), ( )〉

L’algorithme est :
k=0
x(o) arbitraire
Calcul de r(n) = Ax(n)- b
Si r(n) = 0, c’est terminé.
Si r(n) 0, on calcule :
‖r ( ) ‖
=
〈r ( ) , Ar ( ) 〉

et x(n+1) = x(n) - r ( )
k : = k+1 et aller à (1).
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
32

CHAPITRE III. INTERPOLATION


3.1. APPROXIMATION D’UNE FONCTION

Dans la résolution de certains problèmes numériques on


rencontre la situation suivante : on veut calculer les valeurs d’une
fonction f pour un très grand nombre de valeurs de x, mais on ne connait
pas f « explicitement ». Ceci se produit lorsque :
- f n’est connue qu’en certains points expérimentaux xo, x1,…, xn ou
- lorsque la fonction f est évaluée numériquement par un code de
calcul dont l’exécution est coûteuse.
On veut alors représenter f par une fonction simple dont
l’évaluation en un petit nombre d’abscisses autres que les xi, est aisée. En
clair, cela revient à approcher la fonction f par une autre fonction, plus
facile { calculer, c’est-à-dire générer un modèle mathématique simple se
substituant à la fonction inconnue. Cette fonction approchée ̅ est choisie
dans une classe ̅ de fonctions dont le calcul n’est pas trop coûteux. Il
s’agit par exemple de l’ensemble des polynômes, de l’ensemble des
fractions rationnelles, de l’ensemble des polynômes trigonométriques.
La question est alors de savoir en quel sens on désire approcher f. Il y a
un grand nombre de possibilités. Les plus courantes sont les suivantes :
- On peut chercher une fonction ̅ ̅ telle que :
̅ i) = f(xi)
i = 0,1,…,n, (x
C’est la technique de l’interpolation.
- On peut chercher une fonction ̅ ̅ qui minimise l’écart
entre les deux courbes aux points d’abscisses xi (0 i
n) :
∑ [f(̅ x ) f(x )]2 = min ∑ ,g(x ) f(x )-2
C’est la technique de la minimisation au sens des moindres
carrés.
- On peut chercher une fonction ̅ ̅ telle que :
̅
∫ |f(x) f(x)| 2dx = min ∫ |f(x) g(x)|2dx
où g ̅
C’est la technique de l’approximation quadratique.

- Enfin, on peut chercher une fonction ̅ ̅ telle que :


̅
max |f(x)- (x)| = min (max |f(x) ̅(x)|)
x , , - où g ̅

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


33

C’est la technique de l’approximation uniforme.

Dans le cadre de ce cours, nous ne verrons que l’interpolation


polynomiale.

3.2. INTERPOLATION
i. Problème
Une fonction f connue seulement en n+1 points (xo, f(xo) ; (x1,
f(x1)) … ; (xn, f(xn)), appelés points expérimentaux ou points de
collocation ou encore points d’interpolation.

Comment fait-on pour évaluer une fonction f en un x donné, proche des


points de collocation ?

f(x1) x
?
f(xn)
f(x0) x

x0 x1 x xn

On cherche alors une fonction ̅ qui prend pour valeur yi en


chaque point xi, i = 0,1,…,n. Ce problème admet une infinité de solutions.
Il faut donc préciser la classe ̅ de fonctions dans laquelle on va choisir

Nous considérons dans ce qui suit deux classes particulières de
fonctions :
- l’ensemble 𝒫n de polynômes de degré au plus n ;
- l’ensemble des splines cubiques qui sont des fonctions définies
comme des « polynômes par morceaux », chacun des polynômes
étant de degré 3.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


34

3.2.2. Polynôme d’interpolation dans la base de Lagrange

3.2.2.1. Rappel

Théorème 3.1

Un polynôme de degré de forme générale :

ao+ a1x + … + anxn ,

où an 0, possède exactement n racines pouvant être réelles ou


complexes conjuguées.

3.2.2.2. Corollaire

Pour n+1 points de collocation d’abscisses distinctes (xi,f(xi)), i =


0,1,…,n, on ne peut faire correspondre qu’un et un seul polynôme
de degré n.

Démonstration

- Supposons par l’absurde qu’il existe deux polynômes distincts


de degré n, soit pn(x) et qn(x), passant par les n+1 points (xi,f(xi)), i =
0,1,…,n.

Considérons la différence :

d(x) = pn(x) – qn(x)

qui est au plus de degré n.

Ce polynôme vérifie : d(xi) = pn(xi) – qn(xi) = f(xi)-f(xi) = 0, et ce


pour tout i, i = 0,1,…,n. Le polynôme d(x) posséderait donc n+1 racines.
Ce qui est impossible en vertu du théorème 1 ci-haut. Ceci n’est possible
que si d(x) est identiquement nul, ce qui implique que : pn(x) = qn(x)
pour tout x. ∎

3.2.2.3. Théorème 3.2

Etant donné n+1 nombres réels xo,x1,…,xn distincts et n+1


nombres réels yo,y1,…,yn, il existe un polynôme pn 𝒫 et un seul tel
que :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


35

i = 0,1,…n, pn(xi) = yi. (3.1)

Démonstration

L’existence du polynôme pn est démontrée directement en


exhibant le polynôme cherché, soit

pn(x) = ∑ y Li(x) (3.2),

où les polynômes Li sont les polynômes de la base de Lagrange qui


prennent la forme :

Li(x) = ∏ (3.3)

Ces polynômes sont appelés polynômes de base, parce qu’ils


engendrent l’espace 𝒫 des polynômes de degré inférieur ou égal à n. En
plus, on les introduit plutôt que d’utiliser la base canonique *1,x,x2,…, xn}
parce qu’ils permettent d’exprimer immédiatement tout polynôme de
degré inférieur ou égal à n en fonction de ses valeurs aux points xi. On
vérifie en effet que, par construction même de Li(x) :
1 si j = i
Li(xj) ={ (3.4)
0 si j i

Le polynôme (3.2) s’appelle polynôme d’interpolation de


Lagrange de la fonction f ou interpolant de Lagrange de f.

Exemple 1 :

Trouver le polynôme d’interpolation de la fonction f tabulée


ci-dessus :

x 0 2 3 3
xi 0 1 2 3
1f 3 1
3
f(xi) 2 1 2 2
Solution :

Les polynômes de Lagrange sont donnés par :


( )( )( ) ( )( )
Lo(x) = ; L3(x) =

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


36

( )( ) ( )( )
L2(x) = ; L4(x) =

Le polynôme d’interpolation de Lagrange est :


( )( )( ) ( )( ) ( )( )
p3(x) = + – x(x-1)(x-3) -

soit p3(x)=

Exemple 2 :

Trouver l’interpolant de la fonction f : x →ex aux points 0,1 ;


0,2 ; 0,3. Estimer e0,25.

Solution: Le tableau des données (xi, f(xi)) est le suivant:

X 0,1 0,2 0,3


f(x) 1,105 171 1,221 403 1,349 859

On obtient immédiatement :
( , )( , ) ( , )( , )
p2(x) = 1,105 171. + 1,221 403.
( , , )( , , ) ( , , )( , , )
( , )( , )
+ 1,349859.
( , , )( , , )
( , )( , )
Il en résulte : e0,25 p2(0,25) = 1,107 171.
( , , )( , , )
( , )( , )
+ 1,221 403.
( ,, )( , , )
( , )( , )
+ 1,349 859.
( , , )( , , )
= 1,284 103.

La méthode de Lagrange est une méthode simple et systématique


pour construire des polynômes de degré quelconque. Elle n’est
cependant guère utilisée aujourd’hui en raison de son coût en temps de
calcul.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


37

3.2.3. Erreur d’interpolation


L’interpolation polynomiale peut aisément générer des valeurs
absurdes, si elle n’est pas effectuée correctement. Il est donc essentiel de
quantifier l’erreur d’interpolation pour interpréter les résultats.
En analyse numérique, il est généralement impossible de
connaître exactement l’erreur. En effet, si tel était le cas, alors la solution
exacte serait elle aussi connue. Par contre, il est souvent possible
d’estimer l’ordre de grandeur de l’erreur et de savoir comment cette
dernière se comporte dans différentes conditions. Cette information est
nécessaire (mais non suffisante) pour évaluer la fiabilité d’une méthode.
Désignons par en(x) l’écart ou erreur d’interpolation définie par :
f(x) = pn(x) + en(x)

soit, en(x) = f(x) – pn(x) (3.5).

Tout le problème consiste { estimer l’erreur sans disposer de la


valeur de f(x) en tout x. On supposera dans ce qui suit que les valeurs des
points de collocation sont connues exactement, ce qui n’est pas vrai dans
la pratique. Le théorème suivant est utile

Théorème 3.3

Soit un ensemble de n+1 points de collocation (xi,f(xi)), où i =


0,1,…,n. On suppose que la fonction f est définie dans l’intervalle I =,a,b-
et qu’elle est (n+1)-fois continument dérivable dans l’intervalle -a,b,. Il
existe alors une abscisse ξ ]a,b[ telle que :
( )
( )
En(x) = (x) (3.6),
( )

où (x)= (x-xo=(x-x1). … .(x-xn) et f ( ) (ξ)est la dérivée


d’ordre n+1, évaluée en une abscisse ξ inconnue.

Démonstration

 Si x = xi, En(xi) pour i = 0, 1, …, n.


 Soit x I fixé, x xi, pour i = 0, 1, …, n et définissons la fonction G
de I vers définie par :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


38

()
G(t) = En(t) – En(x) ( )

Puisque f ∊ (I) et puisque (x) est un polynôme, G ∊ (I) et


possède au moins n+2 zéros distincts dans I. En effet, les zéros de G sont
les n+1 nœuds xi et x car
( )
G(xi) = En(xi) – En(x). ( )
= 0, pour i = 0, 1, …, n

( )
G(x) = En(x) – En(x) ( )
= 0.

Ainsi, en vertu du théorème de Rolle appliqué successivement, G’ admet


au moins n+1 zéros distincts et par récurrence G(k) a au moins n + 2 – k
zéros distincts. Par conséquent, G(n+1) a au moins un zéro que l’on note 𝜉.
D’autre part, puisque
( ) ( )
E (t) = f ( ) (t) et (x) = (n+1) ,

on a :
( )
G(n+1)(t) = f(n+1)(t) – En(x) ( )

Ce qui donne avec t = 𝜉, l’expression voulue pour En(x).

Dans le cas où les nœuds sont équirépartis, c.{.d. quand xi =


xi-1 + h avec i = 1, …, n et h 0 et xo donnés, on a :

| (x)| n

| ( )
( )|
Et donc max |E (x)| .hn+1 (3.7)
( )

Remarque : Les inconvénients de l’interpolation polynomiale avec


nœuds équirépartis.

Seul le fait que lim → = 0 n’implique pas que En(x) tend


( )
vers 0 quand n tend vers l’infini.
En fait, il existe des fonctions f pour lesquelles max |E (x)| tend
vers +∞ lorsque n tend vers l’infini. Ce résultat étonnant indique

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


39

qu’en augmentant le degré n du polynôme d’interpolation, on


n’obtient pas toujours une meilleure approximation de f.

Exemple (Phénomène de Runge)

Le phénomène évoqué ci-dessus est bien illustré par la fonction f :


[-5,5] → définie par f(x) = , dite fonction de Runge. La fonction f
est indéfiniment dérivable sur [-5,5] et | f(n)( 5)| devient très
rapidement très grand lorsque n tend vers l’infini. Si on considère des
nœuds équirépartis, on constate que l’erreur tend vers l’infini quand n
tend vers l’infini. Ceci est lié au fait que la quantité
max , , - |f( )
(x)| tend plus vite vers l’infini que qui tend vers
( )
zéro.
Si l’on interpole cette fonction dans les nœuds équirépartis, aux
bords de l’intervalle ,-5,5-, l’interpolant présente des oscillations très
fortes. Les polynômes d’interpolation présentent des oscillations qui
augmentent avec le degré du polynôme. Ce comportement est connu
sous le nom de phénomène de Runge.
Comment éviter ce phénomène ?
Deux moyens permettent d’éviter ce phénomène :
1. Les nœuds ne sont pas équirépartis.
2. On effectue une interpolation par intervalles.

Exemple : Soit f(x) = cos x ; xo = 0,3 ; x1 = 0,4 ; x2 = 0,5 ; x3 = 0,6.


Estimer f(0,44).

Solution : f(x) = cos x f’(x) = - sin x f’’(x) = - cos x f’’’(x) = sin x ;


f(4)(x) = cos x.
M = max , , , - | f ( ) (x)| = | cos(0,3)| = 0,955 336
Pour x = 0,44, on a :|(x-0,3)(x-0,4)(x-0,5)(x-0,6)| = 0,5376.10-4

,
|E3(0,44)| 0,5376.10-4. = 0,213 995.10-5
En réalité, |E3(0,44)| = |cos(0,44) – p3(0,44)| = 0,166 322.10-5
qui est comparable à la borne supérieure ci-dessus.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


40

3.2.4.Interpolation de Tchebychev
Comme on l’a vu plus haut, l’erreur d’interpolation est un produit
de la (n+1)ième dérivée de f, évaluée { un point connu, avec l’expression
(x-xo). … .(x-xn) qui ne dépend que de la subdivision de l’intervalle [a,b].
Il est alors intéressant de chercher, pour un n donné, la subdivision de [a,
b] pour laquelle
max |(x-xo). … .(x-xn)|est minimal (3.8)
, , -

La réponse { ce problème peut être donnée { l’aide des


polynômes de Tchebychev-Gauss-Lobato.

3.2.4.1 Définition 3.1.

Pour n = 0, 1, 2, …, n et pour x ∊ [-1, 1], on appelle polynômes de


Tchebychev les fonctions définies par :

Tn(x) = cos(n arcos x) (3.9)

3.2.4.2. Propriétés
a) Les fonctions Tn(x) satisfont la récurrence

To(x) = 1, T1(x) = x

Tn+1(x) = 2x Tn(x) – Tn-1(x) (3.10)

Par conséquent, Tn(x) est un polynôme de degré n dont le


coefficient de xn est 2n-1, c-à-d,

Tn(x)= 2n-1xn + ….

b) |Tn(x)| 1 pour tout x ∊ [-1, 1]

c) Tn(cos( ))= (-1)k pour k = 0, 1, …, n

On démontre que (3.8) est minimal si et seulement si

(x-xo). … .(x-xn) = 2-nTn+1(x),


( )
c-à-d si xk = cos0 1, k = 0, 1, …, n (3.11)

Les points (3.11) s’appellent points de Tchebychev.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


41

Ainsi, pour répondre à la question (3.8), il faut utiliser la


translation

x ↦ + x,
qui envoie l’intervalle [-1, 1] sur [a, b]. On obtient alors

Théorème 3.1.

L’expression (3.8) est minimale pour toute subdivision de


l’intervalle ,a, b- si et seulement si
( )
xk= + cos 0 1, k = 0,1, …, n (3.12)

L’interpolation de Tchebychev est en fait l’interpolation de


Lagrange aux points de Tchebychev.

Exemple : Soit f(x) = où x ∊ [-5, 5]. Comparer le polynôme


d’interpolation basé sur des points équidistants (xo = -5, x1 = -3, x2 = -1,
x3 = 0, x4 = 1, x5 = 3, x6 = 5) avec celui basé sur les points de Tchebychev
xk, a = -5, b = 5, n = 6, k = 0,1, …, 6.

3.2.5. Stabilité de l’interpolation polynomiale


Soit f : I → une fonction de classe (I) où I est le plus petit
intervalle contenant les nœuds xi, i = 0,1, …, n. Qu’arrive-t-il aux
polynômes d’interpolation si, au lieu des valeurs exactes f(xi), on
considère des valeurs perturbées f(xi), i = 0,1,…,n ? Ces perturbations
peuvent être engendrées soit par des erreurs d’arrondi soit par des
incertitudes dans les mesures.
Soit pn le polynôme exact interpolant les valeurs f(xi) et p̃ le
polynôme exact interpolant les valeurs f(xi). En notant x le vecteur dont
les composantes sont les nœuds d’interpolation, on a

max|p (x) p̃ (x)| = max |∑ f(x ) f̃ (x )(φ ( ))|

𝛬n(x)max |f(x) f̃ (x)| (3.13)

où 𝛬n(x) = max ∑ |φ ( )|est appelée constante de Lebesgue


(dépendant des nœuds d’interpolation). Des petites oscillations sur les

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


42

valeurs nodales f(xi) entraînent des petites variations sur le polynôme


d’interpolation quand la constante de Lebesgue est petite. La constante
de Lebesgue mesure donc le conditionnement du problème
d’interpolation.
Pour l’interpolation de Lagrange avec des nœuds équirépartis

𝛬n(x)≃( ( ) )
(3.14)

où e = 2,27 834 (nombre de Néper) et = 0,547 721 (constante


d’Euler).
Quand n est grand, l’interpolation de Lagrange sur des nœuds
équirépartis peut être instable.
Exercice-exemple : Tracer la courbe représentative de f avec
 La fonction x f(x) = sin (2𝜋x)
 Le polynôme de Lagrange ℒ21 qui interpole f en 22 nœuds
équirépartis sur l’intervalle ,-1, 1], c-à-d aux points xi = -1 + 0,1i, i
= 0,1,…, 21
 Le polynôme de Lagrange p21 qui interpole l’ensemble perturbé
des points (xi, ỹ ), i = 0,1,…,20 où ỹ est une perturbation aléatoire
des valeurs exactes yi de sorte que
max |yi - ỹ | 10-3

On remarque que la différence entre ces deux polynômes est bien plus
grande que la perturbation des données.
Plus précisément : max |p (x) p̃ (x)|≃ 6,212

Et l’écart est particulièrement important aux extrémités de l’intervalle.


Là, la constante de Lebesgue est très grande :
𝛬n(x)≃ 19 274.
3.2.6. Interpolation de Newton
3.2.6.1. Polynôme d’interpolation dans la base de Newton

Etant donné n+1 points xi, i = 0,1,…,n, la base de Newton est


définie par :

{1, (x-xo), (x-xo)(x-x1), …, (x-xo)(x-x1). … .(x-xn)} (3.15)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


43

Nous allons montrer comment calculer les coefficients du


polynôme de degré inférieur ou égal à n, pn, interpolant une fonction f
aux nœuds xi, i = 0,1,…,n. Ce polynôme s’écrit :

pn(x) = co + c1(x-xo) + c2(x-xo)(x-x1)+…+cn(x-xo)(x-x1). … .(x-xn) (3.16)

Le polynôme d’interpolation d’une fonction f étant unique, le polynôme


d’interpolation de Newton sera égal au polynôme d’interpolation de
Lagrange. Ils diffèrent simplement dans la forme et par l’algorithme de
calcul des coefficients.
On peut déterminer les coefficients ci par la résolution du système
d’équations linéaires de forme triangulaire inférieure. La résolution est
don directe par simple substitution comme indiqué ci-dessous :
p (x ) = c = f(x )
p (x ) = c + c (x x ) = f(x ) (3.17)
{
……………………………………………………………
p (x ) = c + c (x x ) + + c (x x ) … (x x ) = f(x )
D’où : co = f(xo) = ,f(x )-
( ) ( )
c1 = =f,x , x -
( ) ( ) ( )
c2 =
( )( )
( ) ( ) ( ) ( )
= -
( )( ) ( )( )
,( ) ( )-( ) , ( ) ( )-( )
c2 = )
( )( )(
,( ) ( ) ( ) ( )-( ) ,( ) ( )-(( )
( )( ) ( )( )
=
,( ) ( )- , ( ) ( )-
( ) ( )
=
, , - , , -
= = f,x , x , x -

Et de proche en proche, on trouve


, ,… , - , ,… , -
cn = (3.18)

Les coefficients c1, c2, …, cn s’appellent des différences divisées d’ordres


un, deux, …, n.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


44

Pour calculer tous les coefficients, on va construire une table des


différences divisées comme indiqué ci-dessous.
3.2.6.2. Calcul pratique des différences divisées
On sait que
, , ,…, - , , ,…, -
f[xi] =f(xi), f[ xo,x1,…, xk] =

L’utilisation de cette formule permet de calculer les f, xo,x1,…, xk] de


proche en proche { l’aide du tableau suivant (chaque colonne se déduit
de la colonne précédente) :
Table des différences divisées :

k=0 k=1 k=2 … k=n

f, -
f, , -
f,x - f, , , -
f,x , x - f, , , , -
f,x - f,x , x , x - .
f,x , x - . .
f,x - . .
. .
. f,x , x , x -
. f,x ,x -
f,x - f, , ,…, -

( )
 La détermination des coefficients ck nécessite divisions.
 Nous voyons aussi que nous obtenons sur la diagonale du tableau
coefficients f,x -, f,x , x -, f,x , x , x -, …, et finalement
f,x , x , … , x -, c’est-à-dire les coefficients co, c1,c2 et finalement cn
de pn dans la base de Newton.
Algorithme succinct pour calculer les différences divisées di (0 i n) :
1 : pour i = 0 jusqu’{ n faire
2 : di = f(xi)
3 : fin pour
4 : pour k = 1 jusqu’{ n faire
5 : pour i = n jusqu'à k par pas de -1 faire
6 : di =

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


45

7 : fin pour
8 : fin pour
Exemple :
Déterminer le polynôme d’interpolation de la fonction f définie par la
table suivante :
X 0 1 2 3
f(x) 1 1 2 1
2 2
Solution :
 Table des différences divisées :

k=0 k =1 k=2 k=3

xo= 0 ½
½
1/4
x1 = 1 1
1 -2/3

x2 = 2 2 -7/4
-5/2

x3 = 3 -1/2

D’oùp3(x) = + (x – 0) + (x – 0)(x-1) – (x – 0)(x-1)(x-2),

soit, p3(x) = .

3.2.7. Interpolation par splines cubiques


<

Lorsqu’on réalise une interpolation, on espère en général qu’elle


marche encore en dehors des points pris en compte pour calculer le
polynôme. L’interpolation polynômiale présente certains inconvénients :
 Elle diverge rapidement en dehors des points d’interpolation ;
 Elle présente de fortes oscillations aux bords du domaine
d’interpolation et surtout lorsque le nombre de points est
supérieur à 10 ;
 Etc.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


46

Une meilleure répartition des nœuds (répartition de Tchebychev)


permet de réduire l’erreur mais des oscillations subsistent. De plus,
l’utilisation des polynômes de degré élevé est { éviter puisqu’on
introduit des instabilités numériques.
A cause de tous ces inconvénients, on préfère alors utiliser le
second remède évoqué plus loin : l’interpolation polynômiale par
morceaux, appelée interpolation par splines. La spline peut changer de
forme aux nœuds (xi, yi).

3.2.7.1. Définition 3.2.

Etant donnés n+1 points (xi, yi), i = 0,1,…, n, une fonction S


s’appelle spline d’ordre k si :
1) le domaine de S est un intervalle ,a, b- ;
2) la fonction S ainsi que ses dérivées S ,S , …,S ( ) sont
continues sur ,a, b-
3) il existe une subdivision a = xo < x1 …. xn = b de ,a, b- telle
que la restriction de S à chaque intervalle partiel ,x , x -, (i
= 0,…, n-1), est un polynôme de degré k.
La spline S est donc définie sur l’intervalle ,a, b- par :
S (x), x ∊ ,x , x -
S (x), x ∊ ,x , x -
S(x) = { (3.19)
……………………
S (x), x ∊ ,x , x -

3.2.7.2. Splines linéaires

Etant donnés n+1 points (xi, yi), on cherche une spline linéaire
S(x) de la forme

S (x) = a x + b , x ∊ ,x , x -
S (x) = a x + b , x ∊ ,x , x -
S(x) ={ (3.20)
…………………………………
S (x) = a x + b , x ∊ ,x ,x -

vérifiant les conditions de collocation


S(xi) = yi (3.21).

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


47

La détermination de S(x) exige le calcul de 2n coefficients ai et bi (i = 0,1,


…, n-1).
Pour cela, on dispose de 2n équations :
 (n+1) équations d’interpolation (i = 0,1,…, n)
S(xi) = yi
yi = aixi+ bi (3.22)
 (n-1) équations de continuité de spline (i = 0,1, …, n-2)
Si(xi+1) = Si+1(xi+1)
aixi+1 + bi = yi+1 (3.23)
On en déduit donc de manière unique

3.2.7.3. Splines cubiques


Les splines de degré 3 sont appelées splines cubiques.
L’interpolation par des splines cubiques entraîne la continuité de la
spline, de sa dérivée et de la dérivée seconde.

Définissons y = S (x ), et écrivons Si(x) sous la forme :


Si(x) = ai(x-xi)3 + bi(x-xi)2 + ci(x-xi) + di (3.23),

où les 4n coefficients ai, bi, ci et di sont des constantes à déterminer (i =


0, 1, …, n-1).

La détermination de S(x) exige le calcul de 4n coefficients ai, bi, ci et di (i


= 0, 1, …, n-1) et on dispose seulement de (4n-2) équations :

 (n+1) équations issues des conditions de collocation :


Si(xi) = yi, i = 0, 1, …, n (3.20)
 (n-1) équations issues de la continuité de S :

Si(xi+1) = Si+1(xi+1), i = 0, 1, …, n-2 (3.21)

 2(n-1) équations issues de la continuité de S’ et S :


S (x )= S (x ), i = 0, 1, …, n-2 (3.22)

S (x )=S (x ),i = 0, 1, …, n-2. (3.23)

Il faut donc fixer deux conditions supplémentaires. On impose


généralement les valeurs des dérivées secondes aux points xo et xn.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


48

Si l’on impose : S (x )= S (x ), la spline S est complètement


déterminée et s’appelle spline naturelle.

On a d’autres possibilités comme les suivantes :

 On suppose données les pentes aux extrémités :

S’(xo) = po et S’(xn) = pn (3.24)

et on obtient une spline appelée spline scellée.

 On suppose que :

S (x ) = S (x ) et S (x ) = S (x ) (3.25)

et on obtient une spline appelée spline périodique.

Exemple : Déterminer les coefficients ai, bi, ci et di (i = 0,1) tels que la


fonction S(x) soit une spline cubique naturelle, où :

a x + b x + c x + d , x ∊ , 1,0-
S(x) = 8
a x + b x + c x + d , x ∊ ,0,1-

avec les conditions de collocation S(-1) = 1,S(0) = 2 et S(1) = -1.

Solution :

Posons : So(x) = a x + b x + c x + d , x ∊ , 1,0-

S1(x) = a x + b x + c x + d , x ∊ ,0,1-.

Des conditions de collocation, nous avons :

So(0) = do = 2

S1(0) = d1 = 2

So(-1) = -ao + bo - co + 2 = 1 ou - ao + bo - co = -1

S1(1) = a1 + b1 + c1 + 2 = -1 ou a1 + b1 + c1 = -3.

D’autre part,

3a x + 2b x + c , x ∊ , 1,0-
S’(x) = 8
3a x + 2b x + c , x ∊ ,0,1-
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
49

De la continuité de S’, nous avons :

S’(0-) = S’(0+), soit co = c1


6a x + 2b , x ∊ , 1,0-
Et S (x) = {
6a x + 2b , x ∊ ,0,1-

Et de la continuité de S , nous avons :

S (0) = b0 = b1.

Les deux conditions supplémentaires donnent :

S (-1) = -6a0 + 2b0 = 0

S (1) = 6a1 + 2b1 = 0.

D’où le système de 8 équations linéaires { 8 inconnues :

-a0+b0 – c0 = -1
-3a0 + b0 = 0
b0= b1
a1+ b1 + c1= -3.
d0 = 2
3a1 + b1= 0
d1 = 2
Ainsi, a0 = -1, b0 = -3, c0 = -1, d0 = 2, a1 = 1, b1 = -3, c1 = -1 et d1 = 2 et la
spline cubique naturelle est définie sur [-1,1] par :

x 3x x + 2, x ∊ , 1,0-
S(x) = {
x 3x x + 2, x ∊ ,0,1-.
3.2.7.4. L’erreur de la spline

Si yi = f(xi), i = 0, 1, …, n, et f : ,a, b- → une fonction donnée de


classe C2(,a, b-), alors on peut majorer l’erreur d’interpolation au point x
,a, b- par :

max |f(x) S(x)| . max , , - |f (x)| (3.26)


, , -

où h = max (xi+1 – xi).


,…,

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


50

Par conséquent, pour tout x dans ,a, b-, l’interpolant S(x) tend vers f(x)
quand n tend vers +∞, à condition que la fonction f soit assez régulière.

Le principal défaut de cette interpolation par morceaux est que S


n’est que continue. Or, dans de nombreuses applications, il est préférable
d’utiliser les fonctions ayant au moins une dérivée continue. On peut
construire pour cela une fonction S (polynôme de degré 3) comme par
exemple l’interpolation d’Hermite des points (xi, f (xi), f (xi )) et (xi+1, f
(xi+1), f (xi+1)) sur chaque [xi, xi +1]pour i = 0, 1, … ,n -1.

3.2.8. Interpolation cubique d’Hermite

Soit f (,a, b-) et (n+1) points xi, i = 0,1,…, n, deux { deux


distincts de l’intervalle ,a, b-. On cherche à interpoler f ainsi que sa
dérivée aux points xi, c’est- à -dire à trouver un polynôme remplissant les
conditions :

p(xi) = f(xi) et p’(xi) = f’(xi), i = 0,1,…, n.

Ce polynôme vérifiant 2n+2 conditions doit être de degré au moins


2n+1. Il est défini par :

Q(x) = ∑ f(x ) H (x ) + ∑ f (x ) K (x ) (3.27),

où les polynômes de Lagrange-Hermite sont donnés par :

Hi(x) = ,1 2(x x )L (x)-(L (x)) (3.28)

Ki(x) = (x – xi)(Li(x))2, (3.29)

où i = 0,1,…, n. Le polynôme (3.27) s’appelle polynôme d’interpolation


de l’Hermite de la fonction f ou polynôme osculateur de f.

Exemple : Soit la fonction f : x → définie sur ,0,5-. Déterminer le


polynôme de l’Hermite interpolant f sachant que les abscisses des points
de collocation sont xo = 0 et x1 = 5. Et estimer f(4) par ce polynôme.

Solution : Calculons les polynômes Li, Hi et Ki sachant que les abscisses


des points de collocation sont xo = 0 et x1 = 5.

On a : Lo(x) = = = 1 - ; L1(x) = =

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


51

et L (x) = - ; L (x) = .

Ho(x) = (1 - 2(x-xo) L (x))(Lo(x))2

= x3 + x2 + 1

H1(x) = (1 - 2(x-x1) L (x))( L1(x))2

=- x3 + x2

D’autre part,

Ko(x) = (x-xo) (Lo(x))2 = - x2 + x;

K1(x) = (x-x1) (L1(x))2 = - .

Ainsi,

Q(x) = Ho(x)f(xo) + H1(x) f(x1) + Ko(x)f’(xo) + K1(x) f’(x1)

= x3 - x + 1.

On a Q(4) 0,147 et pour comparaison f(4) 0,0588. L’écart peut


sembler important, mais un calcul de l’erreur théorique sur
l’interpolation de l’Hermite montre que l’erreur effectivement commise
est plus petite que cette erreur théorique. En outre, la valeur x = 4 est
relativement proche du bord de l’intervalle d’interpolation ,0,5- en
général que ce soit pour l’interpolation de Lagrange ou celle de
l’Hermite, l’erreur s’amplifie au bord de l’intervalle d’interpolation.

3.3. APPROXIMATION PAR LA METHODE DES MOINDRES CARRES

3.3.1. Introduction
La méthode des moindres carrés est très utilisée dans les sciences
expérimentales et plus particulièrement dans les problèmes d’estimation
et d’identification. Cette méthode consiste { minimiser la norme
quadratique (norme euclidienne) d’une fonction appelée fonction
d’erreur. C’est le cas par exemple lorsqu’un chercheur met au point une
expérience et qu’il a des raisons de croire que deux grandeurs x et y sont

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


52

liées par une fonction f. Après avoir récolté des données sous la forme
des points (xi, yi), i = 0,1, …, n, et qu’il en fait une représentation
graphique, il cherche f pour qu’elle s’ajuste le mieux possible aux points
expérimentaux.
Si le nombre n de données est grand, l’interpolation de Lagrange
comme on l’a vu n’est pas toujours une bonne approximation d’une
fonction donnée ou cherchée. En outre, si les données sont affectées par
des erreurs de mesure, l’interpolation peut être instable. Ce problème
peut être résolu avec l’interpolation par splines linéaires ou cubiques
comme vu plus haut.
Néanmoins, aucune de ces techniques ne donne une réponse
adéquate lorsqu’il s’agit de l’extrapolation d’informations { partir des
données disponibles, c.-à-d., à la génération de nouvelles valeurs en des
points situés en dehors de l’intervalle contenant les nœuds
d’interpolation. On introduit alors la méthode des moindres carrés : soit
ei = yi – f(xi) l’écart vertical du point (xi, yi) par rapport à la fonction f. la
méthode des moindres carrés est celle qui choisit f de sorte que la
somme des carrés de ces déviations soit minimale.
Le problème { résoudre peut s’énoncer comme suit :
Supposons donnés N+1 points d’un relevé expérimental (xi, yi)
(par exemple xi est l’instant de prélèvement d’une substance dans une
réaction chimique et yi la concentration de cette substance), i = 0,1, …, N.
Supposons maintenant que l’on recherche une relation linéaire entre x et
y de la forme
y = ax + b (3.30)
Il est clair que pour N = 2 les inconnues a et b sont déterminées de
manière unique. Il est clair aussi que la droite ne peut passer par
l’ensemble des points. En fait, ce que l’on recherche ici est la droite la
plus probable, donc minimisant une certaine erreur.
Au point (xi, yi) la distance entre la droite et le point est

ei = |(axi + b) - yi| (3.31)

On peut alors envisager de déterminer a et b en résolvant différents


problèmes d’optimisation :
 Minimiser la plus grande valeur de ei (problème de mini-max).
min max e (3.32)
∊, , -
 Minimiser la somme des erreurs (programmation linéaire)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


53

min ∑ e (3.33)
∊, , -

 Minimiser la somme des carrés des erreurs (droite des moindres


carrés)
min ∑ e = min eTe = min e (3.34)
∊, , - ∊, , -
avec e = [eo, e1, …, eN]T.
On peut se poser la question de l’intérêt de la norme 2. Il y en a
deux : d’une part les calculs sont faciles et d’autre part dans le cas d’une
distribution normale des erreurs, l’estimateur des moindres carrés est
aussi l’estimateur du maximum de vraisemblance.

3.7.2. Méthode de calcul des paramètres


3.7.2.1. Calcul direct

Soit la fonction φ(a,b), fonction { minimiser :

φ(a,b) = ∑ e (3.35)

φ(a,b) = ∑ (ax + b y) (3.36)

Pour minimiser φ on cherche d’abord les points stationnaires, c.-à-d. les


points (a,b) tels que (a, b) = (a, b) = 0. On a alors

(a, b)= 2∑ (ax + b y )x = 0 (3.37)

(a, b)= 2∑ (ax + b y) =0 (3.38)

Les deux conditions précédentes se mettent sous la forme d’un système


d’équations { deux inconnues :

(∑ x )a + (∑ x )b = ∑ xy
8 (3.39)
(∑ x )a + (N + 1)b = ∑ y

Les solutions du système sont :

a = [N(∑ xy) (∑ x )(∑ y )]


{ (3.40)
b = ,(∑ x )(∑ y) (∑ x )(∑ xy)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


54

où D = (N+1)(∑ x ) – (∑ x )2 (3.41)

On vérifie que cet extremum correspond bien à un minimum en calculant


les dérivées partielles du second ordre

= 2(∑ x ) 0; = 2(N+1) 0.

La droite d’équation y = ax + b ainsi trouvée s’appelle droite de


régression de y par rapport à x.

Exemple : On donne les points suivants :

Trouver la droite de régression.

3.2.7.2. Calcul vectoriel

Il est possible d’effectuer le calcul précédent sous forme


vectorielle. D’après

φ(a,b) = eTe(3.42),

de plus e = Cz – d (3.43)
x 1 y
x 1 a y
avec C = [ ], z = 0 1, d = [ … ] (3.44)
… … b
x 1 y

d’où φ(a,b) = zTCTCz – 2(CTd)Tz + dTd (3.45)

On en déduit donc les conditions du minimum

= 2(CTC)z – 2(CTd) = (3.46)

= 2(CTC) > 0 (3.47)

L’équation (3.46) est dite équation normale. La solution est donc


obtenue sous la forme

z = (CTC)-1(CTd) (3.48).

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


55

CHAPITRE IV. DIFFERENTIATION NUMERIQUE


4.1. INTRODUCTION
On a introduit l’interpolation en cherchant à approximer une
fonction f connue en un nombre fini de points. Dans ce chapitre, nous
allons utiliser l’interpolation pour approcher une dérivée d’ordre
quelconque d’une fonction f au point x : f (x ), f (x ), …

On parlera de dérivation numérique ou de différentiation


numérique. On appuiera naturellement les efforts sur la connaissance de
l’erreur d’interpolation

f(x) = pn(x) + En(x) (4.1)

qui nous permettra d’estimer les erreurs produites.

4.2. DIFFERENTIATION NUMERIQUE


4.2.1. Principe de base
En général, il est facile de dériver une fonction f si l’expression
analytique est connue. On suppose ici que f n’est connue qu’en certains
nœuds xi.
Idéalement on voudrait évaluer numériquement f (x) quel que
soit x, mais de manière plus réaliste on s’intéresse aux dérivées aux
points où f est connue : f (x ).

On favorise une approche basée sur :

 l’interpolation : si pn est le polynôme qui interpole f aux nœuds xi,


on pose : f (x) p (x).
 le développement de Taylor.

Dans ce qui suit, nous utiliserons un mélange de deux approches.


Dérivons membre { membre l’égalité (4.1). On obtient
successivement :f (x) = p (x) + E (x)

f (x) = p (x) + E (x) (4.2)

f (x) = p (x) + E (x)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


56

Ainsi, pour évaluer la dérivée d’une fonction connue aux points


(xi, f(xi)) (i = 0,1,…,n), il suffit de dériver le polynôme d’interpolation
passant par ces points. De plus, le terme d’erreur associé { cette
approximation de la dérivée est tout simplement la dérivée de l’erreur
d’interpolation. Les oscillations dans les polynômes de haut degré
deviennent importantes puisqu’elles peuvent produire des dérivées
erronées aux nœuds d’interpolation.

4.2.2. Dérivées premières


On sait que
( ) (( ( ))
E (x) = ( )
,(x x )(x x ) … (x x )- (4.3)

Alors l’erreur sur la dérivée première sera :

f( ) .(ξ(x))ξ (x)/
E (x) = ,(x x )(x x ) … (x x )-
(n + 1)
( )( ( ))
+ ( )
,(x x )(x x ) … (x x )- (4.4)

D’où
( )
.( ( )) ( )/ ( ) (( ( ))
E (x) = ( )
∏ (x x )+ ( )
∑ ∏ .(x x )/

(4.5)

En particulier aux points d’interpolation on aura :

f( ) (ξ(x
)ξ (x )) f( ) (ξ(x ))
E (x ) = ∏(x x )+ ∑ ∏(x x)
(n + 1) (n + 1)

( )( ( ))
E (x )= ( )
∏ (x x) (4.6)

En utilisant des points équidistants : xi = xo + ih, on a :


( )( ( ))
E (x )= ( )
∏ (i j).hn (4.7)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


57

Rappelons que pour un polynôme d’interpolation de degré n,


on a :

p (x ) = f (x ) + E (x ) (4.8)

La dérivée p (x ) est une approximation d’ordre n de f (x ).

Définition 2.1

On appelle formule aux différences finies ou formule aux


différences, la formule d’approximation obtenue en considérant le terme
p (x ).

Les formules se distingueront par le degré du polynôme qui


les génère, par les points d’interpolation utilisés dans la formule et par
l’ordre de l’approximation.

Remarque :

Pour la dérivée première l’ordre de l’approximation est lié {


l’ordre de l’interpolation. Ce n’est pas le cas pour toutes les dérivées.

On va chercher maintenant des approximations d’ordres 1 et


2 pour la dérivée première. On traitera donc des interpolations à 2 et à 3
points.

4.2.3. Dérivées d’ordre 1

Si l’on choisit le polynôme de degré 1 passant par les points


(xo,f(xo)) et (x1,f(x1)), on obtient :

f(x) = p (x) + E (x) = f(x )f,x , x -(x x ) + E (x)

et donc :

f (x) = p (x) + E (x), avec p (x) = f,x , x -

Et

f ( ) (ξ(x))ξ (x)
E (x) = (x x )(x x )
2
f ( ) (ξ(x))
+ ,(x x ) + (x x )-.
2
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
58

Si on évalue en xo et en x1 on aura respectivement :


( )
( ( ))
 f (x ) = p (x ) + (x x )
( )
( ( ))
soit f (x ) = f,x , x - h (4.9)
( )
( ( ))
 f (x ) = p (x ) + (x x )
( )
( ( ))
soit f (x ) = f,x , x - + h (4.10)

Les formules aux différences obtenues avec p (x ) et


p (x )sont les mêmes, sauf pour le signe de l’erreur. Cependant, leur
interprétation n’est pas la même puisqu’elle n’approxime pas au même
point.

Dans le premier cas on approxime la dérivée en xo par :


( ) ( ) ( ( ))
f (x ) , avec f (x )-p (x )= (4.11)

Dans le deuxième cas on approxime la dérivée en x1par :


( ) ( ) ( ( ))
f (x ) , avec f (x )-p (x ) = h (4.12)

En utilisant p (x ) et p (x ) on obtient deux formules aux différences :

 Différence avant d’ordre 1


( ) ( ) ( ( ))
f (x ) ; E (x ) = h (4.13) ;

La formule est qualifiée d’ « avant » car on utilise l’information au point


« suivant ».,

 Différence arrière d’ordre 1


( ) ( ) ( ( ))
f (x ) ; E (x )= h (4.14)

La formule est qualifiée d’ « arrière » car on utilise l’information


au point « précédent ».

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


59

Soient les trois points (x , f(x )),(x , f(x )),(x , f(x )).

p (x)=f(x ) + f,x , x -(x x ) +f,x , x , x -(x x )(x x )

et donc

p (x)= f,x , x - + f,x , x , x -(x x )


( ) ( ) ( ) ( ) ( )
p (x)= + ,(x x ) + (x x )- (4.15)

On peut évaluer aux points xo, x1 et x2 et produire trois formules aux


différences.
( ( )) ( )
E (x) = (x x )(x x )(x x )

( ( ))
+ ,(x x )(x x )+(x x )(x x )+(x x )(x x )- (4.16)

Et
( ( )) ( ( ))
E (x )= (x x )(x x )=2 h (4.17)

( ( )) ( ( ))
E (x ) = (x x )(x x )= - h (4.18)

( ( )) ( ( ))
E (x ) = (x x )(x x )= 2 h (4.19)

 Avec ( ) on produit une formule de différences finies avant : on


calcule la dérivée en x avec les valeurs en x et x .
 Avec ( ) on produit une formule de différences finies centrée : on
calcule la dérivée en x avec les valeurs en x et x .
 Avec ( ) on produit une formule de différences finies arrière : on
calcule la dérivée en x avec les valeurs en x et x .
 produit trois formules différentes dont l’erreur est légèrement
meilleure (facteur 2) dans le cas centré.

On obtient trois formules aux différences :


( ) ( ) ( )
f (x )= + E (x ) (4.20)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


60

( ) ( )
f (x )= + E (x ) (4.21)

( ) ( ) ( )
f (x )= + E (x ) (4.22)

Pour les différences d’ordre 2, l’erreur varie asymptotiquement


comme h2alors que pour les différences d’ordre un, elle varie comme h.
Pour une fonction f suffisamment lisse et pour un petit pas h donné, la
différence d’ordre 2 donnera généralement une erreur plus petite.

f(x2)

Différence centrée
Différence arrière
f(x1)

f(x0) Différence avant

x0 x1 x2

On peut aussi convenir de toujours évaluer la dérivée en x. Dans


ce cas, on utilise les valeurs de f(x+h) et de f(x+2h) pour la différence
avant et les valeurs f(x+h) et f(x-h) pour la différence centrée. En ce qui
concerne le terme d’erreur, on ne retient que son ordre.

Nous résumons la situation dans les tableaux ci-dessous.

Tableau 1 : Formules de différences finies d’ordre 1

f(x + h) f(x)
f (x) = + O(h)
h
Différence avant d’ordre 1

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


61

f(x) f(x h)
f (x) = + O(h)
h
Différence arrière d’ordre 1

(4.23)

Tableau 2 : Formules de différences finies d’ordre

f(x + 2h) + 4f(x + h) 3f(x)


f (x) = + O(h)
2h
Différence avant d’ordre 2

f(x + h) f(x h)
f (x) = + O(h )
2h
Différence centrée d’ordre 2

3f(x) 4f(xh) + 3f(x 2h)


f (x) = + O(h )
2h
Différence arrière d’ordre 2

(4.24)

Exemple 1 : On donne la fonction f tabulée ci-dessous :

x f(x)

1,8 1,5877867
1,9 1,6418539
2,0 1,6931472
2,1 1,7419373
2,2 1,7884574

Utiliser les formules de différences finies pour obtenir une


approximation de f (2,0) d’ordre 2 pour la fonction f en prenant d’abord
h = 0,2, et ensuite h = 0,1.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


62

Solution :

Pour h = 0,2 ; x = 2,0 ; on a :

 Différence avant d’ordre :

f(2,0 + 2(0,2)) + 4f(2,0 + 0,2) 3f(2,0)


f (2,0) =
2(0,2)
( , ) ( , ) ( , )
=
,

f(2,4) n’étant pas défini, on ne peut pas calculer f (2,0).


 Différence centrée :
f(2,0 + 0,2) f(2,0 0,2)
f (2,0) =
2(0,2)
( , ) ( , )
=
,

, ,
= = 0,50167675
,

 Différence arrière :
3f(2,0) 4f(2,0 0,2) + 3f(2,0 2(0,2))
f (2,0) =
2(0,2)
( , ) ( , , ) ( , ( , ))
=
( , )

( , ) ( , ) ( , )
=
,

Comme f(1,6) n’est pas défini, on ne peut pas calculer f (2,0).

Exemple 2 : L’estimation de la dérivée de f(x) = en x = 2 par différentes


méthodes donne les résultats ci-dessous. On constate que pour h assez
petit, réduire le pas d’un facteur 10 revient { diminuer l’erreur d’un
facteur 10 pour la méthode d’ordre 1 et d’un facteur 100 pour la
méthode d’ordre 2. En revanche, pour des grands pas h, la méthode

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


63

d’ordre 1 est plus proche de la réalité. La différence centrée d’ordre 2 est


donc plus intéressante, à condition que le pas soit suffisamment petit, et
pour autant que la fonction f à dériver soit suffisamment continue.
Pas Différence centrée d’ordre 2 Différence avant d’ordre 1
H f (x = 2) | | f (x = 2) | |

1,50000000 -0,57142857 0,32142857 -0,14285714 0,10714286


1,00000000 -0,33333333 0,08333333 -0,16666667 0,08333333
0,10000000 -0,25062657 0,00062657 -0,23809524 0,01190476
0,01000000 -0,25000625 0,00000625 -0,24875622 0,00124378
0,00100000 -0,25000006 0,00000006 -0,24987506 0,00012494
0,00010000 -0,25000000 0,00000000 -0,24998750 0,00001250
0,00001000 -0,25000000 0,00000000 -0,24999875 0,00000125

4.2.4. Dérivées d’ordre supérieur


L’évaluation des dérivées d’ordre supérieur se fait de la même
manière que pour celles d’ordre 1, la principale difficulté étant celle qui
provient de l’analyse de l’erreur.

Considérons de nouveau le polynôme de degré 2 :


p (x) =f(x ) + f,x , x -(x x ) + f,x , x , x -(x x )(x x ).

On a :
( ) ( ) ( )
p (x) = f,x , x , x - = (4.25)

qui constitue une approximation de la dérivée seconde ( ) partant de


l’intervalle ,x , x -.Il reste { en déterminer l’ordre. Celui-ci dépend du
polynôme retenu pour l’interpolation.

Nous utilisons, pour ce faire, une approche basée sur le


développement de Taylor.
Premier cas : Approximation de f (x ).

L’équation (4.25) peut s’écrire :


f(x + 2h) 2f(x + h) + f(x )
p (x ) =
h

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


64

On a :
( ) ( )
f(x + 2h)= f(x )+f (x )(2h) + (2h) + (2h) + …

et
( ) ( ) ( )
f(x + h) = f(x ) +f (x )(h) + h + h + h + …

On a alors :
( ) ( ) ( ) ( ) ( ) ( )
=

= f (x ) + f (x )h + O(h )

= f (x )+O(h). (4.26)

Cette différence avant est donc une approximation d’ordre 1 de la


dérivée seconde f (x ).

Deuxième cas : Approximation de f (x ).

L’équation (4.25) peut s’écrire :

(x + ) 2 ( )+ ( )
( )=

qui est une différence centrée. Comme ci-haut on a :


( ) ( ) ( )
f(x + h) = f(x ) +f (x )(h) + h + h + h + …

et
( ) ( ) ( )
f(x h) = f(x ) - f (x )(h) + h h + h + …

D’où
( )
( ) ( ) ( ) ( ) ( )
=

( )
= f (x ) + + O(h )

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


65

= f (x ) + O(h ). (4.27)

On obtient une approximation d’ordre 2 de la dérivée f (x ).

Troisième cas : Approximation de ( ).

L’équation (4.25) peut s’écrire :

( ) ( ) ( )
( )= .

On a :
( ) ( ) ( )
f(x h) = f(x ) - f (x )(h) + h h + h + …

( ) ( )
f(x 2h) = f(x ) – f (x )(2h) + (2h) (2h) +
( )
(2h) + …

D’où :
( ) ( ) ( )
= f (x ) - f (x )h + f (x )h4
= f (x ) + O(h). (4.28)

qui est une approximation d’ordre 1 de la dérivée seconde f (x ).

On peut également évaluer les dérivées secondes de f { l’aide des


formules de différences reprises dans le tableau suivant :

( ) ( ) ( )
f (x)= + O(h)
Différence avant d’ordre 1
( ) ( ) ( )
f (x)= + O(h )
Différence centrée d’ordre 2
( ) ( ) ( )
f (x)= + O(h)
Différence arrière d’ordre 1
(4.29)

On peut produire d’autres formules avec de meilleur ordre


d’approximation en prenant des polynômes de degré plus grand. Il s’agit

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


66

ensuite de produire de bons développements de Taylor pour obtenir une


approximation de l’erreur et l’ordre de la formule.
Mentionnons l’utilisation d’un polynôme de degré 4 p4produisant des
approximations de grand ordre pour les dérivées première et deuxième :
p (x) = f(x ) + f,x , x -(x x ) + f,x , x , x -(x x )(x x )

+f,x , x , x , x -(x x )(x x )(x x )

+ f,x , x , x , x , x -(x x )(x x )(x x )(x x ) (4.30)

Pour la dérivée 4ième on a :


( ) = 24 f, , , , , -(4.30)

En évaluant aux différents points on obtient 5 formules. Par


exemple avec x on a la formule centrée d’ordre 2 :

( ) ( ) ( ) ( ) ( )
( )= + O(h2) (4.31)

Et pour la dérivée seconde on a une formule de différence


centrée d’ordre 4 :

( ) ( ) ( ) ( ) ( )
( )= + O(h4) (4.32)

4.2.5. Instabilité numérique de la différentiation


Toutes les formules de différences finies dépendent d’un
paramètre h qui est la distance entre les points d’interpolation. On
pourrait penser que la précision du résultat augmente à mesure que
diminue la valeur de h. Dans le cas de la différentiation numérique, il y
une limite aux valeurs de h qui peuvent être utilisées.

En effet, si l’on prend par exemple une différence centrée pour


estimer la dérivée première :
( ) ( )
( ) .

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


67

On remarque que lorsque h tend vers 0, le numérateur contient la


soustraction de deux termes très proches l’un de l’autre. Malgré le fait
que théoriquement p (x)tend vers f (x)quand h tend vers 0, le passage à
la limite est presque impossible d’un point de vue numérique. La
dérivation numérique est instable.

Exemple :

Le tableau suivant présente les résultats avec une mantisse de 7 chiffres


décimaux des dérivées première et deuxième de la fonction f(x) = ex en x
= 0.

( + ) ( ) ( + ) ( )+ ( )
( ) ( )
h

1 1,175201178 1,086161137
0,1 1,001667619 1,000839472
0,001 1,000016928 1,000165939
0,0001 1,000017047 1,013279080
0,00001 1,000166059 0,000000000
0,000001 1,001358151 0,000000000
0,0000001 0,983476758 -59604,6601

On constate dans ce tableau que, lorsque h diminue, la précision


liée aux dérivées augmente dans un premier temps, puis se dégrade
brusquement pour les valeurs de h plus faibles. La dérivation est donc un
procédé numériquement instable.

On est là devant un dilemme. On voudrait augmenter la précision


de la dérivation cependant :

 Diminuer h est dangereux (instabilité numérique) ;


 Augmenter n est tout aussi dangereux (oscillation du
polynôme).

Comment augmenter la précision sans diminuer h et sans augmenter n ?

4.2.6. Extrapolation de Richardson


Pour répondre à la question posée ci-haut, nous utilisons la
méthode d’extrapolation de Richardson. Cette méthode est une
technique valable aussi bien pour la différentiation et l’intégration

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


68

numériques que pour la résolution numérique des équations


différentielles. Elle permet d’augmenter la précision d’une méthode
d’approximation par une technique d’extrapolation.

Décrivons-la.

Notons Qapp(h) une approximation numérique d’une certaine


quantité exacte Qexa inconnue. Qapp(h) dépend d’un paramètre h
généralement. Plus h est petit, plus l’approximation est précise.

Supposons de plus que cette approximation est d’ordre n, c’est-à-


dire

Qexa= Qapp(h) + O(hn) (4.33)

ou

Qexa= Qapp(h) + cnhn + cn+1hn+1+cn+2hn+2 + … (4.34),

les constantes ci dépendent de la méthode numérique utilisée.

L’objectif de cette technique est d’obtenir, { partir de


l’approximation (4.34) d’ordre n, une nouvelle approximation d’ordre
n+1.

Remplaçons h par h/2 dans l’égalité (4.34). On a:

Qexa=Qapp( )+cn. / + cn+1 . / +cn+2. / … (4.35)

L’approximation Qapp( ) est en général plus précise que Qapp(h).

Combinons à présent les relations (4.34) et (4.35) de manière à ce


que le terme d’ordre n disparaisse. Pour ce faire, multiplions les deux
membres de (4.35) par 2n :
2nQexa= 2nQapp( ) +2ncn. / +2ncn+1. / +2ncn+2+. / + …(4.36)

Soustrayons (4.35) de (4.36), on obtient :

(2n -1) Qexa = 2nQapp( ) -Qapp(h) - cn+1hn+1- cn+2hn+2 + …


Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
69

D’où :

. / ( )
Qexa= + (4.37)

ou simplement

. / ( )
Qexa= + O(h ) (4.38)

L’expression de droite de (4.38) est donc une approximation


d’ordre au moins n+1 de Qexa. La méthode de Richardson permet donc de
gagner au moins un ordre de convergence.

Exemple : Soit f(x) = ex. Pour calculer la dérivée de f en x = 0, on peut


utiliser la différence avant d’ordre 1 avec h = 0,1.
( ) ( ) ,
f (0) = = 1,05170918 = Qapp(h)
,

Pour h = 0,05
( ) ( ) ,
f (0) = = 1,0254219 = Qapp( ).
,

A l’aide de la méthode de Richardson on a :

. / ( )
f (0) =2(1,0254219)-(1,05170918)
= 0,99913462.
Cette approximation d’ordre 2 est plus précise que les deux
autres. Rappelons que la valeur exacte de f (0) vaut 1.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


70

Chapitre V. INTEGRATION NUMERIQUE


5.1. INTRODUCTION
Le problème de l’intégration numérique (ou quadrature) peut se
présenter de deux façons différentes :

Problème 1 : Une fonction f est connue en un nombre fini de points de


collocation (x , f(x )) (i = 0,1,…,n) (qui sont équirépartis
ou non). Comment faire pour estimer la valeur de
l’intégrale I(f) = ∫ f(x)dx, alors que l’expression
analytique de f n’est pas connue ?

Problème 2 : On cherche la valeur de l’intégrale définie ∫ f(x)dx lorsque


l’expression analytique de l’intégrande f(x) est connue, mais
non sa primitive ; par exemple∫ e dx.
Ces deux problèmes, pourtant différents, peuvent être résolus
avec les mêmes outils. Comme au chapitre précédent, nous interpolons la
fonction f puis nous intégrons explicitement ce polynôme. C’est-à-dire
que l’intégration numérique est basée essentiellement sur la relation :

∫ f(x)dx = ∫ p (x)dx + ∫ E (x)dx (5.1),

où p (x) est un interpolant de f(x) et E (x), l’erreur qui y est associée.

Les méthodes d’intégration numérique que nous décrivons


consistent toutes à remplacer I(f) par une expression le plus souvent de
la forme :
∑ A f(x ) (5.2),

où les xi sont des points distincts de l’intervalle ,a, b-, appelés points
d’intégration et Ai, des coefficients réels appelés poids d’intégration, le
tout choisi pour que la différence

E = ∫ f(x)dx - ∑ A f(x ) (5.3)

soit petite.

Deux types d’approches sont { retenir :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


71

- Méthodes composites (ou composées) : On divise l’intervalle ,a, b- en


intervalles partiels ,x , x - avec a = xo < x1 … xn = b. Sur chaque
intervalle partiel ,x , x - on remplace f(x) par un polynôme
d’interpolation pi,k de degré k et on remplace
∫ f(x)dx par∫ p , (x)dx ; ainsi, sur chaque intervalle ,x , x -, on
applique une méthode d’intégration élémentaire.

- Méthodes de Gauss : elles s’appliquent pour des intervalles [a, b] et


des Ai particuliers : on approche f sur [a, b] par un polynôme
d’interpolation aux points de ,a, b- obtenus { partir des zéros de
polynômes orthogonaux associés aux poids Ai sur [a, b]. Cette méthode
peut être appliquée directement sur [a, b], ou, si b - a est grand, sur des
intervalles partiels d’une décomposition.

5.2. METHODES COMPOSITES


5.2.1. Principe

On cherche à calculer∫ f(x)dx. On décompose l’intervalle [a, b]


en a = xo< x1 … xn = b. On a alors
∫ f(x)dx = ∑ ∫ f(x)dx (5.4)
Sur chaque,x , x -, on applique une méthode d’intégration élémentaire
consistant { remplacer f(x) par son polynôme d’interpolation de Newton
pi,k = f(xo) + f[xo, x1](x-xo) + …+ f,xo, x1,…,xk](x-xo). . . (x-xk) (5.5)
aux points xo, x1, …, xn de l’intervalle ,a, b-.

5.2.2. Méthodes des rectangles


On approche la fonction f par une constante f(ci) où ci∊,x , x -.
D’où la formule de quadrature élémentaire

∫ f(x)dx≃hif(ci), hi = xi – xi-1 (5.6)

Et la formule de quadrature composite

∫ f(x)dx≃∑ h f(c ) (5.7)

On reconnaît l{ une somme de Riemann dont on sait qu’elle converge


vers ∫ f(x)dx quand max h tend vers 0 si f est Riemann-intégrable.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


72

Les choix courants de ci sont :


1. Méthode des rectangles à gauche : ci = xi-1

On obtient : ∫ f(x)dx≃∑ h f(x ) (5.8)

2. Méthode des rectangles à droite : ci = xi


On obtient : ∫ f(x)dx≃∑ h f(x ) (5.9)
3. Méthode du point-milieu : ci = ( := )
On obtient : ∫ f(x)dx≃∑ h f(x ) (5.10)

xi-1 xi

Fig.1 : Méthode des rectangles à gauche, à droite et du point-milieu.

La figure 5.1 suggère que la formule du point-milieu doit fournir la


meilleure approximation des trois en général.

5.2.3. Méthode des trapèzes


5.2.3.1. Méthode du trapèze simple

On remplace f par son interpolant linéaire aux points xi-1 et xi,


soit :

pi(x) = f(x ) + f,x , x -(x x )

∫ f(x)dx≃∫ *f ( ) + f,x , x -(x x )+dx

= [f(xi-1) + f(xi)]

D’où :∫ f(x)dx≃∑ f(x ) + ,h f(x ) + h f(x )- (5.11)

et dans le cas d’une subdivision régulière (hi = h, pour tout i = 1, …, n)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


73

∫ f(x)dx≃ 0∑ f(x ) + ,f(x ) + f(x )-1 (5.12)

La méthode du trapèze se résume donc { l’égalité :


( )
∫ f(x)dx = ,f(x ) + f(x )-- , (5.13)

pour ,x , x -.

C’est une méthode dont le degré de précision est 1 (on intègre


exactement les droites puisque l’erreur dépend de f ). Le fait d’avoir un
ordre élevé (O(h3)) ne garantit pas une grande précision, mais plutôt
une convergence rapide vers la valeur exacte quand h tend vers zéro.
Exemple : Evaluer numériquement l’intégrale∫ sinx dx dont la valeur
exacte est 1.

Solution :

La méthode du trapèze donne dans ce cas :

∫ sinx dx .sin0 + sin / = = 0,785398164

qui est une piètre approximation de la valeur exacte 1.

Remarque

Bien que d’ordre 3, la méthode du trapèze est rarement utilisée, car trop
imprécise.

5.2.3.2. Formule du trapèze composée

Pour éviter la mauvaise qualité de l’approximation par la méthode du


trapèze simple, la meilleure approche est de subdiviser l’intervalle
d’intégration, ,a,b-, en n intervalles partiels de longueur :
h= (5.14)

Les différents points engendrés sont notés xi pour i = 0,1,…,n, tels que :

xi = xo + ih (5.15)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


74

Les valeurs aux extrémités sont a = xo et b = xn. Dans chaque


intervalle partiel ,x , x -, on peut utiliser la méthode du trapèze. On a
alors :

∫ f(x)dx = ∑ ∫ f(x)dx ∑ ,f(x ) + f(x )-

h
= (,f(x ) + f(x ) + ,f(x ) + f(x )- +
2
+,f(x ) + f(x )- + ,f(x ) + f(x )-

On constate que tous les termes f(xi) sont répétées deux fois,
sauf le premier et le dernier.

On en conclut que :

∫ f(x)dx ,f(x ) + 2f(x ) + 2f(x ) + + 2f(x ) + f(x )- (5.16)

C’est la formule du trapèze composée.

Et pour l’erreur ? On doit faire la somme des erreurs sur chaque


intervalle partiel.

Puisque : h = et donc n =

l’erreur totale commise est :


( ) ( )
n(- ) = -. /( ) = -. /f ( ) , (5.17)

avec , , -.

La méthode des trapèzes composée est d’ordre 2, de degré de précision


1.

Exemple : Evaluer numériquement l’intégrale :

I =∫ sinx dx,

mais cette fois { l’aide de la méthode des trapèzes composée.

Solution : Soit d’abord 4 intervalles de longueur : h = = .


Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
75

On a alors :

I 0sin0 + 2 .sin + sin + sin / + sin 1

= 0,9871158,

soit une erreur absolue d’environ 0,01288. On constate une nette


amélioration en comparaison du résultat obtenu avec un seul intervalle.

Si l’on passe { 8 intervalles on a :

I 0sin0 + 2 .sin + sin + sin + sin + sin + sin +


sin / + sin 1 = 0,9967852.

L’erreur absolue a été réduite { 0,0032. Cette erreur absolue est


environ 4 fois plus petite que l’erreur obtenue avec 4 intervalles, ce qui
confirme que cette méthode est d’ordre 2. On peut de plus utiliser
l’extrapolation de Richardson pour améliorer la précision de ces deux
résultats. Avec n = 2, on obtient l’approximation d’ordre au moins 3
suivante :
( , ) ( , )
∫ sinx dx = 1,00000833

qui s’approche de plus en plus de la valeur exacte.

5.2.4. Formules de Simpson

5.2.4.1. Formule de Simpson 1/3 simple

Reprenons le raisonnement avec un polynôme de degré 2 passant


par trois points :(x , f(x )) (x , f(x )) (x , f(x )).

Posons : a = x , x = , x = b, h = ; on obtient :

f(x) = p2(x) + E2(x)

= f(x ) + f,x , x -(x x ) + f,x , x , x -(x x )(x x ) +E2(x)

et donc la formule de Newton-Cotes à 3 points est :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


76

∫ f(x)dx ∫ *f(x ) + f,x , x -(x x ) + f,x , x , x -(x x )(x x )+dx.

On se place de nouveau dans le cas où les abscisses sont


équiréparties. On pose encore = s, ce qui entraine que (x-xi) = (s-
i)h.

La dernière expression devient

∫*f(x ) + f,x , x -hs + f,x , x , x -h s(s 1)+ds

= (f(xo)+4f(x1)+f(x2)),

où l’on a remplacé les différences divisées par leurs valeurs respectives :

( ) ( ) ( ) ( ) ( )
f,x , x -= et f,x , x , x - = .
En résumé, on a :

∫ f(x)dx (f(x ) + 4f(x ) + f(x )) (5.18)

qui est la formule de Simpson 1/3 simple. Cette terminologie est due au
facteur 1/3 qui multiplie h.

Et pour l’erreur ? L’analyse de l’erreur est plus délicate dans ce cas.


Comme précédemment on devrait s’attendre { ce que l’erreur soit
donnée par :

∫ E (x)dx.

On peut pousser plus loin l’analyse de l’erreur en introduisant un


quatrième point(x , f(x )) quelconque et le polynôme de degré 3
correspondant :
( ) ( )
p3(x) = p2(x) + ( (x x )(x x )(x x ) (5.19)
)( )( )
qui n’est rien d’autre que le polynôme de degré 2 déj{ utilisé auquel on
ajoute une correction de degré 3 permettant au polynôme de passer
également par le point (x , f(x )). Or :
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
77

∫ (x x ) (x x )(x x )dx = ∫ s(s 1)(s 2)h ds= 0.

Il s’en suit que :

∫ p (x)dx = ∫ p (x)dx
En utilisant un polynôme de degré 2, on obtient en fait la même précision
qu’avec un polynôme de degré 3. Le terme d’erreur est donc de ce fait :
( ( ))
∫ E (x)dx = ∫ (x x )(x x )(x x )(x x )dx.

Comme la fonction x →(x x )(x x )(x x )(x x ) peut changer de


signe dans l’intervalle ,x , x -, il n’est pas indiqué d’appliquer le
théorème de la moyenne à ce stade-ci. Le terme d’erreur devient alors :
( ( ))
∫ E (x)dx = ∫ (x x )(x x )(x x )(x x )dx

( )
=∫ (s((s 1) )(s 2)h )ds,

comme le choix de x3 est arbitraire, on peut poser x3 = x1.

On constate que la fonction s → s((s 1) )(s 2)garde un signe


constant dans l’intervalle ,0,1-.

On peut maintenant utiliser le théorème de la moyenne pour


obtenir :
( ) ( )
∫ E (x)dx = h ∫ s(s 1) (s 2)ds = h

La méthode de Simpson 1/3 simple se résume donc à :


( )
∫ f(x)dx (f(x ) + 4f(x ) + f(x )) h (5.20)

où , , -.

Remarque

La méthode de Simpson 1/3 simple est d’ordre 5 et de degré de précision


2. Tous comme la méthode du trapèze simple, elle est peu précise.
Exemple : Evaluer numériquement l’intégrale :
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
78

I = ∫ sinx dx

{ l’aide de la méthode de Simpson 1/3 simple.

On a :∫ sinx dx . 0+4 + / = 1,0022799.

Le résultat obtenu est plus précis que celui obtenu par la méthode du
trapèze, mais il demeure peu satisfaisant.

5.2.4.2. Formule de Simpson 1/3 composée

On peut aussi améliorer la précision de la formule de Simpson


1/3 simple en la composant. Puisque la méthode simple requiert deux
intervalles, il semble souhaitable de subdiviser l’intervalle ,a,b- en 2n
intervalles partiels et d’utiliser la méthode de Simpson 1/3 simple dans
chaque paire d’intervalles partiels.

x0=a x1 x2 x2n-4 x2n-2 x2n-1 x2n=b

On a alors :

∫ f(x)dx=∑ ∫ f(x) dx ∑ ,f(x ) + 4f(x ) + f(x )-

(f(x ) + 4f(x ) + f(x )) + (f(x ) + 4f(x ) + f(x )) +


= [ +(f(x ) + 4f(x ) + f(x )) ]
+(f(x ) + 4f(x ) + f(x ))

f(x ) + 4f(x ) + 2f(x ) + 4f(x ) + 2f(x ) +


∫ f(x)dx [ ] (5.21)
+4f(x ) + 2f(x ) + 4f(x ) + f(x )

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


79

Tous les termes de rang impair sont multipliés par 4 tandis que ceux de
rang pair sont multipliés par 2, sauf le premier et le dernier.

L’analyse de l’erreur pour cette méthode est analogue { celle qui


s’applique { la méthode des trapèzes composée. En subdivisant [a,b] en
2n intervalles partiels, on utilise n fois la méthode de Simpson la
méthode de Simpson 1/3 simple et l’on commet donc n fois l’erreur liée {
cette méthode. On a alors :
h= et donc n =

et l’erreur totale est :


( ) ( )
n. /= . /= ( )h 4 .

Le terme d’erreur de la méthode de Simpson 1/3 composée est :

( )h4, pour ,a, b-, (5.22)

ce qui en fait une méthode d’ordre 4. De plus, en raison de la présence de


la dérivée quatrième de f(x), cette méthode est exacte dans le cas des
polynômes de degré 3. Le degré de précision de cette méthode est donc
3.

Exemple 1 : Evaluer numériquement l’intégrale :

I = ∫ sinx dx

{ l’aide de la méthode de Simpson 1/3 composée.

Solution : On subdivise l’intervalle 00, 1 en 4 intervalles partiels de


longueur . On a alors :

3
∫ sinx dx (sin0 + 4sin + 2sin + 4sin + sin )
3 8 4 8 2

=1,0001346.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


80

Pour une quantité de travail similaire, on obtient une précision


supérieure à celle de la méthode du trapèze. Avec 8 intervalles partiels
de longueur , on a :

sin0 + 4sin + 2sin + 4sin + 2sin


∫ sinx dx ( )= 1,000008296.
+4sin + 2sin + 4sin + sin

Cette plus grande précision provient du fait que cette méthode est
d’ordre 4. En passant de 4 { 8 intervalles (i.e. en divisant h par 2) on
remarque que l’erreur est divisée par un facteur d’environ 16,22. On
peut aussi utiliser l’extrapolation de Richardson avec n = 4 :
( , ) ,
= 0,999999876

qui est d’ordre au moins 5.

Exemple 2 : Evaluer numériquement l’intégrale :

∫ e dx

{ l’aide de la méthode de Simpson 1/3 composée avec 8 intervalles de


longueur 1/8.

Solution : Comme nous ne savons pas déterminer la primitive de la


fonction f : x → e , il faut absolument utiliser une méthode numérique.
Dans ce cas :

, , , , , , ,
∫ e dx (e + 4e + 2e + 4e + 2e + 4e + 2e + 4e +e )
3

= 0,7468261205.

On peut continuer ainsi à produire des formules de Newton-Cotes


simples et composées en utilisant des polynômes de degré de plus en
plus élevé.

Il faut noter que ces formules demanderont de plus en plus d’évaluations


en l’intégrant.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


81

5.2.4.3. Formule de Simpson 3/8 simple

On peut aussi déterminer la formule à 4 points qui est aussi exacte


pour les polynômes de degré 3

x0=a x1 x2 x3 x2n-4 x2n-2x2n-1x2n=b

Fig. 2 : Méthode de Simpson 3/8 composite

∫ f(x)dx (f(x ) + 3f(x ) + 3f(x ) + f(x )), (5.23)

( )
Erreur = - h , ,x , x -.

On a le même ordre et le même degré de précision que pour Simpson


1/3 C’est pourquoi on l’utilise rarement

5.2.4.4. Formule de Simpson 3/8 composée

On peut également composer la méthode précédente en subdivisant


l’intervalle d’intégration ,a, b- en 3n intervalles partiels de longueur h =
et en utilisant la formule (5.25) dans chaque triplet d’intervalles
partiels. On obtient alors :

∫ f(x)dx = ∑ ∫ f(x)dx

∑ (f(x ) + 3f(x ) + 3f(x ) + f(x )) (5.24)

et le terme d’erreur est :


Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
82

( ) ( ) ( ) ( ) ( )
n. h /= h = h (5.25)

où ,x , x -.

La méthode de Simpson 3/8 composée a le même ordre de


convergence (4) et le même degré de précision (3) que la méthode de
Simpson 1/3 composée. Pour cette raison, on lui préfère souvent la
méthode de Simpson 1/3.

5.2.5. Formule de Boole

La méthode de Boole consiste à remplacer la fonction par un


polynôme de degré 4 sur un intervalle ,x , x -. On obtient alors :
∫ f(x)dx
(7f(x ) + 32f(x ) + 12f(x ) + 32f(x ) +
7f(x )) (5.26)

et le terme d’erreur est :


( )
Erreur = - h , ,x , x -. (5.27)

On compose cette méthode en divisant cette fois l’intervalle d’intégration


en 4n intervalles partiels de longueur : h =

Et en utilisant la formule de Boole dans chaque quadruplet d’intervalles


partiels. On obtient alors :

∫ f(x)dx = ∑ ∫ f(x)dx ∑ (7f(x ) + 32f(x )+


12f(x )+
32f(x ) + 7f(x )) (5.28)

et le terme d’erreur est :


( ) ( ) ( ) ( ) ( )
Erreur = n. h /= h = h (5.29)

En ce qui concerne l’erreur, il se produit un phénomène déj{


observé avec la formule de Simpson 1/3 en ce sens que la formule de

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


83

Boole conduit { une approximation d’ordre 6 au lieu de 5. La méthode de


Boole a de plus un degré de précision de 5, car elle est exacte pour tous
les polynômes de degré inférieur ou égal à 5.

5.2.6. Méthode de Romberg

La méthode de Romberg est basée sur une utilisation très


astucieuse de la méthode des trapèzes composée et de la technique
d’extrapolation de Richardson.
Notons T , le résultat obtenu { l’aide de la méthode des
trapèzes composée avec 2 intervalles. Les T , sont des approximations
d’ordre 2. Pour passer de T , à T , on doit doubler le nombre
d’intervalles partiels, ce qui revient à diviser la valeur de h par 2. Au
moyen de l’extrapolation de Richardson avec n = 2, on définit alors :
, ,
T, = (5.30)

Et les T , sont des approximations d’ordre 4. On pose successivement :

, ,
T, =

, ,
T, = (5.31)

, ,
T, =

Ce qui définit un triangle de la forme :

T , T , T , T , T , T , (0rdre 2)

T , T , T , T , T , (Ordre 4)

T , T , T , T , (Ordre 6)

T , T , T , (Ordre 8)

T , T , (Ordre 10)

T , (Ordre 12)
(5.32)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


84

La première ligne du tableau est constituée des approximations


obtenues { l’aide de la méthode des trapèzes composée avec 1, 2, 4,
8,16,… intervalles. Pour passer d’une ligne { l’autre, on utilise
l’extrapolation de Richardson par le biais des relations (5.30) et (5.31).
Remarque

On peut montrer que la deuxième ligne de ce tableau n’est autre que le


résultat de la méthode de Simpson 1/3 avec respectivement 2, 4, 8, …
intervalles. On pourrait donc éliminer la première ligne et commencer
directement avec la méthode de Simpson.
Exemple : Evaluer numériquement l’intégrale :I =∫ sinx dxpar la
méthode de Romberg.

Solution : On a déjà obtenu plus loin les valeurs T , = 0,7853982, T , =


0,9871158 et T , = 0,9967852 correspondant à la formule des trapèzes
composée avec respectivement 1, 4 et 8 intervalles pour évaluer I. On a :

T , = .sin0 + 2sin + sin / = 0,9480594.

On peut ensuite effectuer les différentes extrapolations de


Richardson :

0,7853982 0,9480594 0,9871158 0,9967852 (Ordre 2)

1,0022799 1,0001346 1,0000083 (Ordre 4)

0,9999916 0,9999999 (Ordre 6)

1,0000000 (Ordre 8)

La première ligne du tableau étant d’ordre 2, la deuxième ligne est


donnée par :

2 (0,9480594) (0,7853982)
= 1,0022799
2 1
2 (0,9871158) (0,9480594)
= 1,0001346
2 1
2 (0,9967852) (0,9871158)
= 1,0000083
2 1
qui sont toutes des approximations d’ordre 4.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


85

5.3. METHODES GAUSSIENNES (QUADRATURES DE GAUSS)


5.3.1. Introduction

Les méthodes gaussiennes se basent sur un raisonnement


différent de celui utilisé pour les méthodes de Newton-Cotes. Ces
dernières permettent d’atteindre une grande précision avec relativement
beaucoup d’évaluations de f(x) en des points xi de l’intervalle
d’intégration ; ce qui est coûteux en temps de calcul.

Par les méthodes gaussiennes, on cherche à optimiser les schémas


d’intégration numérique en choisissant plus judicieusement les points où
est évaluée la fonction f(x). Par exemple, la méthode du trapèze simple
requiert l’évaluation de f(x) aux deux extrémités de l’intervalle sous la
forme :
b a
∫ f(x)dx ,f(a) + f(b)-
2

Est-il possible de trouver deux points situés dans l’intervalle


d’intégration ainsi que des coefficients appropriés tels que l’expression :

∫ f(x)dx f(t ) + f(t )

ait un degré de précision supérieur à celui de la méthode du trapèze ?


Notons que si

= = , x1 = a et x2 = b (5.33)

On retrouve la formule du trapèze. Ce choix est-il optimal ?

Pour répondre à cette question, nous allons dans un premier


temps nous restreindre { l’intervalle , 1,1-, où nous ferons tout le
développement. Pour un intervalle quelconque, il suffira d’effectuer le
changement de variable :
( ) ( )
x= et dx = dt, (5.34)

qui envoie l’intervalle , 1,1- sur un intervalle quelconque,a, b-. En effet,


le changement de variable (3.38) permet d’écrire :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


86

(b a)t + (a + b) (b a) (b a)
∫ f(x)dx = ∫ 4 5 dt = ∫ g(t)dt
2 2 2
( ) ( )
où : g(t) = f. /.

Il est donc toujours possible de revenir { l’intervalle , 1,1-.


De manière générale, on cherche des expressions de la forme :

∫ g(t)dt ∑ g(t ) (5.35)

dont le degré de précision soit le plus élevé possible.

Définition 5.3
L’expression (5.40) est quadrature de Gauss { n points. Les ti sont
appelés points d’intégration, tandis que les coefficients sont les poids
d’intégration.
On choisit les points et les poids d’intégration de façon { ce que la
quadrature (5.40) soit exacte dans le cas de degré le plus élevé possible.
De toute évidence, les points d’intégration ti doivent tous être distincts
les uns des autres et les poids d’intégration doivent être non nuls.
Puisque tout polynôme de degré m peut s’écrire :

pm(t) = ∑ c t

il suffit que la relation (5.40) soit exacte successivement pour les


monômes g(t) = t , pour k = 0, 1, …, m qui constituent une base de
l’espace des polynômes de degré m. On gagne alors { accroitre le plus
possible le degré m. Le degré maximal atteint dépend du nombre de
points d’intégration n. Puisqu’il y a 2n coefficients { déterminer dans
l’équation 5.40, il est raisonnable de penser que l’on peut atteindre le
degré m = (2n-1). La valeur de k varie donc entre 0 et 2n-1.

5.3.2. Quadrature à 1 point

Cherchons donc une expression de la forme :

∫ g(t)dt g(t ) (5.41)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


87

qui soit exacte dans le cas des polynômes de degré le plus élevé possible.
Commençons par les polynômes de degré 0. La formule (5.41) doit être
exacte pour g(t) = 1, ce qui donne une première équation :

∫ 1dt = 2 =

Et l’unique poids d’intégration est déj{ déterminé. L’équation (5.41) doit


de plus être exacte pour g(t) = t. On trouve donc :

∫ tdt = 0 = t1 = 2t1

ce qui entraine que t1 = 0. Ainsi, la quadrature de Gauss { 1 point s’écrit :

∫ g(t)dt 2g(0) (5.42)

et est exacte pour tout polynôme de degré 1.

Remarque

La quadrature de Gauss à 1 point a le même degré de


précision (1) que la méthode du trapèze, qui est une formule à 2 points.
La quadrature de Gauss à 1 point est également connue sous le nom de
formule du point milieu.

5.3.3. Quadrature de Gauss à 2 points

On doit maintenant déterminer les 4 coefficients inconnus de


l’expression :

∫ g(t)dt g(t )+ g(t ) (5.43).

On remarque immédiatement que t doit être différent de t et que les


deux doivent être non nuls. Sinon, on se retrouve avec une formule à 1
point. Il nous faut alors 4 équations qui proviendront de la relation
(5.43), où l’on choisit successivement g(t) = 1, g(t) = t, g(t) = t2 et g(t) =
t3. Les 4 équations résultantes sont :

∫ 1dt =2 = + (5.44)

∫ t dt = 0 = t + t (5.45)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


88

∫ t dt = = t + t (5.46)
∫ t dt = 0 = t + t (5.47)

et forment un système non linéaire qu’il est heureusement possible de


résoudre analytiquement. On multiplie l’équation (5.45) par t et l’on
soustrait du résultat l’équation (5.47) pour obtenir :
t (t t )=0

Pour que ce produit soit nul, il faut que l’un ou l’autre des facteurs
s’annule, c’est-à-dire :

 = 0.

Cette possibilité doit être écartée, car dans ce cas la formule de Gauss à 2
points (5.44) dégénère en une formule à 1 point.

 t2= 0.

De l’équation (5.45), on tire que = 0ou t1 = 0, ce qui conduit de


nouveau à une formule à 1 point.

t =t .

On en conclut que t1 = -t2, car le cas t1 = t2 conduit encore à une formule


à 1point.

Cette conclusion permet d’obtenir les poids d’intégration. En effet, en


vertu de l’équation (5.45) :

t1 ( - )=0

et puisque t1 ne peut être nul, = et la relation (5.44) entraine


que :

= = 1.

Enfin, selon l’équation (5.46), on a :

= t + t = t + ( t ) = 2t

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


89

ce qui entraine que t1 = -√ et t2=√ . La formule de Gauss à 2 points


s’écrit donc :

∫ g(t)dt g 4 √ 5+ g 4√ 5 (5.48)

et est exacte dans le cas des polynômes de degré inférieur ou égal à 3.

Remarque
Pour un même nombre de points d’intégration la quadrature de Gauss {
2 points a un degré de précision 3 par comparaison avec 1 pour la
méthode du trapèze. Pour un même effort de calcul, on a ainsi une plus
grande précision.

5.2.4. Quadratures de Gauss à n points


Sans entrer dans les détails, il est possible de déterminer des
quadratures de Gauss avec un grand nombre de points. Ces quadratures
sont particulièrement efficaces et sont utilisées, par exemple, dans la
méthode des éléments finis. On détermine les 2n coefficients et ti en
résolvant un système non linéaire de 2n équations que l’on obtient en
prenant g(t) = tk pour k = 0, 1, …, (2n-1)
On peut également démontrer que les points d’intégration de
Gauss sont les racines des polynômes de Legendre définis par Lo(x) =
1,L1(x) = x et par la formule de récurrence :
(n+1)Ln+1(x) = (2n+1)xLn(x) – nLn-1(x)

Il est alors facile de démontrer que L2(x) = (3x 1) dont les racines

sont √ .

En résumé, on a le résultat suivant.

Théorème 4.2

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


90

La quadrature de Gauss à n points (4.38) est exacte dans le cas des


polynômes de degré (2n-1). Le degré de précision de cette quadrature
est donc (2n-1) et le terme d’erreur est donné par :
( )
f( ) (ξ) où , 1,1- (5.49)
( )(( ))

Le tableau suivant résume les principales quadratures de Gauss :


Quadratures de Gauss
Nombre Points d’intégration Poids d’intégration Degré de
de points ti précision
1 0 2 1
2 -0,5773502629 1 3
+0,5773502629 1
3 -0,774596669 0,555555556 5
0,0 0,888888889
+0,774596669 0,555555556
4 -0,861136312 0,347854845 7
-0,339981044 0,652145155
+0,339981044 0,652145155
+0,861136312 0,347854845
5 -0,906179846 0,236926885 9
-0,538469310 0,478628670
0,0 0,568888889
+0,538469310 0,478628670
+0,906179846 0,236926885

Exemple 1 : Evaluer numériquement l’intégrale

I = ∫ (4x + 3x + 2)dx.

La valeur exacte de I est 4. On pose :


( ) ( )
x= = et dx = dt.

D’où : I = ∫ [4 . / + 3. / + 2]

La formule de Gauss { 1 point donne l’approximation :

I [4 . / + 3. / + 2] = 3,25

(Rappel : I g(0)).

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


91

La formule de Gauss à 2 points donne :

√ √ √ √
I [4 ( ) + 3( ) + 2 + 4( ) + 3( ) + 2]

√ √ √ √
= ( ) [4 ( )+3+2+( ) *( ) + 3+ + 2]

[ ]

√ √
= *( ) 45 2√ 5 + ( ) 45 + 2√ 5 + 4+

= ,4 + 4- = 4.

Exemple 2 : Evaluer numériquement l’intégrale

I =∫ sinx dx.

On pose : x = = (t + 1) ; dx = dt ; on a :

∫ sinx dx = ∫ sin 0 (t + 1)1

La quadrature de Gauss { 2 points donne l’approximation :

(t + 1) (t + 1)
∫ sinx dx 6sin 4 5 + sin 4 57
4 4

= (sin(0,331948322) + sin(1,238848005)

= 0,998472614.

La fonction ayant été évaluée seulement en deux points, le résultat


trouvé est d’une précision remarquable.

La formule à 3 points donne :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


92

(t + 1) (t + 1) (t + 1)
∫ sinx dx 6 sin 4 5+ sin 4 5+ sin 4 57
4 4 4 4

= ((0,555555556) sin(0,177031362)

+ (0,888888889) sin(0,785398164)

+ (0,555555556) sin(1,774596669))

= 1,0000081821.

La formule de Gauss à 3 points est donc plus précise que la méthode de


Simpson 1/3 simple, qui nécessite en outre l’évaluation de la fonction x
→ sin x en trois points. Pour obtenir une précision similaire avec la
méthode de Simpson 1/3, nous avons dû utiliser 8 intervalles et donc 9
évaluations de la fonction précitée.

Exemple 3 : Soit l’intégrale : ∫ dx dont la valeur exacte est 2. Parmi



les méthodes proposées, seules les quadratures de Gauss peuvent
s’appliquer, car f(x) = n’est pas définie en x = 0.

On pose : x = et dx = dt. On a :


∫ dx = ∫ = ∫
√ √ √

La formule de Gauss à 2 points donne :


∫ dx * + + = 1,65068013
√ √ √ / √√ /

La précision demeure insatisfaisante, mais il faut admettre qu’il s’agit


d’un problème difficile. Les quadratures de Gauss { 4 ou 5 points
amélioreraient encore la qualité des résultats.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


93

Chapitre VI. RESOLUTION NUMERIQUE DES EQUATIONS DIFFERENTIELLES

6.1. INTRODUCTION
On considère une fonction continue f : R x R → R.
Pour yo R donné, on cherche y : R → R
x y(x)
qui satisfait le problème suivant, appelé problème de Cauchy :

y (x) = f(x, y(x))si x 0


{ (6.1)
y( ) = y

où y (x)= .

Exemples :
- Un problème de Cauchy peut être linéaire, comme par exemple :

y (x) = 3y(x) 3x si x 0
{ (6.2)
y(0) = 1

pour lequel f(x,u) = 3u-3x et dont la solution est y(x) = e3x + x + .

- 0n peut avoir aussi des problèmes non linéaires, comme :

y (x) = √y(x) si x 0
8 (6.3)
y(0) = 0
avec f(x,u) = √ . Ce problème admet les trois solutions suivantes :

y(x) = 0, y(x) = √ , y(x) = √ .

- Le problème suivant :
( ) =1+ ( )si x 0
{ (6.4)
y(0) = 0

admet comme solution la fonction y(x) = tan(x) avec 0 , c’est-à-


dire une solution locale.
Théorème 6.1.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


94

Si f est continue sur R x R et s’il existe une constante L 0 telle que


|f(x, u) f(x, v)| L|u v|, u, v R x 0 (6.5)
alors le problème de Cauchy (6.1) admet une solution globale (i.e.
pour x 0) et elle est unique.
Dans l’exemple (6.2), |f(x, u) f(x, v)| = |(3u 3x) (3v 3x)|
= 3|u v|.
Donc la relation (6.5) est satisfaite pour L = 3.
6.2. PRINCIPE DES METHODES NUMERIQUES
Soit y(x) la solution de l’équation différentielle
y (x) = f(x, y(x))si x ,a, b-
{ (6.6)
y( ) = y

On cherche à calculer une approximation de la solution y(x) en un


certain nombre de points de l’intervalle ,a, b-. Le principe général
consiste { discrétiser l’intervalle ,a, b- en introduisant des points xo, x1,
…, xN de l’intervalle ,a, b-, appelé maillage de l’intervalle, avec a = xo et
xN= b.
Nous supposons que la suite des points est choisie de manière à ce que la
distance entre deux points consécutifs soit constante. On pose :

h= (6.7)

ce qui donne
xk = xo + kh (6.8)

avec k = 0,1,…,N. On veut pour n = 1,…, N, calculer une approximation de


y(xn) que l’on notera zn, { l’aide d’un procédé itératif.

L’idée la plus simple consiste dans un premier temps { écrire le


développement de Taylor de y(x) en x = xn : comme la solution est
dérivable par rapport à x au moins une fois, on peut écrire :

y(xn+1) = y(xn+ h) = y(xn) + y (x ) + y (ξ), ξ ,x , x -


= y(xn) + hf(xn,y(xn)) + O(h2) (6.9)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


95

On a supposé que h est constant et est égal à : h = , où Nest un entier


fixé. Si l’on suppose h suffisamment petit, on peut alors proposer le
schéma suivant :

yn+1 = yn + hf(xn,yn), 0 n N-1 (6.10)

Ce procédé itératif s’appelle schéma d’Euler simple.

Une autre solution consiste à pousser le développement de


Taylor { l’ordre 2. On y voit qu’il est nécessaire de calculer f (x) soit

(f(x, y(x)) = (x, y(x)) + f(x, y(x)) (x, y(x)) (6.11)

Enfin, ayant poussé le développement de Taylor jusqu’{ l’ordre


2, il est naturel de penser { le développer { l’ordre 3, 4, … Cependant, il
suffit de calculer ( ( , ( )) pour voir que cette méthode devient
fastidieuse dans le cas général.
On distingue deux grandes familles de schémas de résolution
numérique des problèmes aux conditions initiales pour les équations
différentielles :
 Les schémas à un pas : ce sont des formules de récurrence de la
forme :
yn+1 = yn + h Ф(xn,yn,h) (6.12)
où n = 0,1,…,N avec yo donné, la fonction Фétant supposée
continue par rapport aux trois variables x, y, h.

 Les schémas à pas multiples : ce sont des schémas tels que yn+1
dépend de plusieurs valeurs précédentes yn, yn-1,… ,yn-p.

6.3. LES SCHEMAS A UN PAS


6.3.1. Les schémas d’Euler { partir de l’intégration numérique.
Pour définir certains schémas numériques de résolution
d’équation différentielle, on remarque que la solution exacte y(x) vérifie
y (x) = f(x, y(x)) ; ce qui donne :

y(xn+1) = y(xn) + ∫ f(x, y(x))dx (6.13)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


96

On peut alors penser approcher l’intégrale par une formule


utilisant des valeurs de f(x, y(x)) sur l’intervalle ,x , x - bien que y(x)
ne soit pas connue sur cet intervalle. Pour simplifier l’écriture, nous
supposons que le pas hn = x x est constant, h = où N est un
entier, mais la généralisation à un pas non constant est évidente.
Pour commencer, utilisons la méthode des rectangles « à
gauche » pour le calcul approché, (ceci équivaut à la formule de Taylor
appliqué à y(x) en x = xn).
On peut donc proposer le schéma suivant :
yn+1 = yn + h f(xn,yn), 0 n N-1 (6.14)

qui n’est autre que le schéma d’Euler simple.

On peut aussi approcher l’intégrale avec la méthode des rectangles « à


droite ». Un calcul équivalent provient de la formule de Taylor appliquée
à y(x) en x = xn+1 :

y(xn) = yn+1 – hf(xn+1,y(xn+1)) + y (ξ), ξ ,x , x -

Ceci conduit au schéma :


yn+1 = yn + h f(xn+1,yn+1), 0 n N-1 (6.15)

que l’on appelle schéma d’Euler retrograde. On dit que ce schéma est
implicite car yn+1 est défini implicitement comme solution de l’équation
u = yn + g(x,u),

qui en général est non linéaire. On fait alors appel à des méthodes de
type point fixe ou Newton. Cependant, comme le pas h est petit, le
nombre d’itérations nécessaire en pratique est petit : parfois même une
seule suffit.
Il reste à initialiser le processus avec une première estimation de yn+1
qui peut être yn.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


97

Algorithme
1. Etant donné un pas h, une condition initiale (xo,yo) et un nombre
maximal d’itérations N.
2. Pour 0 n N:
yn+1 = yn + h f(xn,yn)
xn+1 = xn + h
Ecrire xn+1 et xn

3. Arrêt.
Exemple : Soit l’équation différentielle
y =y+x
{ (i)
y(0) = 1
On veut approcher la solution de l’équation (i) en x = 1 { l’aide du
schéma d’Euler simple, en subdivisant l’intervalle ,0,1- en dix intervalles
partiels de même longueur.
Selon la formule de récurrence
yk+1 = yk + h f(xk, yk), k = 0,1,…, 9
on a pour h = = ,

y = y + hf(x , y ) =1+ 0,1(1 + 0) = 1,1

y = y + hf(x , y ) = 1,1 + 0,1(1,1+0,1) = 1,22


…………………………………………………….
On arrive au tableau suivant :

Schéma d’Euler simple : = +


i xi y(xi) yi | ( ) |
0 0,0 1,000000 1,000000 0,000000
1 0,1 1,110342 1,100000 0,010342
2 0,2 1,242805 1,220000 0,222805
3 0,3 1,399718 1,362000 0,037176
4 0,4 1,583649 1,528200 0,055450
5 0,5 1,797442 1,721000 0,076442
6 0,6 2,044238 1,943100 0,101138
7 0,7 2,327505 2,197000 0,130105
8 0,8 2,651082 2,487000 0,163982
9 0,9 3,019206 2,815800 0,203406
10 1,0 3,436563 3,187400 0,249200

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


98

6.3.2. Méthodes de Taylor


Le développement de Taylor permet de généraliser
directement le schéma d’Euler simple, et d’obtenir des algorithmes dont
l’erreur de troncature locale :
( ) ( )
(h) = Ф(x , y(x )) (6.16)

est d’ordre plus élevé.


Ici, nous ne parlons que de la méthode de Taylor du second ordre ; ce qui
revient à utiliser des arcs de parabole au lieu d’utiliser des segments de
droites pour approcher la solution de l’équation différentielle (6.6).
On cherche, en x = xn, une approximation de la solution en x
= xn+1. On a immédiatement :
( )
y(xn+1) = y(xn+ h) = y(xn) + y (x ) + h +O(h3) (6.17)

En utilisant (6.6) on obtient :


y(xn+1) = y(xn+ h)
( ( , ( ))
= y(xn) + f(x , y(x ))h + h +O(h3) (6.18)
( , ( )) ( , ( ))
Or, f (x , y(x )= + y (x ) (6.19)
On obtient donc :
( , ( )) ( , ( ))
y(xn+1)=y(xn)+ f(x , y(x ))h+ 4 f(x , y(x ))5+O(h3)
(6.20)
En négligeant les termes d’ordre supérieur ou égal { 3, on arrive { poser :
( , ( )) ( , ( ))
y(xn+1) y(xn)+f(x , y(x ))h+ 4 + f(x , y(x ))5(6.21)
qui sera à la base de la méthode de Taylor.
Remarque
Selon (6.14),
( , ( )) ( , ( ))
Ф(x,y(x)) = f(x,y(x)) + 4 + f(x , y(x ))5 (6.22)
En vertu de (6.21) et de la définition de l’erreur de troncature (6.16) on
montre que :
(h) = O(h2)
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
99

L’erreur de troncature locale de la méthode de Taylor est d’ordre 2.


Algorithme

1. Etant donné un pas h, une condition initiale (xo,yo) et un nombre


maximal d’itérations N.
2. Pour 0 n N:
( , ( )) ( , ( ))
yn+1=yn+f(x , y(x ))h + 4 + f(x , y(x ))5
xn+1 = xn + h
Ecrire xn+1 etyn+1
3. Arrêt.
Exemple : Soit l’équation différentielle

y =y+x
{
y(0) = 1

Dans ce cas, f(x,y) = y + x, (x, y) = 1 et (x, y) = 1


L’algorithme devient pour h = 0,1 :
yn+1 = yn + h(yn + xn) + (1 + 1. (y + x ))
La première itération donne :
y1 = yo + h(yo + xo) + (1 + 1. (y + x ))
,
= 1 + 0,1(1+ 0) + (1 + (1 + 0))
= 1,11
La deuxième itération donne :
y2 = y1 + h(y1 + x1) + (1 + 1. (y + x ))
,
= 1,11 + 0,1(1,11 + 0,1) + (1 + (1,11+ 0,1))
= 1,24205
Remarque
On peut obtenir des méthodes de Taylor encore plus précises en
poursuivant le développement de Taylor (4.17) jusqu’{ des termes
d’ordre plus élevé. Cela exige de calculer les dérivées partielles de f(x,
y(x)) d’ordre de plus en plus élevé :

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


100

f f f f
, , ,…,
x y x y x y
Ce qui rend les méthodes en question difficiles à utiliser.
6.3.3. Schémas prédicteurs-correcteurs
A partir du schéma implicite d’Euler (6.15), on peut
construire un nouveau schéma dit prédicteur-correcteur de la manière
suivante :
- On détermine une première estimation grossière de yn+1, notée ŷn+1, on
peut recourir par exemple { la méthode d’Euler explicite (6.14).
- On améliore cette estimation en s’inspirant du schéma d’Euler
rétrograde.
On obtient le schéma :
ŷ = y + hf(x , y )
{ (6.23)
y = y + hf(x , ŷ )
Dans le langage devenu classique pour ces méthodes, on dit que l’on fait
d’abord une prédiction (ŷ ) { l’aide du schéma explicite, puis une
correction à l’aide du schéma implicite. En outre, on peut être conduit à
itérer sur les corrections.
Si l’on utilise la méthode des trapèzes pour calculer
l’intégrale de
y(xn+1) = y(xn) + ∫ f(x, y(x))dx
On obtient l’expression
y(xn+1)=y(xn)+ .f(x , y(x )) + f(x , y( x ))/ y ( ) (ξ),
oùξ ,x , x -
Le terme y ( ) correspond à la dérivée seconde par rapport à x de la
fonction x → f(x, y(x)). Ceci conduit au schéma suivant :
yn+1 = yn + (f(xn,yn) + f(xn+1,ŷn+1)), 0 n N-1 (6.24)
qui est implicite, comme le schéma (6.15).
On peut, comme précédemment, construire un schéma prédicteur-
correcteur inspiré de ce schéma implicite, c’est le schéma prédicteur-
correcteur d’Euler-Cauchy :
ŷn+1 = yn + h(f(xn, yn)
yn+1 = yn + (f(xn, yn) + f(xn+1,ŷn+1)), 0 n N-1 (6.25)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


101

On l’appelle aussi méthode d’Euler améliorée.


Algorithme
1. Etant donné un pas h, une condition initiale (xo,yo) et un nombre
maximal d’itérations N.
2. Pour 0 n N :
ŷ= yn + h(f(xn, yn)
yn+1 = yn + (f(xn, yn) + f(xn+1,ŷ))
xn+1 = xn
Ecrire xn+1 et yn+1

3. Arrêt.
Remarque

Pour faciliter les calculs, on scinde l’évaluation de yn+1 en deux étapes. ŷ


correspond provisoirement { une itération de la méthode d’Euler. On fait
ainsi une prédiction ̂y de la solution en xn+1 qui est corrigée (et
améliorée) { la deuxième étape de l’algorithme. On parle alors d’une
méthode de prédiction-correction
Exemple : Soit l’équation différentielle

y =y+x
{
y(0) = 1
Itération 1 : ŷ = 1 + 0,1(1+ 0) = 1,1 qui est le résultat obtenu à l’aide du
schéma d’Euler simple.
La deuxième étape donne :
y1 = yo + (f(xo, yo) + f(xo+h, ̂))
y
,
= 1 + ((1+ 0) + (1,1+ 0,1))
= 1,11.
Itération 2 : De même, la première étape de la deuxième itération donne :

ŷ1 = 1,11 + (0,1)(1,11 + 0,1)


= 1,231
La correction conduit à son tour à :
y2 = y1 + (f(x1, y1) + f(x1+h,ŷ1))

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


102

,
= 1,11 + ((1,11+ 0,1)+(1,231 + 0,2))
= 1,24205.
Pour contourner la difficulté rencontrée dans la méthode de Taylor on
développe les méthodes de Runge-Kutta.

6.3.4. Méthodes de Runge-Kutta (RK)


6.3.4.1. Méthodes RK d’ordre 2
On reprend le développement (4.20) en l’écrivant de la
manière suivante :
( , ) ( , )
yn+1 = yn + f(x , y ) + [f(x , y ) + h +h f(x , y ) +
O(h3) (6.26)
Selon la formule de Taylor, on a, à des termes en h près :
( , ) ( , )
f(x , y ) + h +h f(x , y )= f(xn+h, y + h f(x , y ))
(6.27)
Ainsi on obtient l’algorithme de Runge-Kutta d’ordre 2 :

yn+1 = yn + h(M1 + M2), n = 0,1,…,N-1. (6.28)

où M1 = f(x , y ) et M2 = f(xn+h, y + hM1)

6.3.4.2. Méthode du point-milieu


Une autre méthode RK d’ordre 2 qui est très utilisée est la
méthode du point-milieu.

Algorithme

1. Etant donné un pas h, une condition initiale (xo,yo) et un nombre


maximal d’itérations N.
2. Pour 0 n N:
k1 = f(x , y )
yn+1 = y + h( .x + , y + /) (6.29)
xn+1 = x + h
Ecrire xn+1 et yn+1.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


103

3. Arrêt.

Remarque

Dans cet algorithme la fonction f(x, y(x)) est évaluée au


point-milieu de l’intervalle ,x , x -, raison qui justifie son nom.

Exemple : Soit l’équation différentielle


y =y+x
{
y(0) = 1
Pour h = 0,1,
Itération 1 : 1ère étape : k1 = (0,1)(1 + 0) = 0,1
2ème étape : y1 = yo+ h(f .x + , y + /)
, ,
= 1 + (0,1)(0+ +1+ )
= 1,11.
Itération 2 : 1ère étape : k1 = (0,1)f(x , y )
= (0,1)(1,11 + 0,1) = 0,121
, ,
2ème étape : y2 = 1,11 + (0,1)(1,11+ + 0,1 + )
= 1,24205.

Les méthodes d’Euler modifiée et du point-milieu étant de même ordre


de troncature locale, leur précision est semblable.
6.3.4.3. Méthodes RK d’ordre 4
Cette méthode est la plus connue et la plus utilisée.
Algorithme

1. Etant donné un pas h, une condition initiale (xo,yo) et un nombre


maximal d’itérations N.

2. Pour 0 n N:
k1 = hf(x , y )
k2 = h( .x + , y + /)

k3 = h( .x + , y + /)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


104

k4 = h( (x + h, y + k ))
yn+1 = yn + (k1 + 2k2 + 2k3 + k4)
Ecrire xn+1 et yn+1.
3. Arrêt.

Exemple : Reprenons l’équation différentielle


y =y+x
{
y(0) = 1

Il suffit maintenant d’évaluer les différentes constantes ki, i = 1, 2, 3, 4. A


la première itération (avec h = 0,1) on a :

k1 = 0,1f(0,1) = 0,1(1 + 0) = 0,1

k2 = 0,1f(0 + 0,05 ;1+0,05) = (0,1)(1,05 + 0,05) = 0,1

k3 = 0,1f(0 + 0,05 ;1+0,055) = (0,1)(1,055+0,05) = 0

k4 = 0,1f(0 + 0,1 ;1+0,1105) = (0,1)(1,1105+0,1) = 0,12105

Ce qui entraîne :

y1 = 1 + (0,1 + 2(0,11) + 2(0,1105) + 0,12105) = 1,110341667.

6.3.5. Ordre et consistance des schémas à un pas


Etant donnés f, xo, yo, T, soit y(x) la solution exacte de l’équation
différentielle :

y (x) = f(x, y(x)), x ,x , x + T-


8 (6.30)
y(x ) = y

Supposons que l’on discrétise avec un pas constant h = , on pose :

xn = x + nh.

Les schémas à un pas explicite ou prédicteur-correcteur


peuvent se mettre sous la forme générique :
y(x ) = y
{ (6.31)
y = y + h Ф(x , y , h), 0 n N 1

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


105

On peut se demander comment quantifier l’erreur commise


en approchant la solution exacte y(x) par la séquence discrète yn. La
définition de l’erreur de troncature locale (6.16) donne un début de
réponse à cette question.

Définition 6.1

Lorsqu’il existe K 0 tel que


( )
max | | Kh , (6.32)

le schéma est dit d’ordre p.

La définition suivante est propre aux schémas de


résolution des équations différentielles et se déduit rapidement de
l’ordre.

Définition 2

Le schéma est dit constant quand


( )
lim → max | |= 0 (6.33).

Un schéma d’ordre strictement positif est donc consistant.

Pour le schéma d’Euler simple, on a :

(h) = (y(xn+1) – y(xn)) – h.f(xn, y(xn)) = y (ξ).

Supposons que y est bornée sur ,x , x -, soit |y (x)| M x


,x , x + T-, alors on a :

(h) h ;

Et d’après la définition précédente, le schéma d’Euler simple


est d’ordre 1. On peut vérifier que le schéma d’Euler-Cauchy est d’ordre
2.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


106

6.3.6. Stabilité et convergence des schémas à un pas


La consistance ou l’ordre d’un schéma n’est qu’une indication
locale de l’erreur. Un moyen plus réaliste de mesurer l’erreur
d’approximation de y(xi) par yi consiste à considérer l’erreur maximum
commise pour i = 1,…, N, et { regarder si cette erreur tend bien vers zéro
quand h tend vers zéro.

Définition 6.3

Le schéma
y(x ) = y
{
y = y + h Ф(x , y , h), 0 n N 1, h = T/N

est dit convergent par rapport { l’équation différentielle :


y (x) = f(x, y(x)), x ,x , x + T-
8
y(x ) = y
si lim → max |y(x ) y |. (6.34)

La consistance d’un schéma n’implique pas qu’il soit


convergent il n’en est qu’une condition nécessaire. Une condition
supplémentaire fait intervenir la notion de stabilité.

Définition 6.4

Le schéma

y (x) = f(x, y(x)), x ,x , x + T-


8
y(x ) = y

est dit stable s’il existe une constante M telle que pour tout y , pour tout
uo, pour tout h h et pour toute suite (ε ), les suites (y ) et (u ) définies
par les relations :

y = y + h Ф(x , y , h)
u = u + h Ф(x , y , h) (6.35)
vérifient la condition :

i = 1, … , N, |y u| M(|y u |) + ∑ |ε | (6.36)
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
107

En gros, cela signifie qu’un schéma stable n’amplifie ni les


erreurs sur la condition initiale, ni les erreurs introduites dans le
schéma : il s’agit d’une notion de continuité. On peut noter que la
stabilité peut éventuellement dépendre de h. La définition ci-dessus
montre qu’il peut exister un pas limite h au-delà duquel un schéma
stable devient instable.

On a aussi une condition suffisante de stabilité :

Proposition 6.1

Pour qu’un schéma soit stable, il suffit qu’il existe une constante une
constante 𝛬 telle que :
x ,x , x + T-, y, u R, h ,0, h -, |Ф(x, y, h) Ф(x, u, h)| |y u| .

Cela signifie que la fonction Ф doit vérifier la condition de


Lipschitz pour obtenir cette propriété pour Ф. Dans ce cas, le schéma
d’Euler simple est évidemment stable, puisque l’on a Ф(x, y, h) = f(x, y).

Le théorème suivant est simple et essentiel ; il est


généralement connu sous le nom de consistance plus stabilité impliquent
convergence.

Théorème 6.2

Soit Ф une fonction continue de x ,x , x + T-, y R et h, définissant le


schéma à un pas :

yn+1= yn + h Ф(xn, yn, h), 0 n N 1, y(xo) = xo, h = .

Si ce schéma à un pas est consistant et stable, alors il est convergent par


rapport { l’équation différentielle :

y (x) = f(x, y(x)), x , x , x + T-


8
y(x ) = y

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


108

6.4. LES SCHEMAS A PAS MULTIPLES


Une autre approche de résolution des équations différentielles a
engendré une famille de schémas dits à pas multiples. Ils se basent sur
l’intégration de l’équation différentielle :
y (x) = f(x, y(x))
dans l’intervalle ,x , x -, c’est-à-dire

∫ y (t)dt = ∫ f(t, y(t))dt

Ou encore :
y(xn+1) – y(xn) = ∫ f(t, y(t))dt

soit y(xn+1) = y(xn) + ∫ f(t, y(t))dt (6.37)

Le problème consiste { trouver une approximation de l’intégrale


présente dans le membre de droite de (6.37). Pour y arriver, on utilise
une interpolation de la fonction f(t, y(t)) à partir des valeurs de y(t)
calculées aux itérations précédentes.

On note fn = f(xn, yn) l’approximation de f(xn, y(xn)). Ainsi on


peut construire une table des différences divisées pour cette fonction et
effectuer l’interpolation par la méthode de Newton. Une première
approche consiste à utiliser la table des différences divisées suivante :

Première table de différences divisées


xn fn
f,x , x -
xn-1 fn-1 f,x , x , x -
f,x , x -
xn-2 fn-2 f,x , x , x -
f,x , x -
xn-3 fn-3
… … … …

Cette table peut être prolongée au besoin.


Le polynôme d’interpolation s’écrit :

pn(x) = fn + f,x , x -(x-xn) + f,x , x ,x -(x-xn)(x-xn-1)

+ f,x , x ,x ,x -(x-xn) (x-xn-1) (x-xn-2) + … (6.38)


Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
109

On peut évaluer la fonction f(x, y(x)) { l’aide de ce polynôme dans


l’intervalle ,x , x -. L’évaluation de pn(x)n’exige que des valeurs
connues provenant des pas antérieurs.
On peut également utiliser la table de différences divisées suivante :

Deuxième table de différences divisées


xn+1 fn+1
f,x , x -
xn fn f,x , x , x -
f,x , x -
xn-1 fn-1 f,x , x , x -
f,x , x -
xn-2 fn-2
. . … …

Le polynôme d’interpolation correspondant est :

p (x) = fn+1 + f,x , x -(x-xn+1) + f,x , x , x -(x-xn+1)(x-xn)


+ f,x , x , x , x -(x-xn+1)(x-xn)(x-xn-1) +… (6.39)

On constate que l’évaluation de p (x) requiert la connaissance préalable


de fn+1 = f(xn+1, yn+1). Or, on ne connaît pas encore yn+1. Ceci est une
difficulté qu’il faut lever.

Considérons le polynôme pn(x). En augmentant successivement


le degré du polynôme, on obtient des approximations de plus en plus
précises que l’on peut insérer dans la relation (6.37). Par exemple, si l’on
utilise le polynôme de degré 0, on a l’approximation f(x, y(x)) po(x) =
fn et l’on trouve

yn+1 = yn + ∫ f dt = yn + (xn+1- xn) fn = yn + hf(xn, yn)

qui n’est rien d’autre que l’expression de la méthode d’Euler. En utilisant


maintenant un polynôme de degré 1, on a l’approximation :

f(x, y(x)) p1(x) = fn + f,x , x -(x x ).

En insérant cette expression dans la relation (6.37), on obtient :

yn+1 = yn + ∫ (f + f,x , x -(x x ))dt

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


110

( )
= yn + (xn+1- xn) fn + .
= yn + (3f f )
ou encore :
yn+1 = yn + (3f(x , y ) + f(x y ))

Dans l’équation précédente, on a posé : h = xn- xn-1, ce qui suppose que le


pas est constant.
On constate qu’il s’agit d’une méthode à deux pas, en ce sens que pour
obtenir yn+1 on doit utiliser yn et yn-1.
On pourrait continue ainsi en utilisant des polynômes de degré 2, 3,
etc.En substituant ces polynômes dans la relation (6.37), on obtient les
formules d’Adams-Bashforth :

Formules d’Adams-Bashforth
yn+1 = yn + hfn (Ordre 1)
yn+1 = yn + (3f f ) (Ordre 2)
yn+1 = yn + (23f 16f + 5f ) (Ordre 3)
yn+1 = yn + (55f 59f + 37f 9f ) (Ordre 4)

Remarque

On définit l’erreur de troncature locale liée aux méthodes à pas multiples


de la même manière que dans le cas de méthodes à un pas. On constate
qu’en utilisant un polynôme de degré n dans la relation (6.37) on obtient
une méthode { (n+1) pas dont l’erreur de troncature locale est d’ordre
n+1.

Considérons à présent le polynôme p (x). Par un raisonnement


analogue et en prenant l’approximation :

f(x, y(x)) p (x).

En particulier, le polynôme de degré zéro est p (x) = pn+1 et celui de


degré 1 est p (x) = fn+1 + f,x , x -(x x ).
On peut ainsi passer à des polynômes de degré de plus en plus élevé dans
la relation (6.37) et obtenir les formules d’Adams-Moulton, reprises dans
le tableau suivant :
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
111

Formules d’Adams-Moulton

yn+1= yn + hfn+1 (Ordre 1)


yn+1= yn + (f +f ) (Ordre 2)
yn+1 = yn + (5f + 8f f ) (Ordre 3)
yn+1 = yn + (9f + 19f 5f +f ) (Ordre 4)

Les formules d’Adams-Moulton sont dites implicites, car les relations qui
permettent d’évaluer yn+1 dépendent de yn+1 lui-même. Pour contourner
cette difficulté, on combine les formules d’Adams-Bashforth et d’Adams-
Moulton en des schémas dits prédicteurs-correcteurs. On utilise les
schémas d’Adams-Bashforth pour obtenir une première approximation
y de y , qui est l’étape de prédiction. On fait ensuite appel aux
formules d’Adams-Mouton pour corriger et éventuellement corriger
cette approximation. Dans ce cas, l’évaluation de f dans les formules
d’Adams-Moulton repose sur l’emploi de y , c’est-à-dire :
fn+1 y = f(tn+1, y ).

On obtient ainsi les schémas suivants :

Schémas de prédiction-correction
y = yn + hfn
yn+1 = yn + hf (Ordre 1)
y = yn + (3f f )
yn+1 = yn + (f +f ) (Ordre 2)
y = yn + (23f 16f + 5f )
yn+1 = yn + (5f + 8f f )(0rdre 3)
y = yn + (55f 59f + 37f 9f )
yn+1 = yn + (9f + 19f 5f +f )(Ordre 4)

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


112

Remarque

L’initialisation des méthodes de prédiction-correction nécessite l’usage


d’une méthode { un pas. Si l’on prend par exemple le schéma d’ordre 4, il
est clair que n doit être plus grand ou égal à 3, car autrement on aurait
besoin de y-1, y-2, etc. Or, au départ, seul yo est connu, provenant de la
condition initiale. Les valeurs de y1, de y2 et de y3 doivent être calculées à
l’aide d’une autre méthode. Généralement, on recourt { une méthode de
Runge-Kutta qui est au moins du même ordre de convergence que la
méthode de prédiction-correction que l’on souhaite utiliser.

Exemple : Soit l’équation différentielle :

y =y+x
{
y(0) = 1
avec h = 0,1.
Faisons appel aux méthodes de prédiction-correction d’ordres 2 et 4. Les
premiers pas de temps sont calculés par une méthode de Runge-Kutta
d’ordre 4 qui a déj{ servi { résoudre cette équation différentielle. La
méthode de prédiction-correction d’ordre 2 requiert la connaissance de
yo qui vaut 1, et y1, qui a été calculé au préalable { l’aide de la méthode de
Runge-Kutta et qui vaut 1,29191667 (une méthode de Runge-Kutta
d’ordre 2 aurait été suffisante).

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com


113

BIBLIOGRAPHIE
1. Chehab, J.P. (2009). Interpolation polynomiale (notes de cours),
Université de Picardie Jules Verne, LAMFA
CNRS 6140.
2. Ciarlet, P. G. (1982). Introduction { l’analyse numérique matricielle
et { l’optimisation, Ed. Masson.
3. Croisille. J.P. (2009). Interpolation spline, Master de
Mathématiques M1, Université Paul Verlaine,
Metz.
4. Demailly, J.-P. (2000). Analyse numérique et équations différentielles.
Coll. Sciences, Presses Universitaires de Grenoble.
5. Dudok de Wit, T. (2008). Analyse numérique. Université d’Orléans.
6. Fortin, A. (1996). Analyse numérique pour ingénieurs. Deuxième
édition, Prix Roberval 1996, Presses Internationales
Polytechniques, Montréal.
7. Guilpin, C. (1999). Manuel de calcul numérique appliqué. EDP
Sciences
8. Schatzman, M. (2000). Analyse numérique. Cours et exercices.

Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com

Vous aimerez peut-être aussi