Académique Documents
Professionnel Documents
Culture Documents
Ecole Polytechnique
Awono Onana
et
Jacques Tagoudjeu
Table des matières
1 Rappels et Complements 5
1.1 Développement de Taylors . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Théorèmes classiques d’analyse (Rolles, Accroissement finis, valeur
intermédiaire, point fixe) . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Théorème de Rolles . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Suite Convergente . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Espaces métriques complets . . . . . . . . . . . . . . . . . . . 8
1.4 Normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Espaces Normés . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Espaces de Banach . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Espaces de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . 8
1.6.2 Matrices convergentes . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Processus itératifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Vitesse de convergence (logarithmique, linéaire, exponentielle) 9
1.7.2 Illustrations des processus de convergence . . . . . . . . . . . 9
1
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 2
4
Chapitre 1
Rappels et Complements
Préliminaires
On donne dans ce chapitre quelques rappels des notions d’analyse et d’algèbre
linéaire, nécessaires pour la construction et l’analyse des méthodes numériques.
On désigne par C n ([a, b]) (n ∈ N) l’ensemble des fonctions définies et n fois
continûment dérivables sur l’intervalle [a, b]. C([a, b]) = C 0 ([a, b]).
Soit f une fonction définie sur [a, b]. On désigne par f (n) la dérivée d’ordre n de
la fonction f , lorsqu’elle existe. f (0) = f
5
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 6
Si f (n+1) est bornée sur ]a, b[, alors il existe une constante strictement positive Mn+1
telle que,
|f (n+1) (ξx )| ≤ Mn+1 .
Ainsi, on a la majoration suivante de l’erreur d’approximation :
(x − x0 )n+1 (b − a)n+1
|f (x) − Pn f (x)| ≤ Mn+1 ≤ Mn+1 (1.1.5)
(n + 1)! (n + 1)!
En posant h = x − x0 , l’erreur d’approximation de f (x) par Pn f (x) est donnée par :
hn+1
En (h) = f (n+1) (ξx ) . (1.1.6)
(n + 1)!
Lorsque f (n+1) est bornée sur ]a, b[, l’erreur En (h) est un O (hn+1 ) et l’approximation
de f (x) par Pn f (x) est d’ordre 2 au voisinage de x0 .
Exemple 1.1.1. On considère la fonction définie sur R par f (x) = cos(x).
1. Donner une approximation de f au voisinage de 0 pour n = 3.
2. Utiliser cette approximation pour obtenir des valeurs approchées de
cos(0.01), cos(0.05), cos(0.1), cos(1).
3. Donner une majoration de l’erreur d’approximation dans chaque cas.
Exemple 1.1.2. On considère la fonction définie sur R∗+ par f (x) = ln(x).
1. Donner une approximation de f au voisinage de 1 pour n = 3.
2. Utiliser cette approximation pour obtenir des valeurs approchées de
ln(1.1), ln(1.2), ln(1.3), ln(1.4), ln(1.5).
3. Donner une majoration de l’erreur d’approximation dans chaque cas.
Théorème de Rolles
On suppose que f ∈ C([a, b]) et est dérivable sur ]a, b[. Si f (a) = f (b), alors il
existe c ∈]a, b[ tel que
f ′ (c) = 0. (1.2.2)
C’est-à-dire (géométriquement), la courbe représentative de f sur [a, b] admet au
moins un extremum local. Une interprétation graphique du théorème de Rolles est
donnée par la FIG. 1.2.
Si de plus, f est dérivable sur ]a, b[, alors les points c1 et c2 sont soit des bornes
de l’intervalle [a, b], soit des extremas de la fonction f sur [a, b].
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 8
1.4 Normes
1.4.1 Espaces Normés
1.4.2 Espaces de Banach
1.6 Matrices
1.6.1 Valeurs propres, vecteurs propres
1.6.2 Matrices convergentes
10
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 11
sinon {
an+1 = an +b
2
n
.
bn+1 = bn
On a :
an+1 ≥ an
bn+1 ≤ bn , n∈N
bn − an = b−a
2n
et In = (an , bn ). On montre que
lim an = lim bn = c et f (c) = 0.
n→∞ n→∞
Si l’approximation est voulue avec une précision ε, on arrête le processus dès que
|an − bn | < ε,
PROCEDURE bissection(a,b,Nmax,epsilon,x)
fa = f(a);
i = 1;
Tant que b-a > epsilon et i <= Nmax Faire
m = (b+a)/2;
fm = f(m);
Si fa*fm < 0 Alors
b = m;
Sinon
a = m;
fa = fm;
fin si
i=i+1;
fin faire
x=(b+a)/2
Fin Proc
n a0 bn
0 2 3
1 2.5 3
2 2.75 2.875
3 2.75 2.875
4 2.8125 2.875
x ≈ 2.82861
5 2.8125 2.84375
6 2.828125 2.84375
7 2.828125 2.8359375
8 2.828125 2.83203125
9 2.828125 2.830078125
10 2.828125 2.829101562
d’où
1b−a en 2n 1
en+1 ≈ et = n+1 =
2 2n+1 en+1 2 2
la convergence de la méthode de bissection est garantie dès que la solution existe.
Cependant cette méthode peut s’avérer très coûteuse à cause du nombre d’itérations
qui est élevé. En fait, le gain en précision d’une décimale se fait au bout de 3.4 ≈ 4
itérations (10−1 ≈ 2−3.3 ). Il faut aussi noter que la méthode ne tient pas compte
du comportement de la fonction f, et ne peut permettre de détecter les racines de
multiplicité paire.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 14
On voit donc la méthode des approximations successives converge vers a, alors a est
un point fixe de g, c’est à dire solution de l’équation (2.3.1)
Exemple 2.3.1. On pose g(x) = x + cos x et x0 = 1.3. Calculer x1 , x2 , x3 , ∆x0 ,
∆x1 et ∆x2 .
n xn ∆xn
0 1.3 0.26749
1 1.5674 0.00329
2 1.5707 5.10−9
3 1.5707
Proposition 2.3.3. Si la fonction g est derivable et est une contraction stricte dans
[a, b] de rapport de contraction k alors :
g(x) − g(y)
≤ k,
x−y
Proposition 2.3.4. Soit g une contraction stricte de [a, b] dans [a, b], de rapport k.
Alors l’itération définie par :
{
x0 ∈ [a, b]
(2.3.8)
xn+1 = g(xn ), n ≥ 0
kn
≤ (1 − k p )|x0 − x1 |
1−k
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 18
{ ek+1
ek
≈ g ′ (x′ ) si g ′ (x′ ) ̸= 0
.
ek+1
ek
≈ 12 g ′′ (x′ ) si g ′ (x′ ) = 0
Pour avoir les conclusions du théorème, on remplace ek par son approximation ∆xk
Exemple 2.3.6. 1. g(x) = x + cos x ; x′ = Π2
g ′ (x) = 1 − sin x. On a g ′ (x′ ) = 0 et la convergence sera quadratique (assez
rapide, comme le montre le montre le tableau 2.3.1.
2. g(x) = x + cos x ; x′ = − Π2
g ′ (x′ ) = 1 − sin x. On a g ′ (x′ ) = 2 > 1. On déduit la divergence de la méthode
des approximations successives.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 19
f (xk ) f (xk )
y= x − xk+1 . (2.5.4)
xk − xk+1 xk − xk+1
Comme
xk+1 = xk − λf (xk ),
on obtient
1 f (xk )
y= x + b, où b = −xk+1 .
λ xk − xk+1
Si on suppose que f est derivable, et que g est une contraction stricte de [a, b]
sur [a, b], on a :
f (xk )
y=0 ⇒ x = xk −
f ′ (xk )
d’où
f (xk )
xk+1 = xk − (2.6.2)
f ′ (xk )
et
f (x)
g(x) = x − (2.6.3)
f ′ (x)
Definition 2.6.1. L’équation (2.6.2) est la formule de la méthode itérative de New-
ton pour la résolution de l’équation f (x) = 0.
n xk ∆xk
0 1.000000 0.500000
1 1.500000 -0.083333
2 1.416666 -0.000002
3 1.414213 -0.000000
5 1.414213
et [ ]
1 2
xn+1 = xn xn −
2 xn
pour x0 = 1, on a√le tableau suivant
La valeur de 2 à 10−9 près est : 1.414213562. On observe bien que le nombre
de décimales exactes double à chaque itération de la méthode de Newton.
f (x′ ) = 0. (2.6.4)
Preuve : posons :
f (x)
g(x) = x −
f ′ (x)
alors
f ′′ (x)f (x)
g ′ (x) =
[f ′ (x)]2
f (x′ ) = 0 implique g ′ (x′ ) = 0. On conclut d’après la proposition 2.3.5 que la
suite (xk ) converge, et la convergence est quadratique.
La formule de Taylors au point (xk ) donne :
1
0 = f (x′ ) = f (xk ) + f ′ (xk )(x′ − xk ) + f ′′ (ξk )(x′ − xk )2 , ξk ∈ (xk , x′ )
2
′′
f (xk ) 1 f (ξk ) 2
=⇒ 0 = ′
+ (x′ − xk ) + )e
f (xk ) 2 f ′ (xk ) k
1 f ′′ (ξk ) 2
=⇒ 0 = (xk − xk+1 ) + x′ − xk + )e
2 f ′ (xk ) k
1 f ′′ (ξk ) 2
=⇒ ek+1 = − ′ )e
2 f (xk ) k
en posant
M1 = max|f ′′ (x)| et m = min|f ′ (x)|,
x∈Iε x∈Iε
on obtient
1 M1
|ek+1 | ≤ |ek |2 = M e2k .
2 m
Sous les hypothèses de la proposition précédente, on a :
1
|ek+1 | ≤ M e2k ⇒ M ek+1 ≤ (M e0 )2k ⇒ |ek | ≤ (M e0 )2k , k > 0. (2.6.8)
M
Donc pour assurer la convergence, on peut supposer que
|M e0 | = M |x0 − x′ | < 1.
PROCEDURE NewtonRaphson(x0,epsilon,Nmax,x)
x = x0 - f(x0)/f’(x0);
i = 1;
DeltaX = |x - x0|;
Tant que (DeltaX > epsilon) et (i <= Nmax) Faire
x0 = x;
x = x - f(x)/f’(x};
DeltaX = |x - x0|;
i=i+1;
fin faire
Fin Proc
f (xk ) − f (xk−1 )
f ′ (xk ) ≈ . (2.7.1)
xk − xk−1
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 25
Remark 2.7.1. La méthode de la sécante utilise deux valeurs initiales. Ayant trouver
(x0 ), on le fait varier légèrement pour obtenir (x1 ).
n xk ∆xk
0 1.000000 0.500000
1 1.500000 - 0.100000
2 1.400000 - 0.013793
3 1.4114215 - 0.000422
5 1.4142129 - 0.000002
Table 2.3 –
D’après cet exemple, la convergence de cette méthode semble un peu plus lente
que celle de la méthode de Newton.
f (xk ) − f (xk−1 )
mk = ; (2.7.3)
xk − xk−1
(xk+1 , 0) est le point d’intersection de la droite Dk avec l’axe des abscisses. L’équation
de la droite Dk est :
xk−1 f (xk ) − xk f (xk−1 )
yk = mk x + bk avec bk = . (2.7.4)
xk − xk−1
Remplaçant x dans (2.7.4) par xk−1 , on obtient yk = f (xk−1 ). Donc le point (xk−1 , f (xk−1 ) ∈
Dk et (xk+1 , 0) est le point d’intersection de l’axe des abscisses et la droite Dk passant
par les point (xk−1 , f (xk−1 ) et (xk , f (xk ).
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 26
f (xk − f (xk−1 ) 1
f (x) = f (xk ) + (x − xk ) xk−1 + f ′′ (ξ)(x − xk )(x′ − xk−1 ), (2.7.5)
xk − 2
avec ξ ∈ (xk , xk)1 ). D’après la formule de la méthode sécante, on a :
f (xk − f (xk−1 )
f (xk ) + (xk+1 − xk ) xk−1 = 0 (2.7.6)
xk −
En remplaçant dans l’équation (2.7.5) x par x’ on a :
f (xk − f (xk−1 ) 1 ′′
0 = f (xk ) + (x′ − xk ) xk−1 + f (ξ)(x′ − xk )(x′ − xk−1 )
xk − 2
f (xk − f (xk−1 ) f (xk − f (xk−1 )
0 = f (xk ) + (x′ − xk+1 ) xk−1 + (xk − xk+1 ) xk−1
xk − xk −
1 ′′
+ f (ξ)(x′ − xk )(x′ − xk−1 ).
2
D’où
f (xk − f (xk−1 ) 1
0 = (x′ − xk+1 ) xk−1 + f ′′ (ξ)(x′ − xk )(x′ − xk−1 ). (2.7.7)
xk − 2
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 27
D’après la formule des accroissements finis, il existe ξ ′ ∈ (xk , xk−1 ) tel que :
f (xk − f (xk−1 )
xk−1 = f (ξ) (2.7.8)
xk −
portant (??) dans (??), on obtient :
1
0 = (x′ − xn+1 )f ′ (ξ ′ ) + f ′′ (ξ)(x′ − xk )(x′ − xk−1 ) (2.7.9)
2
D’où :
f ′′ (ξ)
en+1 = − en−1 en . (2.7.10)
2f (ξ ′ )
L’équation (2.7.10) montre que la convergence est assurée pour des valeur de e0 et
e1 assez petites. c’est à dire pour x0 et x1 assez proches de x′ .
Proposition 2.7.2. Convergence de la méthode sécante. Soit f ∈ C 2 [a, b], telle que
f ′ (x) ̸= 0 pour tout x ∈ [a, b]. Supposons qu’il existe x′ ∈ [a, b] tel que :
f (x′ ) = 0
Alors ∃ε > 0tel que ∀x0 , x1 ∈ [x′ −ε, x′ +ε], les itérations de la méthode de la sécante
convergent vers x′ .
Proposition 2.7.3. : l’ordre de convergence de la méthode de la sécante est :
√
1+ 5
p= ≈ 1.618. (2.7.11)
2
preuve :
On suppose que la méthode de la sécante converge. L’équation (2.7.11)donne :
f ′′ (ξ)
|ek+1 | = |ek ||ek+1 |.
2f ′ (ξ ′ )
Pour n assez grand, on peut poser ξ ∼
= x′ et on a :
f ′′ (ξ)
|ek+1 | ∼
= C|ek ||ek−1 |; avec C = . (2.7.12)
2f ′ (ξ ′ )
Si la méthode est d’ordre p alors
|ek+1 | ≈ K|ek |p
|ek | ≈ K|ek−1 |p ,
et l’équation (2.7.12) entraı̂ne :
K|ek |p ∼ K|ek |p ∼
1 −1 −1
1+ 1
= C|ek ||ek | p k p ⇒ = CK p |ek | p
1
ce qui est vraie si p = 1 + et C = k (1+ p ) . Comme p>0, on a :
1
p
√
1+ 5
p=
2
et la convergence de la méthode est exponentielle.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 28
mauvais choix des valeurs initiales entraı̂ne la divergence de ces méthodes. D’où
l’idée de faire un balayage de l’intervalle de recherche à partir de ses extrémités. On
suppose que l’intervalle [a, b] est choisi de sorte que f (a)f (b) < 0. On construit une
suite décroissante d’intervalle In contenant la solution de l’équation f (x) = 0 de la
manière suivante :
2.8.4 conclusion.
Les méthodes de résolution des équations non linéaires étudiées dans ce chapitre
peuvent être divisées en deux groupes :
– celles qui nécessitent assez d’information au voisinage de la solution de l’équa-
tion, ceci au fin de trouver les valeurs initiales nécessaires à leur mise au point,
et à assurer leurs convergences. Les méthodes de Newton et de la sécante font
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 31
3.1 Introduction
Nous présentons dans ce chapitre quelques méthodes de résolution des systèmes
d’équations linéaires. On distingue deux catégories de méthodes numériques pour la
résolution des systèmes d’équations linéaires : les méthodes directes qui permettent
d’obtenir la solution exacte (lorsque l’influence des erreurs d’arrondi et de troncature
est négligeable) après un nombre fini d’opérations, et les méthodes itératives qui
permettent d’obtenir à partir d’une approximation initiale, des approximations de
plus en plus ” proche ” (dans le sens d’une norme donnée) de la solution exacte du
système (lorsque la méthode converge). Dans ce cas on arrête le processus après un
nombre maximal d’itération donné et/ou une certaine précision fixée.
Ce Chapitre s’organise comme suit. Dans la deuxième section, nous présentons
les méthodes directes de résolution des SEL. On se limitera ici à la méthode d’éli-
mination de Gauss à l’issue de laquelle on obtient la factorisation LU , la méthode
de Choleski issue de la factorisation LLt et à la méthode de Householder à l’issue
de laquelle on obtient la factorisation QR. La troisième section sera consacrée aux
méthodes itératives. On abordera les méthodes itératives stationnaires telles que les
méthodes de Jacobi, de Gauss-Seidel et de relaxations successives. On introduira
en suite la méthode de gradient conjugué comme un exemple de méthode itérative
non stationnaire. On terminera par la notion de préconditionnement des systèmes
d’équations linéaires. Dans tout ce chapitre, on se limitera à une brève description
des méthodes et à une présentation des schémas d’algorithmes pour leurs mises en
IJuvre.
Ax = b, (3.2.1)
33
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 34
où A est une matrice carrée d’ordre n, b et x sont des vecteurs de Rn . Le vecteur x
est appelé vecteur des inconnues.
On suppose dans toute la suite que A est une matrice non singulière. Alors le
système (3.2.1) admet une solution unique.
Supposons que A soit une matrice triangulaire (par exemple triangulaire supé-
rieure). Alors le système (3.2.1) est de la forme :
a11 a12 · · a1n x1 b1
a22 · · a2n
x2 b2
Ax = · · · · · (3.2.2)
an−1n−1 an−1n xn−1 bn−1
an−1n xn bn
On constate que les SEL ayant une matrice triangulaire sont facile à résoudre. Les
méthodes directes de résolution des SEL se basent sur ce constat.
L’idée générale des méthodes directes de résolution du système (3.2.1) est de le
transformer en un système équivalent de la forme
Bx = b′ (3.2.6)
A(1) = A
b(1) = b
k = 1, 2, ...., n − 1 :
(k+1)
aij
(k)
= aij ; i = 1, ..., k; j = 1, ...n
(k+1)
aij = 0; i = k + 1, ..., n; j = 1, ...k
(k) (3.2.7)
Si akk = 0, Rechercher et positionner le P ivot finSin
(k) (k)
(k+1) (k) a a
aij = aij − ik (k)kj ; i = k + 1, ..., n; j = k + 1, ...n
akk
(k+1)
bi
(k)
= bi ; i = 1, ..., k
bi
(k+1) (k)
(k) (k)
a b
= bi − ik(k)k ; i = k + 1, ..., n
akk
A(n) x = b(n)
(n)
bn
xn = (n)
ann (3.2.8)
(n) ∑
n
(n)
bi − aij
xi = j=i+1
(n) i = n − 1, ..., 1
aii
3.2.2 Factorisation LU
3.2.3 Méthodes de Choleski ( Factorisation LLt )
La méthode de CHOLESKI pour la résolution du système (3.2.1) consiste à la
factorisation de la matrice A, lorsqu’elle est symétrique et définie positive, sous
la forme :
A = LLt (3.2.9)
où L est une matrice triangulaire inférieure inversible (construite par identification),
et Lt la matrice transposée de L.
Ainsi, le système (3.2.1) s’écrit :
LLt x = b. (3.2.10)
Si on pose :
Lt x = y, (3.2.11)
on résout d’abord :
Ly = b (3.2.12)
en utilisant les formules (3.2.4) (puisque L est triangulaire inférieure) et ensuite
Lt x = y, (3.2.13)
en utilisant les formule (3.2.5) (la matrice étant triangulaire supérieure). La méthode
de Choleski procède en trois étapes :
1ere étape : Calcul des coefficients de la matrice L
√
∑ 2
i−1
Lii = aii − Lik
( k=1
) , i = 1, ..., n (3.2.14)
∑
i−1
Lji = 1
Lii
aij − Lik Ljk , j = i + 1, ..., n
k=1
eme
2 étape : Résolution du système triangulaire inférieur Ly = b
y1 = (Lb11
1
)
∑
i−1
(3.2.15)
bi − Lik yk
k=1
yi = Lii
, i = 2, ..., n
3eme étape : Résolution du système triangulaire supérieure Lt x = y
xn = (Lynn
n
)
∑
n
(3.2.16)
yi − Lji xj
, i = n − 1, ..., 1
j=i+1
xi = Lii
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 37
Nombre d’opérations
3 3
La méthode de CHOLESKI requiert environ n6 additions, n6 multiplications et
n extractions de racines carrées ; il y a donc avantage à utiliser Choleski par rapport
à Gauss lorsque la matrice des coefficients du système est symétrique et définie
positive, de plus cette décomposition est stable.
2 2 2
[H(v)]t = (In − · vv t )t = In − · (vv t )t = In − · vv t = H(v).
∥v∥ 2 ∥v∥ 2 ∥v∥2
= In .
v1 = u + ∥u∥e;
v2 = u − ∥u∥e.
Alors on a :
En effet,
2
H(vi ) = In − · vi vit ;
∥vi ∥ 2
De même,
∥v1 ∥2 = 2(∥u∥2 − ∥u∥u1 )
La matrice B du système (3.3.2) est appelée matrice des itérations ou matrice asso-
ciée à la méthode itérative.
On considère la suite définie par (3.3.4). Soit ek le vecteur erreur d’itération à
l’ordre k + 1 (k ≥ 0). On a
ek = x(k+1) − x(k) = Bx(k) + c − Bx(k−1) − c = B[x(k) − x(k−1) ] = Bek−1 (3.3.6)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 41
ek = B k e0 (3.3.7)
La suite définie par (3.3.4) converge vers x∗ si et seulement si la suite définie par
(3.3.7) converge vers le vecteur nul. Une condition nécessaire et suffisante de conver-
gence de la suite (ek )k≥0 est
ρ(B) < 1 (3.3.8)
où ρ(B) désigne le rayon spectral de la matrice B. La vitesse de convergence de la
méthode (3.3.4) est alors donnée par
c = (I − B)A−1 b. (3.3.10)
Ny = z (3.3.12)
Ax = b (3.3.18)
Supposons que cette méthode soit convergente. Le début des itérations est marqué
par le choix du vecteur initial x(0) , qui doit être, lorsque c’est possible une bonne
estimation de la solution exacte x∗ du système. Dans le cas contraire, ce vecteur
peut être quelconque (par exemple égal au vecteur nul). Dans la pratique, on ne
pourra pas effectuer une infinité d’itération. Il faut donc définir une condition d’ar-
rêt des itérations. Ne cherchant qu’une approximation de x∗, la condition d’arrêt
peut être marquée par “ l’écart ” qui existe entre la solution approchée x(k) et la
solution exacte x∗. L’erreur absolue ou l’erreur relative de l’approximation à l’étape
k étant difficilement calculable (n’ayant pas la valeur de x∗), la condition d’arrêt
des itérations peut être imposée sur le vecteur résidu à l’étape k.
Soient
r(k) = b − Ax(k) , (3.3.19)
le vecteur résidu à l’étape k et ε > 0 une précision fixée. On définit les deux critères
d’arrêt suivants :
r(k) < ε, (3.3.20)
ou
r(k)
< ε. (3.3.21)
∥r(0) ∥
Lorsque x(0) est nul, l’inégalité (3.3.21) devient :
A = D − L − U, (3.3.26)
aii ̸= 0, i = 1, 2, · · · , n. (3.3.30)
Dans le cas contraire, on effectue des permutations de lignes nécessaires sur le sys-
tème.
Méthode de Jacobi :
On considère la décomposition (3.3.26) ci-dessus. On définit la méthode itérative
de Jacobi en posant :
N = D et P = L + U. (3.3.31)
La matrice N est inversible et facile inverser : car diagonale.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 44
On a
A = N − P, (3.3.32)
et la matrice d’itération de la méthode de Jacobi est donnée par :
J = N −1 P = D−1 (L + U ) (3.3.33)
a11 0 −a12 −a13 ··· −a1n
a22
−a21 0 −a23 ··· −a2n
N = , P = −a −a 0 ··· −a3n
... 31 32
··· ··· ··· ··· ···
ann −an1 −an2 −an3 ··· 0
0 − aa12
11
− aa11
13
· · · − aa1n
11
− a21 0 − aa23 · · · − aa2n
a22 22
N −1 P =
22
Pour k = 1, 2, · · · , itermax
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 45
Pour i = 1, 2, · · · , n
∑ n
(k) 1 (k−1)
xi = bi − aij xj (3.3.35)
aii
j=1
j ̸= i
Si le critère d’arrêt est vérifié : arrêter.
Dans le calcul de la ieme composante du vecteur x(k) , on utilise toutes les composantes
du vecteur x(k−1) , exceptée la iéme . Le calcul du vecteur x(k) nécessite le stockage de
x(k−1) .
La méthode itérative de Jacobi est encore appelée méthode des déplacements
simultanés
Méthode de Gauss-Seidel :
La méthode itérative de Gauss-Seidel est définie en posant :
N = D − L et P = U. (3.3.37)
On a
a11 0 0 ··· 0 0 −a12 −a13 · · · −a1n
a21 a22 0 ··· 0 0 0 −a23 · · · −a2n
N = a31 a32 a33
· · · 0 et P = · · · · · · ··· ··· ···
··· ··· ··· ··· ··· 0 0 0 · · · −an−1n
an1 an2 an3 · · · ann 0 0 0 ··· 0
La matrice d’itération de la méthode de Gauss-Seidel est donnée par :
G = N −1 P = (D − L)−1 U. (3.3.38)
Lorsque :
– ω = 1,on obtient la méthode de Gauss-Seidel ;
– ω > 1,on parle de sur-relaxation (SOR) ;
– ω < 1,on parle de sous-relaxation.
En utilisant la relation (3.3.44), la ieme composante du vecteur x(k+1) est donnée
par :
[ ]
(k) ∑n
(k) ∑
i−1
(k+1)
aii (1 − ω)xi + ωbi − ω aij xj − ω aij xj
(k+1) j=i+1 j=1
xi = , i = 1, 2, . . . , n.
aii
(3.3.45)
La relation (3.3.45) définit la solution du système triangulaire :
D’où
D’où ( )
x(k) − x = N −1 P x(k−1) − x + b. (3.3.53)
Définissons par :
e(k) = x(k) − x∗, k = 0, 1, 2, · · · ; (3.3.54)
le vecteur erreur à l’étape k. On a :
Toute matrice qui satisfait la condition (3.3.58) est appelée matrice convergente
On a
ρ(M ) = max |λi (M )| , (3.3.60)
1≤i≤n
Théorème 3.3.4. Si ∥.∥ est une norme matricielle subordonnée, alors pour toute
matrice carrée M on a
ρ(M ) ≤ ∥M ∥ (3.3.64)
∥M ∥ < 1, (3.3.65)
Théorème 3.3.6. Si la matrice A est à stricte dominance diagonale par ligne ou par
colonne, alors les méthodes itératives de Gauss-Seidel et de Jacobi sont convergentes.
Théorème 3.3.7. Si la matrice A est symétrique et définie positive, alors les mé-
thodes itératives de Gauss-Seidel et de Jacobi sont convergentes.
|ω − 1| < 1 (3.3.67)
Ax = b, (3.3.70)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 51
∇f (x) = Ax − b et H(f ) = A
1
f (x) = xT Ax − xT b + c (3.3.74)
2
minn f (x) = f (x∗) (3.3.75)
x∈R
Exemple 3.3.11. :
xk+1 = xk + αk dk (3.3.77)
d’où
αk2
f (xk+1 ) − f (xk ) = αk ⟨dk , Axk − b⟩ + ⟨dk , Adk ⟩
|2 {z }
>0
Donc si f (xk+1 ) < f (xk ), alors ⟨dk , Axk − b⟩ = ⟨dk , ∇f (xk )⟩ < 0
Pour que dk soit une direction de descente admissible, il faut que
La direction de grande pente dans la décroissance des valeurs de f (x) est donnée
par −∇f (x).
Si on pose
dk = −∇f (xk ) = rk , (3.3.79)
où rk = b − Axk désigne le résidu du système à l’étape k, alors dk est une direction
admissible et on a la méthode suivante :
xk+1 = xk + αk rk . (3.3.80)
⟨rk , rk ⟩ r T rk
0 < αk < 2 = 2 Tk (3.3.81)
⟨rk , Ark ⟩ rk Ark
Le paramètre optimal αk est tel que :
On a :
1
f (xk + λk rk ) = (xk + λk rk )T A(xk + λk rk ) − (xk + λk rk )T b
2
∂f
∂λk
= (xk + λk rk )T Ark − rkT b
= λk rkT Ark − rkT (b − Axk ) = λk rkT Ark − rkT rk
∂f rkT rk
=0 ⇒ λk = .
∂λk rkT Ark
Donc le paramètre optimal est :
rkT rk
αk =
rkT Ark
La méthode itérative définie par :
rkT rk
xk+1 = xk + rk (3.3.83)
rkT Ark
est appelée méthode des grandes pentes (method of steepest descent) ou méthode du
gradient.
Considérons la méthode itérative suivante :
xk+1 = xk + αk dk (3.3.84)
En pratique, pour limiter les effets de propagation des erreurs d’arrondi, le vecteur
résidu est calculé comme suit :
Sinon
vk = Ark
αk = (rkT rk )/(rkT vk )
xk+1 = xk + αk rk
rk+1 = rk − αk vk
FinSi
FinPour
ek+1 = ek + αk rk . (3.3.88)
∥v∥2A = v T Av ∀v ∈ Rn . (3.3.89)
On montre que
( )k
κ2 (A) − 1
∥ek ∥A ≤ ∥e0 ∥A , (3.3.90)
κ2 (A) + 1
où κ2 (A) désigne le conditionnement spectrale de A. On constate donc que plus la
matrice A est “ mal conditionné ” (κ2 (A) ≫ 1), plus la convergence de la méthode
du gradient est lente.
Directions conjuguées
Dans la méthode du gradient, il arrive parfois qu’une direction de recherche soit
utilisée plusieurs fois. Pour éviter cela, on peut par exemple prendre n directions de
recherche deux à deux orthogonale. Dans ce cas, on a :
xk+1 = xk + αk dk . (3.3.91)
D’où
eTk dk
αk = − (3.3.93)
dTk dk
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 55
N’ayant pas la valeur du vecteur erreur ek , il n’est pas possible de calculer la valeur
de αk .
Une alternative serait de remplacer la condition d’orthogonalité par la condition
de A−orthogonalité. Les vecteurs u et v sont A− orthogonaux ou conjugués si
uT Av = 0. (3.3.94)
D’où
. (3.3.96)
Ainsi choisies, les directions dk (k = 0, 1, . . . , n − 1) sont admissible. En effet,
xk+1 = xk + αk dk
α2
f (xk+1 ) < f (xk ) ⇔ −αk ⟨dk , rk ⟩ + 2k ⟨dk , Adk ⟩ < 0
⇔ 0 < αk < 2 ⟨d⟨dkk,Ad
,rk ⟩
k⟩
dTk rk T
dTk Aek+1 = −dTk rk+1 = −dTk rk + T d Adk = 0
dk Adk k
et
dTk ∇f (xk ) = −dTk rk = −rkT rk − βk dTk−1 rk = −rkT rk .
| {z }
=0
D’où :
dTk rk = rkT rk (3.3.98)
et
rkT rk
αk = (3.3.99)
dTk Adk
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 56
On suppose que les valeurs de dk , βk et sont respectivement données par les relations
(3.3.95), (3.3.96) et (3.3.99). La méthode itérative définie par
xk+1 = xk + αk dk (3.3.100)
rk = b − Axk . (3.3.101)
On a le résultat suivant :
F (X) = 0. (4.1.1)
G(X) = X. (4.1.2)
58
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 59
Il serait très coûteux d’évaluer à chaque itération, la matrice M (X (n) )−1 . En posant
on obtient
M (X (n) )∆X (n) = −F (X (n) ), (4.2.5)
et
X (n+1) = X (n) + ∆X (n) . (4.2.6)
Une itération de la méthode consiste alors à résoudre le système (4.2.5) et à cal-
culer l’itérée suivante par la formule (4.2.6). On peut noter ici l’importance des
méthodes de résolution des systèmes d’équations linéaires dans la résolution des
systèmes d’équations non linéaires.
G(X) = X − F (X)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 60
et on déduit la suite {
X (0) ∈ B
(4.3.1)
X (n+1) = X (n) − F (X (n) )
qui définit la méthode des approximations successives.
Exemple 4.3.1.
La méthode itérative définie par (4.4.1) peut être généralisée au cas N > 1 par :
{
X (0) ∈ B
, (4.4.2)
X (n+1)
= X − J −1 (X (n) )F (X (n) )
(n)
où J(X (n) ) est la matrice Jacobienne de l’application F au point X (n) . La relation
(4.4.2) définie la méthode de Newton pour la résolution du problème (4.1.1). La
méthode de Newton n’est bien définie que si la matrice jacobienne de la fonction F
est inversible au voisinage de la solution X ′ du problème (4.1.1).
Chapitre 5
61
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 62
Exemple 5.1.1. On considère le tableau des données suivantes qui sont les valeurs
aux points xi d’une fonction f définie sur [0, 1].
1
x 0 2
1
y 1 e1/2 e
Le polynôme d’interpolation de Lagrange associé aux données du tableau ci-dessus
est défini par :
Erreur d’approximation
On suppose que la fonction f ∈ C n ([m, M ]). D’après le théorème générale de
l’erreur d’interpolation polynômiale de Lagrange, on a :
w(x) (n+1)
f (x) − pn (x) = f (ξx ),
(n + 1)!
∏
où (ξx ) ∈ [m, M ] et w(x) = ni=0 (x − xi ).
Lorsque la fonction f (n+1) est dérivable sur [m, M ], on obtient l’erreur d’approxi-
mation suivante : ( )
′ ′ d w(x)f (n+1)
f (x) − pn (x) = .
dx (n + 1)!
Ainsi, on a :
f (x0 + h) = f (x0 ) + hf ′ (x0 ) + O(h2 )
d’où
f (x0 + h) − f (x0 )
f ′ (x0 ) = + O(h).
h
La dérivée de la fonction f en x0 peut être approchée par la formule aux différences
suivante :
f (x0 + h) − f (x0 )
f ′ (x0 ) ≈ = y0′ . (5.2.1)
h
La relation (5.2.1) est connue sous le nom de formule aux Différences décentrées.
Lorsque h > 0, la formule (5.2.1) est appelée Différence Finie décentrée à droite.
Lorsque h < 0, (5.2.1) s’écrit encore
f (x0 ) − f (x0 − h1 )
f ′ (x0 ) ≈ = y0′ . (5.2.2)
h1
où h1 = −h > 0. Ainsi, la formule (5.2.2) est appelée Différence Finie décentrée à
gauche.
Pour les schémas aux différences finies décentrées, on a :
Donc l’ordre de l’erreur d’approximation dans ces cas vaut 1 lorsque f est de classe
C 1 et f ′′ est bornée au voisinage de x0 .
On suppose maintenant que n ≥ 2 et que [x0 − h, x0 + h] ⊂ V (h > 0). Le
développement de Taylor à l’ordre 2 de la fonction f au voisinage de x0 donne :
h2 ′′
f (x0 + h) = f (x0 ) + hf ′ (x0 ) + f (x0 ) + O(h3 ) (5.2.4)
2
et
h2 ′′
′
f (x0 − h) = f (x0 ) − hf (x0 ) + f (x0 ) + O(h3 ) (5.2.5)
2
En soustrayant membre à membre les équations (5.2.4) et (5.2.5), on obtient :
Ainsi,
f (x0 + h) − f (x0 − h)
f ′ (x0 ) = + O(h2 ). (5.2.7)
2h
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 64
Donc l’ordre de l’erreur d’approximation dans ce cas vaut 2 lorsque f est de classe
C 2 et f 3 est bornée au voisinage de x0 .
6.1 Interpolation
6.1.1 Introduction
Dans ce chapitre, nous considérons le problème de l’approximation d’une fonction
donnée par une classe de fonctions ”facile” à manipuler.
Soit u(x) une fonction définie sur [a, b] (a < b), dont l’expression n’est pas vrai-
ment connue (les valeurs sont données en un nombre fini de points de [a, b] appelés
noeuds) ou qu’elle est difficile á manipuler.
On suppose que la fonction u(x) appartient á un espace vectoriel V qui contient
des fonction définies sur [a, b] (Par exemple, V = C([a, b]), V = C k ([a, b]), k ∈ N).
On cherche une approximation uh (x) de u(x) dans V h ⊂ V, un sous-espace vectoriel
des fonctions disponibles et facile à manipuler (par exemple des polynòmes).
On suppose que le sous-espace V h est de dimension finie n + 1 (n ∈ N). Alors on
a:
∑n
u(x) ≈ u (x) =
h
aj ϕ(x), (6.1.1)
j=0
òu les {aj }0≤j≤n sont des paramétres inconnus à déterminer et les {ϕj }0≤j≤n sont
des fonctions connues formant une base de l’espace vectoriel V h . Les coefficients
{aj }0≤j≤n déterminent entièrement l’approximation uh (x) de u(x).
Les méthodes de construction d’une approximation de u(x) sont caractérisées
par le
– choix des fonctions de base {ϕj }0≤j≤n ;
– procédé de détermination des coefficients {aj }0≤j≤n .
Dans la suite, on suppose connues les valeurs de la fonction u(x) aux abscisses
(noeuds) a ≤ x1 < x2 < · · · < xn ≤ b et données par :
u(xi ) = yi ; i = 0, 1, 2, · · · , n. (6.1.2)
On cherche généralement une approximation uh de u de sorte que
– Soit uh (x) passe exactement par les points xi (0 ≤ i ≤ n ie
uh (xi ) = u(xi ) = yi ; i = 0, 1, 2, · · · , n. (6.1.3)
65
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 66
Dans ce cas, on dit que uh (x) est une interpolation de u(x) relativement au
abscisses xi (0 ≤ i ≤ n, appelées points ou noeuds d’interpolation. L’intervalle
[x0 , xn ] est appelé intervalle d’interpolation. Les valeurs uh (x) pour x ∈
/ [x0 , xn ]
sont des valeurs extrapolées.
– Soit uh (x) ne passe pas par tout les points xi (0 ≤ i ≤ n, mais s’en rapproche
selon un critère à préciser. On a
uh (xi ) ≈ yi ; i = 0, 1, 2, · · · , n. (6.1.4)
où {ϕj }0≤j≤n forme une base de l’ensemble Pn des polynômes de degré inférieur où
égale à n. Alors les coefficients ak (k = 0, 1, · · · , n) sont déterminer en résolvant le
système d’équation linéaire suivant :
ϕ0 (x0 ) ϕ1 (x0 ) ϕ2 (x0 ) · · · ϕn (x0 ) a0 y0
ϕ0 (x1 ) ϕ1 (x1 ) ϕ2 (x1 ) · · · ϕn (x1 ) a1 y1
ϕ0 (x2 ) ϕ1 (x2 ) ϕ2 (x2 ) · · · ϕn (xn ) a2 y2
= (6.1.6)
.. .. .. .. .. ..
. . . . . .
ϕ0 (xn ) ϕ1 (xn ) ϕ2 (xn ) · · · ϕ0 (x0 ) an yn
Il existe Plusieurs possibilités pour le choix de la base {ϕj }0≤j≤n .
• Si on considère la base {1, x, x2 , · · · , xn } constituée des monômes, le système (6.1.6)
devient
1 x0 x20 · · · xn0 a0 y0
1 x1 x2 · · · xn a1 y1
1 1
1 x2 x2 · · · xn a2 y2
2 2 = . (6.1.7)
.. .. .. .. .. ..
. . . . . .
1 xn xn · · · xnn
2
an yn
La matrice du système (6.1.7) est appelé matrice de Vandermonde associée aux
points xi (i = 0, 1, · · · , n) et son déterminant, appelé déterminant de Vadermonde
et donné par
1 x0 x20 · · · xn0
1 x1 x21 · · · xn1 ∏
n
V (x0 , x1 , · · · , xn ) = 1 x2 x22 · · · xn2 = (xi − xj ) ̸= 0. (6.1.8)
.. .. .. ..
. . . . i, j = 0
1 xn x2n · · · xnn i>j
Le déterminant du système (6.1.7) étant non nul, il possède une solution unique.
Donc il existe un polynôme de degré au plus égale à n qui interpole la fonction
u. Bien que le déterminant de ce système soit facile à calculer, la résolution de ce
système n’est pas aisée. Un choix judicieux des fonctions de base permettrait d’éviter
la résolution du système (6.1.6).
Méthode de Lagrange
Les polynômes de Lagrange associés aux points xi (i = 0, 1, · · · , n) sont les n + 1
polynômes li (x) de degré au plus égale à n, vérifiant la relation suivante :
{
0 si i ̸= j
li (xj ) = δij = . (6.1.9)
1 si i = j
Les polynômes li (x) forment une base de Pn . En effet, comme dim(Pn ) = n + 1, il
suffit de montrer que les li (x) forment un système libre. Soit (α0 , α1 , · · · , αn ) ∈ Rn
tel que
∑n
αi li (x) = 0.
i=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 68
Comme le polynôme q(x) est de degré n, le polynôme a(x) est de degré 0. Donc
a(x) = a. On donc
∏
n
1
li (xi ) = a (xi − xk ) = 1 ⇒ a = ∏ n .
k=0,k̸=i
(xi − xk )
k̸=i
On obtient alors ∏
(x − xk )
k̸=i
li (x) = ∏ . (6.1.13)
(xi − xk )
k̸=i
Théorème 6.1.2. Soit [a, b] ⊂ R un intervalle fermé et borné, {xj }0≤j≤n un en-
semble de n + 1 points distincts de [a, b]. Soit u(x), une fonction inconnue définie
sur [a, b]. On suppose que les valeurs de u(x) aux points {xj }0≤j≤n sont données par
{u(xj ) = yj }0≤j≤n . Alors, Il existe un polynôme pn (x) de degré < n et un seul tel
que
pn (xi ) = u(xi ), i = 0, 1, 2, . . . , n; (6.1.14)
ce polynôme s’écrit
∑
n
pn (x) = u(xi )li (x), (6.1.15)
i=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 69
où
∏n
x − xj
li (x) = . (6.1.16)
j=0,i̸=i
xi − xj
x 1 2 3
y 3 −10 2
Solution : Pour ces données, les polynômes de Lagrange sont :
(x − 2)(x − 3) 1
l0 (x) = = (x − 2)(x − 3)
(1 − 2)(1 − 3) 2
(x − 1)(x − 3)
l1 (x) = = −(x − 1)(x − 3)
(2 − 1)(2 − 3)
(x − 1)(x − 2) 1
l2 (x) = = (x − 1)(x − 2)
(3 − 1)(3 − 2) 2
Le polynôme d’interpolation de Lagrange associé à ces données est :
3
p2 (x) = (x − 2)(x − 3) + 10(x − 1)(x − 3) + (x − 1)(x − 2).
2
Méthode de Newton
Considérons l’ensemble des valeurs données par le tableau suivant :
x x0 x1 ··· xn
,
y y0 y1 ··· yn
pi (xj ) = yj , j = 0, 1, . . . , i. (6.1.17)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 70
1.5
l (x)
1
l2(x)
l3(x)
1
0.5
−0.5
0.5 1 1.5 2 2.5 3 3.5
Figure 6.1 – Fonctions de base de Lagrange associées aux noeuds {1, 2, 3}.
15
10
−5
−10
−15
0.5 1 1.5 2 2.5 3 3.5
p0 (x) = y0
où ck+1 est une constante à déterminer. On peut observer que pk (xj ) = yj (0 ≤ j ≤
k). La constante c est obtenu en imposant (6.1.17) pour i = k + 1. Ainsi, on a :
D’où
yk+1 − pk (xk+1 )
ck+1 =
(xk+1 − x0 )(xk+1 − x1 ) · · · (xk+1 − xk )
Il s’agit de la méthode de Newton.
En procédant par récurrence, on montre que :
(k−1 )
∑ n ∏
pn (x) = y0 + ck (x − xj ) . (6.1.18)
k=1 j=0
p0 (x) = 3
p1 (x) = 3 + c1 (x − 1)
u0 = 25
2
; u1 = −13 + u0 (t − 1); u2 = 3 + u1 (t − 2) = p2 (x).
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 72
u0 = cn ;
u1 = cn−1 + u0 (t − xn−1 );
u2 = cn−2 + u1 (t − xn−2 );
..
.
un = c0 + un−1 (t − x0 ) = pn (t).
Différences Divisées.
Soit f une fonction définie sur [a, b] et {xi }ni=0 ⊂ [a, b], un ensemble de noeuds.
On suppose connues les valeurs {f (xi )}ni=0 de f aux noeuds {(xi )}ni=0 .
Definition 6.1.1. On appelle Différence Divisée d’ordre k de f aux k + 1 noeuds
(non nécessairement distincts) xi0 , xi1 , . . . , xik le scalaire
f [xi ] = f (xi );
f [xi1 , xi2 , . . . , xik ] − f [xi0 , xi1 , . . . , xik−1 ]
f [xi0 , xi1 , . . . , xik ] = . (6.1.19)
xik − xi0
Le coefficient ck de la forme de Newton du polynôme d’interpolation est alors
donné par :
ck = f [x0 , x1 , . . . , xk ]. (6.1.20)
Par définition, f [x0 , x1 , . . . , xk ] ne dépend pas de l’ordre des noeuds xi et peut être
calculé explicitement en fonction de f (x0 ),. . .,f (xn ) en ne considérant que les diffé-
rences divisées de la forme f [xj , xj+1 , . . . , xj+k ]. Ainsi, nous avons
x f[ ] f[ , ] f[ , , ] f[ , , , ]
x0 f [x0 ]
f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ]
f [x1 , x2 ] f [x0 , x1 , x2 , x3 ]
..
x2 f [x2 ] f [x1 , x2 , x3 ] .
.. ..
f [x2 , x3 ] . .
.. .. ..
x3 f [x3 ] . . .
.. .. .. .. ..
. . . . .
.. .. .. .. ..
. . . . .
Les calculs s’effectuent colonne après colonne en commençant par la 2eme colonne,
dont les valeurs sont : f [xi ] = f (xi ).
Exemple 6.1.5. Déterminer les différences divisées pour les données suivantes et
déduire le polynôme interpolant les données
x 1 2 3
y 3 −10 2
Solution : Les différences divisées d’ordre 0 s’obtiennent facilement en posant
f [xi ] = yi . On a
x f[ ] f[ , ] f[ , , ] Calculons les f [ , ]
1 3 f [x0 , x1 ] = f [xx11]−f [x0 ]
= −10−3 = −13
−x0 2−1
f [x2 ]−f [x1 ] 2+10
f [x1 , x2 ] = x2 −x1 = 3−2 = 12
2 −10
et
3 2 f [x0 , x1 , x2 ] = f [x1 ,xx22]−f [x0 ,x1 ]
−x0
= 12+13
3−1
= 25/2
Interpolation d’Hermite
Soit f une fonction définie [a, b]. On suppose que les valeurs de f et de ses dérivées
jusqu’à l’ordre αi sont connues aux points xi de [a, b] (i = 0, 1, ..., k). On considère
le problème suivant :
{
Trouverpn ∈ Pn , n = k + α0 + α1 + · · · + αk tel que
(l) (6.1.21)
∀(i, l) avec 0 ≤ i ≤ k et 0 ≤ l ≤ αi , pn (xi ) = f (l)(xi ).
Le problème (6.1.21) conduit à un système de n + 1 équations linéaires à n + 1
inconnues qui sont les coefficients de pn . L’equation homogène associée au problème
(6.1.21) est :
∀(i, l) avec 0 ≤ i ≤ k et 0 ≤ l ≤ αi , p(l)
n (xi ) = 0.
avec ( )αj +1
∏k
x − xj
qi (x) = .
xi − xj
j=0,j̸=i
1 ∏k
f (x) − p(x) = f (n+1) (ξx ) (x − xi ), ξx ∈ [a, b]. (6.1.23)
(n + 1)! i=0
Corollary 6.1.7. Soit Mn+1 = max |f (n+1) (x)|. Une majoration de l’erreur d’in-
x∈[a,b]
terpolation E(x) = f (x) − pn (x) est donnée par :
Mn+1
|E(x)| = |πn (x)|. (6.1.24)
(n + 1)!
∏
k
max |x − xi |,
x∈[a,b]
i=0
avec
(b − a)
xi = a + hi = a + i, i = 0, 1, . . . , n.
n
Soit x ∈ [a, b]. On suppose que x est différent des points d’interpolation. Alors, il
existe k < n telle que x ∈ [xk , xk+1 ]. La fonction x 7→ |x − xk ||x − xk+1 | atteint son
maximum en xk +x2 k+1 et on a :
h2
|x − xk ||x − xk+1 | ≤ .
4
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 76
25
data1
exp(x)
20
p3(x)
15
10
−5
−1 −0.5 0 0.5 1 1.5 2 2.5 3
D’autre par, on |x−xi | ≤ (k −i+1)h pour i < k et |x−xi | ≤ (i−k)h pour k +1 < i.
D’où
∏k
h2
|x − xi | ≤ [(k + 1)!hk ][(n − k)!hn−k−1 ].
i=0
4
Comme (j + 1)!(n − j)! ≤ n!, on obtient :
∏
k
hn+1 n! hn+1
|x − xi | ≤ , et |E(x)| ≤ Mn+1 .
i=0
4 4(n + 1)
Exemple 6.1.9. Un cas de divergence dans le choix des noeuds équidistants : la
function de Runge.
La fonction de Runge est définie pour tout x ∈ R par :
1
f (x) = .
1 + x2
Soit pn (x) le polynôme d’interpolation de f relativement au n+1 noeuds équidistants
sur [−5, 5] tels que x0 = −5 et xn = 5. Alors on a
lim max |f (x) − pn (x)| = +∞.
n−→+∞ x∈[−5,5]
Le polynôme d’interpolation pn (x) est représenté par les figures suivantes pour les
valeurs n = 5, 10, 15, 20 noeuds.
Cependant, il existe un meilleur choix des noeuds d’interpolation qui permet de
minimiser l’erreur d’interpolation en minimisant
∏n
max |x − xi |.
x∈[a,b]
i=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 77
1.2 2
runge runge
p5(x) p10(x)
1
data3 data3
1.5
0.8
1
0.6
0.4
0.5
0.2
0
0
−0.2 −0.5
−5 0 5 −5 0 5
2.5 10
runge
p (x)
15 0
2
data3
−10 runge
1.5 p20(x)
data3
−20
1
−30
0.5
−40
0
−50
−0.5 −60
−5 0 5 −5 0 5
Ce sont les noeuds ou points de Tchebychev. Ces noeuds sont définies sur [−1, 1]
par : ( )
2i + 1
xi = cos π , (6.1.25)
2n + 2
et ont la propriété suivante :
∏
n
max |t − xi | ≤ 2−n . (6.1.26)
t∈[−1,1]
i=0
On montre que pour tout autre choix ti (i = 0, 1, . . . , n) de noeuds dans [−1, 1], on
a
∏n
max |t − xi | ≥ 2−n . (6.1.27)
t∈[−1,1]
i=0
(b − a)( n + 1)
|f (x) − pn (x)| ≤ 2n+1 max |f (n+1) (ξ)|, ∀x ∈ [a, b]. (6.1.30)
2 (n + 1)! ξ∈[a,b]
1.2 1.2
runge
cheb11
1 1
data3
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−0.2 −0.2
−5 0 5 −5 0 5
1 1.4
runge runge
0.9 cheb17 cheb
23
1.2
data3 data3
0.8
0.7 1
0.6
0.8
0.5
0.6
0.4
0.3 0.4
0.2
0.2
0.1
0 0
−5 0 5 −5 0 5