Vous êtes sur la page 1sur 80

COURS DE METHODES NUMERIQUES

Ecole Polytechnique

Awono Onana
et
Jacques Tagoudjeu
Table des matières

1 Rappels et Complements 5
1.1 Développement de Taylors . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Théorèmes classiques d’analyse (Rolles, Accroissement finis, valeur
intermédiaire, point fixe) . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Théorème de Rolles . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Suite Convergente . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Espaces métriques complets . . . . . . . . . . . . . . . . . . . 8
1.4 Normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Espaces Normés . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Espaces de Banach . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.1 Espaces de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6.1 Valeurs propres, vecteurs propres . . . . . . . . . . . . . . . . 8
1.6.2 Matrices convergentes . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Processus itératifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Vitesse de convergence (logarithmique, linéaire, exponentielle) 9
1.7.2 Illustrations des processus de convergence . . . . . . . . . . . 9

2 Méthodes de résolution des équations non linéaires 10


2.1 Position du problème. . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Existence des solutions des équations non linéaires . . . . . . . 10
2.1.2 Localisation de la solution de l’équation (2.1.1) . . . . . . . . 10
2.2 Méthode de la bissection . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2 Convergence de la méthode de bissection . . . . . . . . . . . . 12
2.3 Résolution des equations g(x) = x : Méthode des approximations
successives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Principe de la méthode. . . . . . . . . . . . . . . . . . . . . . 14
2.3.2 Interprétation graphique de la méthode. . . . . . . . . . . . . 14
2.3.3 Etude de la convergence de la méthode des approximations
successives. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 2

2.4 Accélération de la convergence linéaire : formule d’Aitken et méthode


de Steffensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.1 Formule d’Aitken . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.2 Méthode de Steffensen . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Méthode des cordes pour la résolution des équations f (x) = 0. . . . . 20
2.5.1 Principe de la méthode des cordes. . . . . . . . . . . . . . . . 20
2.6 Méthode de Newton-Raphson. . . . . . . . . . . . . . . . . . . . . . 21
2.6.1 Principe de la méthode. . . . . . . . . . . . . . . . . . . . . . 21
2.6.2 Convergence de la méthode de Newton. . . . . . . . . . . . . . 22
2.6.3 Schéma du programme pour la méthode de Newton . . . . . . 24
2.7 Méthode de la sécante. . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Principe de la méthode. . . . . . . . . . . . . . . . . . . . . . 24
2.7.2 Interpretation de la méthode de la sécante. . . . . . . . . . . . 25
2.7.3 Convergence de la méthode de la sécante . . . . . . . . . . . . 26
2.7.4 Schéma du programme pour la méthode de la sécante. . . . . 28
2.7.5 Convergence des méthodes de Newton et de la sécante pour
les racines multiples. . . . . . . . . . . . . . . . . . . . . . . . 28
2.8 Méthode de la fausse position (Regula-Falsi) . . . . . . . . . . . . . . 28
2.8.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . 28
2.8.2 Convergence de la méthode de la fausse position . . . . . . . . 30
2.8.3 Schéma de programme pour la méthode de la fausse position . 30
2.8.4 conclusion. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Méthodes de résolution des systèmes d’équations linéaires 33


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Méthodes Directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Méthodes de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.2 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Méthodes de Choleski ( Factorisation LLt ) . . . . . . . . . . . 36
3.2.4 Méthode de Householder (Factorisation QR) . . . . . . . . . . 37
3.3 Méthodes Itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.1 Méthodes Itératives Stationnaires . . . . . . . . . . . . . . . . 40
3.3.2 Exemple de Méthodes Itératives non Stationnaires : Méthode
du Gradient Conjugué (CG : Conjugate Gradient) . . . . . . . 50

4 Méthodes de résolution des systèmes d’équations non linéaires 58


4.1 Position du Problème . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2 Une méthode de construction du problème du point fixe équivalent . 59
4.3 Méthode des approximations successives . . . . . . . . . . . . . . . . 59
4.4 Méthode de Newton et ses variantes . . . . . . . . . . . . . . . . . . . 60

5 Méthodes des Diférences Finis 61


5.1 Les formules aux différences . . . . . . . . . . . . . . . . . . . . . . . 61
5.1.1 Méthodes basées sur l’interpolation polynomiale . . . . . . . . 61
5.2 Méthode des Différences Finies . . . . . . . . . . . . . . . . . . . . . 62
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 3

5.2.1 Approximation de la dérivée d’une fonction . . . . . . . . . . 63


5.2.2 Approximation de la dérivée seconde . . . . . . . . . . . . . . 64
5.3 Etude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.3.1 Equation de Poisson (1D et 2D) . . . . . . . . . . . . . . . . . 64
5.3.2 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . 64

6 Méthodes des Eléments Finis 65


6.1 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.1.2 Interpolation Polynômiale . . . . . . . . . . . . . . . . . . . . 66
6.2 Intégration Numérique . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.3 Méthodes variationnelles . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.4 Etude de cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.4.1 Equation de Poisson (1D et 2D) . . . . . . . . . . . . . . . . . 79
6.4.2 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . 79
INTRODUCTION

4
Chapitre 1

Rappels et Complements

Préliminaires
On donne dans ce chapitre quelques rappels des notions d’analyse et d’algèbre
linéaire, nécessaires pour la construction et l’analyse des méthodes numériques.
On désigne par C n ([a, b]) (n ∈ N) l’ensemble des fonctions définies et n fois
continûment dérivables sur l’intervalle [a, b]. C([a, b]) = C 0 ([a, b]).
Soit f une fonction définie sur [a, b]. On désigne par f (n) la dérivée d’ordre n de
la fonction f , lorsqu’elle existe. f (0) = f

1.1 Développement de Taylors


Soit f ∈ C n ([a, b]). On suppose que f (n+1) existe sur ]a, b[. Soit x0 ∈ [a, b]. Alors
pour tout x ∈ [a, b], il existe ξx compris entre x et x0 tel que

n
(x − x0 )k (x − x0 )n+1
f (x) = f (x0 ) + f (k) (x0 ) + f (n+1) (ξx ) (1.1.1)
k! (n + 1)!
| k=1
{z } | {z }
Rn f (x)
Pn f (x)

– La relation (1.1.1) définit le développement de Taylors à l’ordre n de la fonction


f au voisinage de x0 sur [a, b].
– Le polynôme Pn f est la partie principale du développement de Taylors à l’ordre
n de la fonction f au voisinage de x0 sur [a, b]. On l’appelle encore polynôme
de Taylors d’ordre n de la fonction f au voisinage de x0 sur [a, b].
– La fonction Rn f définit le reste d’ordre n du développement de Taylors de la
fonction f au voisinage de x0 sur [a, b].
Lorsque x0 = 0, on obtient alors le développement de McLaurin de la fonction f
suivant :
∑ n
xk xn+1
f (x) = f (0) + f (k) (0) + f (n+1) (ξx ) (1.1.2)
k=1
k! (n + 1)!
Soit x0 ∈ [a, b] fixé. On suppose que la fonction f admet de Taylors à l’ordre n
au voisinage de x0 sur [a, b]. Soit x ∈]a, b[. En approchant f (x) par Pn f (x), on a

5
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 6

l’erreur d’approximation suivante :


(x − x0 )n+1
f (x) − Pn f (x) = Rn f (x) = f (n+1)
(ξx ) , (1.1.3)
(n + 1)!
où ξx est un réel compris entre x et x0 . Dès lors, on a :
(x − x0 )n+1
|f (x) − Pn f (x)| = f (n+1) (ξx ) (1.1.4)
(n + 1)!

Si f (n+1) est bornée sur ]a, b[, alors il existe une constante strictement positive Mn+1
telle que,
|f (n+1) (ξx )| ≤ Mn+1 .
Ainsi, on a la majoration suivante de l’erreur d’approximation :
(x − x0 )n+1 (b − a)n+1
|f (x) − Pn f (x)| ≤ Mn+1 ≤ Mn+1 (1.1.5)
(n + 1)! (n + 1)!
En posant h = x − x0 , l’erreur d’approximation de f (x) par Pn f (x) est donnée par :

hn+1
En (h) = f (n+1) (ξx ) . (1.1.6)
(n + 1)!

Lorsque f (n+1) est bornée sur ]a, b[, l’erreur En (h) est un O (hn+1 ) et l’approximation
de f (x) par Pn f (x) est d’ordre 2 au voisinage de x0 .
Exemple 1.1.1. On considère la fonction définie sur R par f (x) = cos(x).
1. Donner une approximation de f au voisinage de 0 pour n = 3.
2. Utiliser cette approximation pour obtenir des valeurs approchées de
cos(0.01), cos(0.05), cos(0.1), cos(1).
3. Donner une majoration de l’erreur d’approximation dans chaque cas.
Exemple 1.1.2. On considère la fonction définie sur R∗+ par f (x) = ln(x).
1. Donner une approximation de f au voisinage de 1 pour n = 3.
2. Utiliser cette approximation pour obtenir des valeurs approchées de
ln(1.1), ln(1.2), ln(1.3), ln(1.4), ln(1.5).
3. Donner une majoration de l’erreur d’approximation dans chaque cas.

1.2 Théorèmes classiques d’analyse (Rolles, Ac-


croissement finis, valeur intermédiaire, point
fixe)
1.2.1 Théorème de Rolles
On considère sur [a, b] la fonction f .
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 7

Théorème de la valeur moyenne


On suppose que f ∈ C([a, b]) et est dérivable sur ]a, b[. Alors il existe c ∈]a, b[ tel
que
f (b) − f (a)
f ′ (c) = . (1.2.1)
b−a
C’est-à-dire (géométriquement) qu’il existe un point de la courbe représentative de
f sur [a, b] où la tangente à la courbe est parallèle à la droite passant par les points
(a, f (a)) et (b, f (b)).

Figure 1.1 – Interprétation graphique du théorème de la valeur moyenne.

Théorème de Rolles
On suppose que f ∈ C([a, b]) et est dérivable sur ]a, b[. Si f (a) = f (b), alors il
existe c ∈]a, b[ tel que
f ′ (c) = 0. (1.2.2)
C’est-à-dire (géométriquement), la courbe représentative de f sur [a, b] admet au
moins un extremum local. Une interprétation graphique du théorème de Rolles est
donnée par la FIG. 1.2.

Théorème de la valeur maximale


On suppose que f ∈ C([a, b]). Alors, il existe c1 , c2 ∈ [a, b] tels que

∀x ∈ [a, b], f (c1 ) ≤ f (x) ≤ f (c1 ). (1.2.3)

Si de plus, f est dérivable sur ]a, b[, alors les points c1 et c2 sont soit des bornes
de l’intervalle [a, b], soit des extremas de la fonction f sur [a, b].
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 8

Figure 1.2 – Interprétation graphique du théorème de Rolles.

1.3 Espaces métriques


1.3.1 Métrique
1.3.2 Suite Convergente
1.3.3 Espaces métriques complets

1.4 Normes
1.4.1 Espaces Normés
1.4.2 Espaces de Banach

1.5 Produit scalaire


1.5.1 Espaces de Hilbert

1.6 Matrices
1.6.1 Valeurs propres, vecteurs propres
1.6.2 Matrices convergentes

1.7 Processus itératifs


Les Processus iteratifs sont très utilisés dans la résolution numérique des pro-
blèmes mathématiques. Une méthode itérative pour l’approximation d’une valeur
(scalaire, vectorielle, ...) x, procède généralement en deux étapes :
– déterminer une approximation initiale x0 de x ;
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 9

– pour k ≥ 0, utiliser les valeurs xm (0 ≤ m ≤ k) déjà calculées, pour determiner


une meilleure approximation xk+1 de x.

1.7.1 Vitesse de convergence (logarithmique, linéaire, expo-


nentielle)
1.7.2 Illustrations des processus de convergence
Chapitre 2

Méthodes de résolution des


équations non linéaires

2.1 Position du problème.


Soit f : [a, b] −→ R , une application continue. On cherche dans l’intervalle [a,b]
la solution de l’équation
f (x) = 0. (2.1.1)
Mis à part quelques cas ( rares dans la pratique )où l’on obtient directement la
solution de l’équation (2.1.1) à partir de l’expression de f (x), on approche numéri-
quement la solution de cette équation, à condition qu’elle existe.

Definition 2.1.1. l’équation (2.1.1) est appelée équation non linéaire.

Pour résoudre numériquement l’équation (2.1.1), on construit généralement, une


suite (xn ) de sorte que : x̃ = lim xk , vérifie f (x̃) = 0.
k−→∞

2.1.1 Existence des solutions des équations non linéaires


Proposition 2.1.1. (Théorème de la valeur intermédiaire.)
Si la fonction f est continue sur l’intervalle fermé et borné [a, b] ⊂ R, et vérifie
la condition
f (a).f (b) ≤ 0. (2.1.2)
Alors f s’annule en au moins un point de [a, b] .

2.1.2 Localisation de la solution de l’équation (2.1.1)


Il s’agit de trouver un domaine D de [a, b] dans lequel il existe une unique so-
lution de l’équation f (x) = 0. pour cela, on utilise généralement deux méthode de
localisation de la solution : la méthode graphique et la méthode de balayage.
1. Méthode graphique : On construit le graphe de f et le domaine est la partie
de [a, b] où ce graphe coupe l’axe des abscisses.

10
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 11

2. Méthode de balayage : On effectue un maillage régulier de l’intervalle [a, b]


en posant x0 = a, xi = xi−1 + h, où h = b−a N
et i= 1,...,N ; puis par une
application du théorème de la valeur intermédiaire, on retrouve le domaine D
en vérifiant si f(xi ).f(xi+1 ) ≤0.
On suppose dans la suite que l’on a trouvé un intervalle [a, b], dans lequel il existe
une unique racine de f . Sous les hypothèses de la proposition 2.1.1, une méthode
numérique d’approximation de la racine de f dans l’intervalle [a, b], est celle de la
bissection.

2.2 Méthode de la bissection


2.2.1 Principe de la méthode
Soit f une application continue et monotone sur [a, b] telle que : f (a).f (b) < 0.
D’après le théorème de la valeur intermédiaire, il existe x̃ ∈ (a, b) telle que f (x̃) = 0.
La méthode de la bissection consiste à construire une suite décroissante d’inter-
valle In = (an , bn ) contenant la racine x̃ de l’équation f (x) = 0, et avec
|b − a|
|In | = ; ∀n ∈ N, (2.2.1)
2n
en opérant comme suit : {
a0 = a
b0 = b
( )
Si f ( an +bn
2 )
= 0 on arrête le processus.
Si f an +bn
2
· f (an ) < 0, alors
{
an+1 = an
bn+1 = an +b
2
n

sinon {
an+1 = an +b
2
n
.
bn+1 = bn
On a : 
 an+1 ≥ an
bn+1 ≤ bn , n∈N

bn − an = b−a
2n
et In = (an , bn ). On montre que
lim an = lim bn = c et f (c) = 0.
n→∞ n→∞

Le réel c est donc la racine recherchée.


A l’étape n de la méthode, la racine de l’équation se trouve dans un intervalle
de longueur b−a 2n
; on peut donc prendre comme valeur approchée de la solution le
milieu de l’ intervalle In . On commet dès lors une erreur maximal :
1b−a b−a
en = n
= n+1 . (2.2.2)
2 2 2
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 12

Si l’approximation est voulue avec une précision ε, on arrête le processus dès que

|an − bn | < ε,

soit au bout de N itérations avec :


[ ]
b−a
N = log2 +1 (2.2.3)
ε
On aboutit au schéma de programme suivant :
– Données : a, b tels que f (a).f (b) < 0
ε : précision du résultat
Nmax : nombre d’itération à effectuer.

– Résultat : x tel que f (x) ≈ 0

PROCEDURE bissection(a,b,Nmax,epsilon,x)
fa = f(a);
i = 1;
Tant que b-a > epsilon et i <= Nmax Faire
m = (b+a)/2;
fm = f(m);
Si fa*fm < 0 Alors
b = m;
Sinon
a = m;
fa = fm;
fin si
i=i+1;
fin faire
x=(b+a)/2
Fin Proc

Exemple 2.2.1. : calcul de la racine carrée d’un nombre réel. f (x) = x2 − 8 ;


approximation de la racine de l’équation f (x) = 0 dans l’intervalle (2,3).
pour ε = 10−3 , N = 10 ( nombre d’itération)

2.2.2 Convergence de la méthode de bissection


la méthode de bissection converge dès que les hypothèses de la proposition 2.1.1
sont satisfaites. Car lim (bn − an ) = lim (b−a)
2n
=0
n→∞ n→∞

Proposition 2.2.2. La convergence de la méthode de bissection est linéaire.


Preuve : On l’étape n de la méthode, on a,
1b−a
en ≈
2 2n
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 13

Figure 2.1 – Illustration graphique de la méthode de bissection.

n a0 bn
0 2 3
1 2.5 3
2 2.75 2.875
3 2.75 2.875
4 2.8125 2.875
x ≈ 2.82861
5 2.8125 2.84375
6 2.828125 2.84375
7 2.828125 2.8359375
8 2.828125 2.83203125
9 2.828125 2.830078125
10 2.828125 2.829101562

d’où
1b−a en 2n 1
en+1 ≈ et = n+1 =
2 2n+1 en+1 2 2
la convergence de la méthode de bissection est garantie dès que la solution existe.
Cependant cette méthode peut s’avérer très coûteuse à cause du nombre d’itérations
qui est élevé. En fait, le gain en précision d’une décimale se fait au bout de 3.4 ≈ 4
itérations (10−1 ≈ 2−3.3 ). Il faut aussi noter que la méthode ne tient pas compte
du comportement de la fonction f, et ne peut permettre de détecter les racines de
multiplicité paire.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 14

2.3 Résolution des equations g(x) = x : Méthode


des approximations successives
2.3.1 Principe de la méthode.
La méthode des approximations successives permet de résoudre les équations de
la forme :
g(x) = x, (2.3.1)
où g est une application continue sur l’intervalle [a, b] ⊂ R, à valeur dans R.
Elle consiste à choisir un point x0 , point de départ des itérations, puis à construire
la suite récurrente définie par :
xn+1 = g(xn ), n ≥ 0. (2.3.2)
Si la suite (xn ) converge vers x̃, alors on a par continuité de l’application g,
x̃ = lim xn+1 = lim g(xn ) = lim g(lim xn ) = g(x̃). (2.3.3)
n→+∞ n→+∞ n→+∞

On voit donc la méthode des approximations successives converge vers a, alors a est
un point fixe de g, c’est à dire solution de l’équation (2.3.1)
Exemple 2.3.1. On pose g(x) = x + cos x et x0 = 1.3. Calculer x1 , x2 , x3 , ∆x0 ,
∆x1 et ∆x2 .
n xn ∆xn
0 1.3 0.26749
1 1.5674 0.00329
2 1.5707 5.10−9
3 1.5707

Table 2.1 – Illustration de la méthode des approximations successives.

La solution exacte de l’équation précédente dans l’intervalle [1, 2] est x = Π2 ,


après 3 itérations, on approche ce résultat avec une précision de l’ordre de 5.10−9

2.3.2 Interprétation graphique de la méthode.


Soit x̃ la solution de l’équation précédente g(x) = x, la courbe de g rencontre de
la première bissectrice au point A(x̃, x̃).
on pose {
Pk (xk , g(xk ))
, k ≥ 0. (2.3.4)
Qk+1 (xk+1 , xk+1 )
Graphiquement, la méthode des approximations successives consiste à construire
une suite de segments de droite reliant Pk à Qk+1 et Qk+1 à Pk+1 :
Pk −→ Qk+1 −→ Pk+1 .
La suite des point P (k) converge vers le point A, où diverge du point A selon que
la méthode converge où diverge.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 15

Figure 2.2 – Illustration graphique de la méthode des approximations successives :


convergence lente.

Figure 2.3 – Illustration graphique de la méthode des approximations successives :


convergence rapide.

2.3.3 Etude de la convergence de la méthode des approxi-


mations successives.
Proposition 2.3.2. Soit g : [a, b] −→ R une application continue sur [a, b] et
derivable sur (a,b). On a :
∀x, y ∈ [a, b], |g(x) − g(y)| = sup (|g ′ (ξ)|)|x − y|. (2.3.5)
ξ∈(a,b)

Soit x, y ∈ [a, b], on a d’après la formule des accroissements finis il existe ξ ∈


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 16

Figure 2.4 – Divergence de la méthode des approximations successives.

Figure 2.5 – Divergence de la méthode des approximations successives.

(a, b) tel que g(x) − g(y) = g ′ (ξ)(x − y), d’où :

|g(x) − g(y)| = |g ′ (ξ)||x − y|


≤ sup (|g ′ (ξ)|)|x − y|
ξ∈(a,b)

Proposition 2.3.3. Si la fonction g est derivable et est une contraction stricte dans
[a, b] de rapport de contraction k alors :

∀x, y ∈ [a, b], g ′ (x) ≤ k. (2.3.6)


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 17

En effet, ∀x, y ∈ [a, b],|g(x) − g(y)| ≤ k|x − y|. D’où

g(x) − g(y)
≤ k,
x−y

et par passage à la limite lorsque y tend vers x, on obtient :

∀x, y ∈ [a, b], g ′ (x) ≤ k.

En pratique on posera souvent

k = sup |g ′ (x)|. (2.3.7)


ξ∈(a,b)

Proposition 2.3.4. Soit g une contraction stricte de [a, b] dans [a, b], de rapport k.
Alors l’itération définie par :
{
x0 ∈ [a, b]
(2.3.8)
xn+1 = g(xn ), n ≥ 0

converge vers l’unique solution x̃ ∈ [a, b] de l’équation x = g(x), et on a la majoration


d’erreur suivante :
kn
|xn − x̃| ≤ |x0 − x1 |. (2.3.9)
1−k
Preuve : L’existence et l’unicité de la solution x̃ ∈ [a, b] de l’équation x = g(x),
sont assurées par le théorème du point fixe.
– Convergence :

|xn − x̃| = |g(xn−1 ) − g(x̃)| ≤ k|xn−1 − x̃|


≤ k n−1 |x1 − x̃|

comme k < 1, on a lim |xn − x


e| = 0
n−→∞
– Majoration de l’erreur :

xn−1 − xn = g(xn ) − g(xn−1 )


|xn+1 − xn | ≤ k|xn − xn−1 |
≤ k n |x1 − x0 |
∑ p
|xn+p − xn | = (xn+i − xn+i−1 )
i=1
∑p
≤ |xn+1 − xn+i−1 |
i=1
≤ (k + k n+1 + ... + k n+p−1 )|x0 − x1 |
n

kn
≤ (1 − k p )|x0 − x1 |
1−k
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 18

En faisant tendre p vers l’infini pour n fixé, on a :


kn
|xn − xe| ≤ |x0 − x1 |
1−k
Proposition 2.3.5. : Convergence de la méthode des approximations suc-
cessives.
Soit g une application continue sur [a, b] et soit x̃ un point fixe de g, limite de
la suite (xk ). On suppose que la fonction g est trois fois continûment derivable dans
un voisinage de x̃, et que xk+1 = g(xk ), k ≥ 0.
1. Si g ′ (x̃) ̸= 0, alors
∆xk+1 ≈ g ′ (x̃)∆xk , (2.3.10)
pour xk proche de x e.

(a) Si 0 < |g (x̃)| < 1, la convergence de la suite (xk ) est linéaire.
(b) Si |g ′ (e
x)| > 1 alors la suite (xk ) diverge

2. Si g (e
x) = 0, alors
1
∆xk+1 ≈ − g ′′ (x̃)∆2 xk , (2.3.11)
2
pour xk proche de x e, la convergence est quadratique.
Remark 2.3.1. Il est difficile de conclure lorsque g ′ (x̃) = 1.
Preuve : :
Soit x′ la racine de l’équation g(x) = x. On a :
xk = x′ − ek
Écrivant la formule de Taylor à l’ordre 2, on obtient :
g(xk ) = g(x′ − ek )
(2.3.12)
= g(x′ ) − g ′ (x′ )ek + 12 g ′′ (x′ )e2k − 21 g (3) (ξ)e3k , ξ ∈ [xk , x′ ]
Comme xk+1 = g(xk ) et g(x′ ) = x′ , l’équation (2.3.12) devient :
1 1
xk+1 = x′ − g ′ (x′ )ek + g ′′ (x′ )e2k − g (3) (ξ)e3k , ξ ∈ [xk , x′ ]
2 2
d’où
1 1
ek+1 = g ′ (x′ )ek + g ′′ (x′ )e2k − g (3) (ξ)e3k ,
2 2
Pour xk suffisamment proche de x’, |ek | >> |ek | >> |ek |3 , et on a :
2

{ ek+1
ek
≈ g ′ (x′ ) si g ′ (x′ ) ̸= 0
.
ek+1
ek
≈ 12 g ′′ (x′ ) si g ′ (x′ ) = 0
Pour avoir les conclusions du théorème, on remplace ek par son approximation ∆xk
Exemple 2.3.6. 1. g(x) = x + cos x ; x′ = Π2
g ′ (x) = 1 − sin x. On a g ′ (x′ ) = 0 et la convergence sera quadratique (assez
rapide, comme le montre le montre le tableau 2.3.1.
2. g(x) = x + cos x ; x′ = − Π2
g ′ (x′ ) = 1 − sin x. On a g ′ (x′ ) = 2 > 1. On déduit la divergence de la méthode
des approximations successives.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 19

2.4 Accélération de la convergence linéaire : for-


mule d’Aitken et méthode de Steffensen
2.4.1 Formule d’Aitken
Si on suppose que (xk ) converge de façon linéaire vers x′ , alors on a partir d’un
certain rang :
ek+1
≈ C (C < 1). (2.4.1)
ek
Ainsi, on a xk+1 − x′ ≈ C(xk − x′ ). D’où x′ (1 − C) ≈ xk+1 − Cxk et
1
x′ ≈ (xk+1 − Cxk )
1−C
1
≈ (C(xk+1 − xk ) + (1 − C)xk+1 )
1−C
C
≈ xk+1 + ∆xk
1−C
(∆xk )2 ∆xk
≈ xk+1 + (en rempçant C par )
∆xk−1 − ∆xk ∆xk−1
(∆xk )2 (xk+1 − xk )2
≈ xk+1 − = xk+1 − .
∆xk − ∆xk−1 xk+1 − 2xk + xk−1
On déduit que
(xk+1 − xk )2
x′ ≈ x′k−2 = xk+1 − (2.4.2)
xk+1 − 2xk + xk−1
Definition 2.4.1. l’équation (2.4.2) est la formule d’accélération de convergence
D’AITKEN ou le ∆2 D’AITKEN.
Remark 2.4.1. La formule (2.4.2) permet d’utiliser x1 et x2 pour calculer une meilleur
approximation x′0 de x′ .
Exemple 2.4.1. Le tableau suivant montre comment le ∆2 D’ AITKEN accélère la
∆xk
convergence linéaire. ( ∆x k−1
) = 0.2.
k xk ∆xk x′k
0 3.0 0.1 3.125
1 3.1 0.02 3.125
2 3.12 0.004 3.125
3 3.124 0.0008 3.124956
4 3.1248 0.00016
5 3.124916 0.000032

2.4.2 Méthode de Steffensen


Le ∆2 D’ AITKEN calcule les itérées x′1 , x′2 ...x′n−2 . Ce procédé s’avère très coû-
teux. d’où l’idées de calculer x′0 , après avoir calculé x1 , x2 à partir de x′0 puis d’utiliser
x′0 pour générer les nouvelles itérées x1 , x2 et en déduire x′′0 par le ∆2 D’ AITKEN,et
ainsi de suite. C’est la méthode de Steffessen.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 20

2.5 Méthode des cordes pour la résolution des


équations f (x) = 0.
Soit f une application définie et continue sur [a, b], on cherche à appliquer la
méthode des approximations successives définie du paragraphe précédent pour la
résolution de l’équation f (x) = 0 dans [a, b]. Pour cela, on construit à partir de
f une application g définie sur [a, b] de sorte que les équations suivantes soient
équivalentes :
f (x) = 0 (2.5.1)
g(x) = x (2.5.2)
Dès lors, le théorème du point fixe donne une condition suffisante d’existence
d’une racine de l’équation (2.5.2). Comme on l’a vue plus haut, l’application g permet
de générer les itérées xk , k>0, à partir de x0 ∈ [a, b], qui sont des approximations
successives de la solution x′ de l’équation de (2.5.1).

2.5.1 Principe de la méthode des cordes.


la méthode des cordes consiste à approcher la fonction f au point xk ∈ [a, b],
par une droite, xk+1 étant l’intersection de cette droite avec l’axe des abscisses. Cela
revient à poser :
g(x) = x − λf (x); λ ∈ R. (2.5.3)
On voit que les équations f (x) = 0 et g(x) = x sont équivalentes. Le coefficient
λ est l’inverse de la pente de la droite qui approche f (x) au point xk .
En effet, la droite passant par les points (xk , f (xk ) et (xk+1 , 0) à pour équation :

f (xk ) f (xk )
y= x − xk+1 . (2.5.4)
xk − xk+1 xk − xk+1
Comme
xk+1 = xk − λf (xk ),
on obtient
1 f (xk )
y= x + b, où b = −xk+1 .
λ xk − xk+1
Si on suppose que f est derivable, et que g est une contraction stricte de [a, b]
sur [a, b], on a :

max |g ′ (x)| ≤ k < 1 ⇒ |1 − λf ′ (x)| ≤ k < 1 ⇒ 1 − k ≤ λf ′ (x) ≤ 1 + k

ceci implique que f ′ (x) et λ sont de même signe.


Remark 2.5.1. la convergence de la méthode des cordes sera plus rapide si le choix
de λ tient compte des propriétés de f au voisinage du point xk .
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 21

Figure 2.6 – Illustration graphique de la méthode des cordes.

2.6 Méthode de Newton-Raphson.


2.6.1 Principe de la méthode.
C’est une application de la méthode des cordes. On approche f (x) par la tangente
à la courbe de f en xk . L’équation de cette tangente est :

y = f ′ (xk )(x − xk ) + f (xk ) (2.6.1)

f (xk )
y=0 ⇒ x = xk −
f ′ (xk )
d’où
f (xk )
xk+1 = xk − (2.6.2)
f ′ (xk )
et
f (x)
g(x) = x − (2.6.3)
f ′ (x)
Definition 2.6.1. L’équation (2.6.2) est la formule de la méthode itérative de New-
ton pour la résolution de l’équation f (x) = 0.

Remark 2.6.1. La méthode de Newton-Raphson présente des difficultés lorsque f ′ (x)


s’annule dans [a, b]

Exemple 2.6.1. Calcul de la racine de 2


[ ]
f (x) x2 − 2 2
f (x) = x − 2
2
⇒ g(x) = x − ′ =x− x−
f (x) 2x x
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 22

Figure 2.7 – Illustration graphique de la méthode de Newton-Raphson.

n xk ∆xk
0 1.000000 0.500000
1 1.500000 -0.083333
2 1.416666 -0.000002
3 1.414213 -0.000000
5 1.414213

Table 2.2 – Illustration de la méthode de Newton.

et [ ]
1 2
xn+1 = xn xn −
2 xn
pour x0 = 1, on a√le tableau suivant
La valeur de 2 à 10−9 près est : 1.414213562. On observe bien que le nombre
de décimales exactes double à chaque itération de la méthode de Newton.

2.6.2 Convergence de la méthode de Newton.


Proposition 2.6.2. Soit f ∈ C 2 ([a, b]), telle que f ′ (x) ̸= 0 pour tout x ∈ [a, b]. On
suppose qu’il existe x′ ∈ [a, b] tel que :

f (x′ ) = 0. (2.6.4)

Alors ∃ε > 0 tel que ∀x0 ∈ [x′ − ε, x′ + ε] = Iε , l’itération de Newton- Raphson


définie par :
f (xk )
xk+1 = xk − (2.6.5)
f (x′k )
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 23

Commençant par x0 converge vers x′ . De plus, la convergence est au moins quadra-


tique, et on a :
1 M1
|ek+1 | = |ek |2 , (2.6.6)
2 m
où
M1 = max|f ′′ (x)| et m = min|f ′ (x)|. (2.6.7)
x∈Iε x∈Iε

Preuve : posons :
f (x)
g(x) = x −
f ′ (x)
alors
f ′′ (x)f (x)
g ′ (x) =
[f ′ (x)]2
f (x′ ) = 0 implique g ′ (x′ ) = 0. On conclut d’après la proposition 2.3.5 que la
suite (xk ) converge, et la convergence est quadratique.
La formule de Taylors au point (xk ) donne :
1
0 = f (x′ ) = f (xk ) + f ′ (xk )(x′ − xk ) + f ′′ (ξk )(x′ − xk )2 , ξk ∈ (xk , x′ )
2
′′
f (xk ) 1 f (ξk ) 2
=⇒ 0 = ′
+ (x′ − xk ) + )e
f (xk ) 2 f ′ (xk ) k
1 f ′′ (ξk ) 2
=⇒ 0 = (xk − xk+1 ) + x′ − xk + )e
2 f ′ (xk ) k
1 f ′′ (ξk ) 2
=⇒ ek+1 = − ′ )e
2 f (xk ) k
en posant
M1 = max|f ′′ (x)| et m = min|f ′ (x)|,
x∈Iε x∈Iε

on obtient
1 M1
|ek+1 | ≤ |ek |2 = M e2k .
2 m
Sous les hypothèses de la proposition précédente, on a :
1
|ek+1 | ≤ M e2k ⇒ M ek+1 ≤ (M e0 )2k ⇒ |ek | ≤ (M e0 )2k , k > 0. (2.6.8)
M
Donc pour assurer la convergence, on peut supposer que

|M e0 | = M |x0 − x′ | < 1.

Ceci montre que x0 doit être suffisamment proche de la solution x′ de l’équation.

Proposition 2.6.3. Convergence globale de la méthode de Newton.


Si f ∈ C 2 [a, b] et vérifie :
– f(a)f(b)<0
– ∀x ∈ [a, b], f ′ (x) ̸= 0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 24

– ∀x ∈ [a, b], f ′′ (x) ̸= 0


Alors ∀x0 ∈ [a, b] tel que f (x0 )f ′′ (x0 ) < 0, l’itération de Newton- Raphson définie
par
f (xk )
xk+1 = xk − ′ , (2.6.9)
f (xk )
commençant par x0 converge vers l’unique solution x′ de l’équation f (x) = 0.

2.6.3 Schéma du programme pour la méthode de Newton


on suppose que l’on à trouvé un point x0 pour lequel les itérations de Newton
convergent vers la solution de l’équation.
– donnée :
x0 : valeur initiale,
ε : précision du résultat ;
Nmax : nombre d’itération à effectuer
– Résultat : x : solution de l’équation.

PROCEDURE NewtonRaphson(x0,epsilon,Nmax,x)
x = x0 - f(x0)/f’(x0);
i = 1;
DeltaX = |x - x0|;
Tant que (DeltaX > epsilon) et (i <= Nmax) Faire
x0 = x;
x = x - f(x)/f’(x};
DeltaX = |x - x0|;
i=i+1;
fin faire
Fin Proc

2.7 Méthode de la sécante.


2.7.1 Principe de la méthode.
Un inconvénient majeur de la méthode de Newton est l’utilisation de la dérivée f ′
de f , dans le calcul de chaque itérée xk . Ce calcul peut être mal commode,
[√ même si on ]
5x
dispose de l’expression analytique de f (par exemple f (x) = sin 4
tan x + x e tan x )
et devient impossible lorsque f est le résultat d’une approximation.
On va donc remplacer dans la méthode de Newton la dérivée f ′ (xk ) par une
expression ne dépendant que de f et de xk . En utilisant une méthode des différences
finies pour l’estimation de f (xk ), on obtient :

f (xk ) − f (xk−1 )
f ′ (xk ) ≈ . (2.7.1)
xk − xk−1
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 25

Remplaçant f ′ (xk ) dans la formule de Newton par l’expression (2.7.1), on obtient :


( )
(xk − xk−1 )
xk+1 = xk − f (xk ). (2.7.2)
f (xk ) − f (xk−1 )

Definition 2.7.1. L’équation(2.7.2) définit la méthode de la sécante pour la réso-


lution de l’équation f (x) = 0.

Remark 2.7.1. La méthode de la sécante utilise deux valeurs initiales. Ayant trouver
(x0 ), on le fait varier légèrement pour obtenir (x1 ).

Exemple 2.7.1. Calcul de la racine carrée de 2. On cherche la racine positive de


l’équation f (x) = x2 − 2 = 0. Posons x0 = 1, et x1 = 1.5. On obtient par la méthode
de la sécante,
xk − xk−1 2
xk+1 = xk − 2 (x − 2) k > 1.
xk − x2k−1 k
et on a le tableau suivant :

n xk ∆xk
0 1.000000 0.500000
1 1.500000 - 0.100000
2 1.400000 - 0.013793
3 1.4114215 - 0.000422
5 1.4142129 - 0.000002
Table 2.3 –

D’après cet exemple, la convergence de cette méthode semble un peu plus lente
que celle de la méthode de Newton.

2.7.2 Interpretation de la méthode de la sécante.


On approche f (x) au point xk , k ≥ 2 par la droite Dk de pente

f (xk ) − f (xk−1 )
mk = ; (2.7.3)
xk − xk−1

(xk+1 , 0) est le point d’intersection de la droite Dk avec l’axe des abscisses. L’équation
de la droite Dk est :
xk−1 f (xk ) − xk f (xk−1 )
yk = mk x + bk avec bk = . (2.7.4)
xk − xk−1

Remplaçant x dans (2.7.4) par xk−1 , on obtient yk = f (xk−1 ). Donc le point (xk−1 , f (xk−1 ) ∈
Dk et (xk+1 , 0) est le point d’intersection de l’axe des abscisses et la droite Dk passant
par les point (xk−1 , f (xk−1 ) et (xk , f (xk ).
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 26

Figure 2.8 – Illustration graphique de la méthode de la sécante.

2.7.3 Convergence de la méthode de la sécante


. L’étude de la convergence de la méthode de la sécante se fait par l’étude de
la relation qui lie les erreurs en+1 , en . On suppose que f ∈ C 2 [a, b], et qu’il existe
x′ ∈ [a, b] tel que f (x′ ) = 0 et f ′ (x′ ) ̸= 0. La formule d’interpolation de Newton aux
points , xk et xk−1 donne :

f (xk − f (xk−1 ) 1
f (x) = f (xk ) + (x − xk ) xk−1 + f ′′ (ξ)(x − xk )(x′ − xk−1 ), (2.7.5)
xk − 2
avec ξ ∈ (xk , xk)1 ). D’après la formule de la méthode sécante, on a :

f (xk − f (xk−1 )
f (xk ) + (xk+1 − xk ) xk−1 = 0 (2.7.6)
xk −
En remplaçant dans l’équation (2.7.5) x par x’ on a :

f (xk − f (xk−1 ) 1 ′′
0 = f (xk ) + (x′ − xk ) xk−1 + f (ξ)(x′ − xk )(x′ − xk−1 )
xk − 2
f (xk − f (xk−1 ) f (xk − f (xk−1 )
0 = f (xk ) + (x′ − xk+1 ) xk−1 + (xk − xk+1 ) xk−1
xk − xk −
1 ′′
+ f (ξ)(x′ − xk )(x′ − xk−1 ).
2
D’où
f (xk − f (xk−1 ) 1
0 = (x′ − xk+1 ) xk−1 + f ′′ (ξ)(x′ − xk )(x′ − xk−1 ). (2.7.7)
xk − 2
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 27

D’après la formule des accroissements finis, il existe ξ ′ ∈ (xk , xk−1 ) tel que :
f (xk − f (xk−1 )
xk−1 = f (ξ) (2.7.8)
xk −
portant (??) dans (??), on obtient :
1
0 = (x′ − xn+1 )f ′ (ξ ′ ) + f ′′ (ξ)(x′ − xk )(x′ − xk−1 ) (2.7.9)
2
D’où :
f ′′ (ξ)
en+1 = − en−1 en . (2.7.10)
2f (ξ ′ )
L’équation (2.7.10) montre que la convergence est assurée pour des valeur de e0 et
e1 assez petites. c’est à dire pour x0 et x1 assez proches de x′ .
Proposition 2.7.2. Convergence de la méthode sécante. Soit f ∈ C 2 [a, b], telle que
f ′ (x) ̸= 0 pour tout x ∈ [a, b]. Supposons qu’il existe x′ ∈ [a, b] tel que :
f (x′ ) = 0
Alors ∃ε > 0tel que ∀x0 , x1 ∈ [x′ −ε, x′ +ε], les itérations de la méthode de la sécante
convergent vers x′ .
Proposition 2.7.3. : l’ordre de convergence de la méthode de la sécante est :

1+ 5
p= ≈ 1.618. (2.7.11)
2
preuve :
On suppose que la méthode de la sécante converge. L’équation (2.7.11)donne :
f ′′ (ξ)
|ek+1 | = |ek ||ek+1 |.
2f ′ (ξ ′ )
Pour n assez grand, on peut poser ξ ∼
= x′ et on a :
f ′′ (ξ)
|ek+1 | ∼
= C|ek ||ek−1 |; avec C = . (2.7.12)
2f ′ (ξ ′ )
Si la méthode est d’ordre p alors
|ek+1 | ≈ K|ek |p
|ek | ≈ K|ek−1 |p ,
et l’équation (2.7.12) entraı̂ne :

K|ek |p ∼ K|ek |p ∼
1 −1 −1
1+ 1
= C|ek ||ek | p k p ⇒ = CK p |ek | p
1
ce qui est vraie si p = 1 + et C = k (1+ p ) . Comme p>0, on a :
1
p

1+ 5
p=
2
et la convergence de la méthode est exponentielle.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 28

2.7.4 Schéma du programme pour la méthode de la sécante.


On suppose qu’on a trouvé les deux valeurs x0 et x1 pour lesquelles la méthode
converge.
Données : x0 , x1 : valeurs initiales de l’approximation.
ε : précision du résultat.
Nmax : nombre maximal d’itérations à effectuer
Résultat :x tel que f (x) = 0.

Procedure sécante(x0, x1, Nmax, epsilon, x)


x = x1 - (x1 - x0)*f(x1)/(f(x1)-f(x0));
i = 1;
DeltaX = abs(x - x1);
Tant que (DeltaX > epsilon) et (i <= Nmax) Faire
x0 = x;
x = x - (x - x1)*f(x)/(f(x)-f(x1));
x1 = x0;
DeltaX = abs(x-x1);
i = i+1;
fin faire
Fin Proc

2.7.5 Convergence des méthodes de Newton et de la sécante


pour les racines multiples.
Les résultat de convergence énoncés pour ces méthodes jusqu’à lors sont faits
sous l’hypothèse f (x′ ) = 0 et f ′ (x′ ) ̸= 0. Il peut arriver que la racine x′ vérifie
f ′ (x′ ) = 0. Cette racine est difficile à approcher.
Pour ces racines, les méthodes de Newton et de la sécante converge mais au prix
d’un nombre d’itérations élevé. On a la proposition suivante :
Proposition 2.7.4. Les méthodes de Newton et de la sécante convergent lineaire-
ment vers la racine multiple de l’équation f (x) = 0.
Remark 2.7.2. En pratique, pour minimiser le risque de division par zéro, il faudra
fixer une précision assez raisonnable.
On peut accélérer la convergence par le ∆2 D’AITKEN ou la méthode de Stef-
fensen.

2.8 Méthode de la fausse position (Regula-Falsi)


2.8.1 Principe de la méthode
Il n’est pas facile de trouver les valeurs initiales pour les méthodes de Newton
et de la sécante. Bien que la racine de l’équation existe dans l’intervalle [a, b], un
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 29

mauvais choix des valeurs initiales entraı̂ne la divergence de ces méthodes. D’où
l’idée de faire un balayage de l’intervalle de recherche à partir de ses extrémités. On
suppose que l’intervalle [a, b] est choisi de sorte que f (a)f (b) < 0. On construit une
suite décroissante d’intervalle In contenant la solution de l’équation f (x) = 0 de la
manière suivante :

I0 = [a, b] = [x0 , x1 ], f (x0 )f (x1 ) < 0; (2.8.1)


supposons que
In = [xn−1 , xn ], f (xn−1 )f (xn ) < 0. (2.8.2)
Le passage de In à In−1 s’opère comme suit :
soit (x, 0) le point d’intersection de la droite passant par les points (xn−1 , f (xn−1 ))
et (xn , f (xn ) avec l’axe de abscisses.
– si f (x)f (xn ) < 0, In+1 = [x, xn ]
– si f (x)f (xn−1 ) < 0, In+1 = [xn−1 , x]
– si f(x)=0, alors on a trouvé la solution de l’équation.
On pose :xn+1 = x. D’après ce qui précède,
{ −xn−1
xn+1 = xn − f (xxnn)−f (xn−1 )
f (xn )
(2.8.3)
f (xn )f (xn−1 ) < 0

Definition 2.8.1. L’équation (2.8.3) définit la méthode de la fausse position pour


la résolution de l’équation f (x) = 0.

Remark 2.8.1. La méthode de la fausse position est une modification de la méthode


de la sécante.

Figure 2.9 – Illustration graphique de la méthode de la fausse position.


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 30

2.8.2 Convergence de la méthode de la fausse position


La convergence de la méthode de la fausse position est garantie dès que l’on a
trouvé x0 et x1 dans l’intervalle [a, b] tels que f (x0 )f (x1 ) < 0. Les valeurs x0 , x1
peuvent être repérées par la méthode de balayage.
Lorsque la fonction f est convexe ou concave, l’une des bornes des intervalles
In reste constante. Ceci rend la convergence linéaire. Cette convergence peut être
accélérée par le ∆2 D’AITKEN.

2.8.3 Schéma de programme pour la méthode de la fausse


position
On suppose qu’on a trouvé l’intervalle [a,b] tel que f(a)f(b)<0.
Données : a,b tels que f(a)f(b) < 0
ε : précision du résultat.
Nmax : nombre maximal d’itérations à effectuer.

Résultat : x tel que f(x)∼


=0

Procedure: FaussePosit(a, b, Nmax, epsilon, x)


x = b -(b-a)*f(b)/(f(b)-f(a));
fa = f(a);
i = 1;
DeltaX = abs(a-b);
Tant que (DeltaX > epsilon) et (i <= Nmax) Faire
fx = f(x);
Si fa*fx < 0 Alors
b = x;
Sinon
a = x;
fa = fx;
finsi
x = b -(b-a)*f(b)/(f(b)-f(a));
DeltaX = abs(a-b);
i = i+1;
fin faire
x = b - (b-a)*f(b)/(f(b)-f(a));
Fin Proc

2.8.4 conclusion.
Les méthodes de résolution des équations non linéaires étudiées dans ce chapitre
peuvent être divisées en deux groupes :
– celles qui nécessitent assez d’information au voisinage de la solution de l’équa-
tion, ceci au fin de trouver les valeurs initiales nécessaires à leur mise au point,
et à assurer leurs convergences. Les méthodes de Newton et de la sécante font
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 31

partie de ce groupe. Lorsque la racine est simple, la convergence est exponen-


tielle.
– celle qui font un balayage de l’intervalle de recherche pour trouver la solution
de l’équation. Elles convergent dès que les hypothèses du théorème de la valeurs
intermédiaire sont satisfaites. La convergence ici est linéaire.
En associant les deux types de méthodes, on obtient des méthodes à convergence
sure et rapide sous des hypothèses relativement faible.
Exemples :
1. la méthode de DEKKER qui associe la méthode la méthode de la sécante à
celle de la bissection.
2. La méthode de BUS qui applique la bissection après n = [log2 b−a
ε
]−2 itérations
de la méthode de la sécante.
3. La méthode de KRAUTSTENGEL qui associe la méthode de Newton à celle
de la bissection.
On a les illustrations graphiques suivantes :

Figure 2.10 – Illustration graphique de la méthode de Dekker.


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 32

Figure 2.11 – Illustration graphique de la méthode de Krautstengel.


Chapitre 3

Méthodes de résolution des


systèmes d’équations linéaires

3.1 Introduction
Nous présentons dans ce chapitre quelques méthodes de résolution des systèmes
d’équations linéaires. On distingue deux catégories de méthodes numériques pour la
résolution des systèmes d’équations linéaires : les méthodes directes qui permettent
d’obtenir la solution exacte (lorsque l’influence des erreurs d’arrondi et de troncature
est négligeable) après un nombre fini d’opérations, et les méthodes itératives qui
permettent d’obtenir à partir d’une approximation initiale, des approximations de
plus en plus ” proche ” (dans le sens d’une norme donnée) de la solution exacte du
système (lorsque la méthode converge). Dans ce cas on arrête le processus après un
nombre maximal d’itération donné et/ou une certaine précision fixée.
Ce Chapitre s’organise comme suit. Dans la deuxième section, nous présentons
les méthodes directes de résolution des SEL. On se limitera ici à la méthode d’éli-
mination de Gauss à l’issue de laquelle on obtient la factorisation LU , la méthode
de Choleski issue de la factorisation LLt et à la méthode de Householder à l’issue
de laquelle on obtient la factorisation QR. La troisième section sera consacrée aux
méthodes itératives. On abordera les méthodes itératives stationnaires telles que les
méthodes de Jacobi, de Gauss-Seidel et de relaxations successives. On introduira
en suite la méthode de gradient conjugué comme un exemple de méthode itérative
non stationnaire. On terminera par la notion de préconditionnement des systèmes
d’équations linéaires. Dans tout ce chapitre, on se limitera à une brève description
des méthodes et à une présentation des schémas d’algorithmes pour leurs mises en
IJuvre.

3.2 Méthodes Directes


On considère le SEL mis sous la forme matricielle suivante :

Ax = b, (3.2.1)

33
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 34

où A est une matrice carrée d’ordre n, b et x sont des vecteurs de Rn . Le vecteur x
est appelé vecteur des inconnues.
On suppose dans toute la suite que A est une matrice non singulière. Alors le
système (3.2.1) admet une solution unique.
Supposons que A soit une matrice triangulaire (par exemple triangulaire supé-
rieure). Alors le système (3.2.1) est de la forme :
   
a11 a12 · · a1n x1 b1
 a22 · · a2n    
   x2   b2 
Ax =   · · ·   ·   ·  (3.2.2)
  
 an−1n−1 an−1n   xn−1   bn−1 
an−1n xn bn

La matrice A étant non singulière, on a aii ̸= 0 (1 ≤ i ≤ n). Pour résoudre le


système (3.2.2), on commence par calculer l’inconnu xn ; en remplaçant xn par sa
valeur dans l’équation n − 1, On calcule xn−1 . On réitère le processus pour calculer
xn−2 , xn−3 , · · · , x2 , x1 . En effet, on a :
bn bn−1 − an−1n xn bn−1 − an−2n−1 xn−1 − an−2n xn
xn = , xn−1 = , xn−2 =
ann an−1n−1 an−2n−2
(3.2.3)
D’une manière générale, on a :
 bn
 xn = ann

n
bk − akj xj (3.2.4)

xk = j=k+1
akk
; k = n − 1, n − 2, ..., 1

Lorsque la matrice A est triangulaire inférieure, on a la méthode suivante :


 b1
 x1 = a11

k−1
bk − akj xj (3.2.5)
 j=1
xk = akk
; k = 2, 3, ..., n

On constate que les SEL ayant une matrice triangulaire sont facile à résoudre. Les
méthodes directes de résolution des SEL se basent sur ce constat.
L’idée générale des méthodes directes de résolution du système (3.2.1) est de le
transformer en un système équivalent de la forme

Bx = b′ (3.2.6)

facile à résoudre ( où la matrice B est : diagonale, triangulaire, produit de matrices


triangulaires ou d’une matrice triangulaire et d’une matrice orthogonale). La matrice
B dépend de A et le vecteur b′ dépend de b. Les méthodes présentées ci-dessous
décrivent les processus d’obtention de la matrice B et du vecteur b′ .
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 35

3.2.1 Méthodes de Gauss


La méthode directe de Gauss consiste à transformer le système (3.2.1) en un
système équivalent dont la matrice est triangulaire supérieure. Le système trian-
gulaire est résolu en appliquant les formules de (3.2.4). Cette méthode procède en
deux grandes étapes : la triangularisation du système qui s’opère en effectuant des
opérations élémentaires (échange et addition) sur les linges de la matrice augmentée
du système (3.2.1), et la résolution du système triangulaire obtenu. On a le schéma
d’algorithme suivant :
1ere étape : triangularisation du système.

A(1) = A
b(1) = b
k = 1, 2, ...., n − 1 :



(k+1)
aij
(k)
= aij ; i = 1, ..., k; j = 1, ...n




(k+1)
aij = 0; i = k + 1, ..., n; j = 1, ...k



 (k) (3.2.7)
 Si akk = 0, Rechercher et positionner le P ivot finSin
(k) (k)
(k+1) (k) a a
 aij = aij − ik (k)kj ; i = k + 1, ..., n; j = k + 1, ...n

 akk




(k+1)
bi
(k)
= bi ; i = 1, ..., k



 bi
(k+1) (k)
(k) (k)
a b
= bi − ik(k)k ; i = k + 1, ..., n
akk

2eme étape : résolution du système triangulaire supérieure :

A(n) x = b(n)
(n)
bn
xn = (n)
ann (3.2.8)
(n) ∑
n
(n)
bi − aij
xi = j=i+1
(n) i = n − 1, ..., 1
aii

Coût de la méthode de Gauss


Le coût est évalué en nombre d’opérations élémentaires nécessaires pour le calcul
de la solution. On se contentera d’évaluer ici le nombre de multiplications et de
divisions, ces opérations étant de loin les plus coûteuse en temps.
(k)
1. Le calcul des coefficients aij (k = 1, 2, · · · , n ; i, j = k + 1, k + 2, · · · , n) par
la formule () nécessite :

n−1
– (n − k) = 1 + 2 + ... + (n − 1) = n(n−1)
2
divisions ;
k=1

n−1
– (n − k)2 = n(n−1)(2n−1)
6
multiplications.
k=1
(k)
2. Le calcul des bi nécessite
– n divisions ;

n−1
– (n − k) = n(n−1)
2
multiplications.
k=1
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 36

3. Au bilan, la phase d’élimination nécessite n(n+1)(2n+1)


6
divisions et multiplica-
tions.
4. La phase de substitution nécessite n(n−1)
2
divisions et multiplications
n(n2 +3n−1)
5. La méthode de Gauss exige au bout du compte 3

3.2.2 Factorisation LU
3.2.3 Méthodes de Choleski ( Factorisation LLt )
La méthode de CHOLESKI pour la résolution du système (3.2.1) consiste à la
factorisation de la matrice A, lorsqu’elle est symétrique et définie positive, sous
la forme :
A = LLt (3.2.9)
où L est une matrice triangulaire inférieure inversible (construite par identification),
et Lt la matrice transposée de L.
Ainsi, le système (3.2.1) s’écrit :
LLt x = b. (3.2.10)
Si on pose :
Lt x = y, (3.2.11)
on résout d’abord :
Ly = b (3.2.12)
en utilisant les formules (3.2.4) (puisque L est triangulaire inférieure) et ensuite
Lt x = y, (3.2.13)
en utilisant les formule (3.2.5) (la matrice étant triangulaire supérieure). La méthode
de Choleski procède en trois étapes :
1ere étape : Calcul des coefficients de la matrice L
√ 
∑ 2
i−1 

Lii = aii − Lik 

( k=1
) , i = 1, ..., n (3.2.14)

i−1 

Lji = 1
Lii
aij − Lik Ljk , j = i + 1, ..., n 

k=1
eme
2 étape : Résolution du système triangulaire inférieur Ly = b
y1 = (Lb11
1
)

i−1
(3.2.15)
bi − Lik yk
k=1
yi = Lii
, i = 2, ..., n
3eme étape : Résolution du système triangulaire supérieure Lt x = y
xn = (Lynn
n
)

n
(3.2.16)
yi − Lji xj
, i = n − 1, ..., 1
j=i+1
xi = Lii
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 37

Nombre d’opérations
3 3
La méthode de CHOLESKI requiert environ n6 additions, n6 multiplications et
n extractions de racines carrées ; il y a donc avantage à utiliser Choleski par rapport
à Gauss lorsque la matrice des coefficients du système est symétrique et définie
positive, de plus cette décomposition est stable.

3.2.4 Méthode de Householder (Factorisation QR)


Préliminaires
Soit v un vecteur non nul de Rn . On appelle matrice de de Householder associée
au vecteur v, la matrice H(v) définie par :
2
H(v) = In − · vv t , (3.2.17)
∥v∥2

où In désigne la matrice unité d’ordre n et ∥v∥2 = v t v.


Soit v ∈ Rn un vecteur non nul. On a :

2 2 2
[H(v)]t = (In − · vv t )t = In − · (vv t )t = In − · vv t = H(v).
∥v∥ 2 ∥v∥ 2 ∥v∥2

Donc la matrice H(v) est symétrique. De plus,


2
H(v)[H(v)]t = H 2 (V ) = (In − · vv t )2
∥v∥2
4 4
= In − · vv t + · (vv t )2
∥v∥ 2 ∥v∥4
4 4
= In − − · vv t + · v(v t v)v t
∥v∥ 2 ∥v∥4
4 4
= In − − · vv t + · vv t
∥v∥ 2 ∥v∥ 4

= In .

Donc la matrice H(v) est orthogonale.


Soit u = (u1 , u2 , . . . , un )t ∈ Rn (u ̸= 0) et e = (1, 0, . . . , 0) le premier vecteur de
la base canonique de Rn . posons

v1 = u + ∥u∥e;
v2 = u − ∥u∥e.

Alors on a :

H(v1 )u = −∥u∥e; (3.2.18)


H(v2 )u = ∥u∥e. (3.2.19)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 38

En effet,
2
H(vi ) = In − · vi vit ;
∥vi ∥ 2

∥v1 ∥2 = (u + ∥u∥e)t (u + ∥u∥e)


= ut u + ∥u∥ut e + ∥u∥et u + ∥u∥et e
= 2(∥u∥2 + ∥u∥u1 ) car et u = ut e = u1 .

(v1 v1t )u =(u + ∥u∥e)(u + ∥u∥e)t u


=(uut + ∥u∥uet + ∥u∥eut + ∥u∥2 eet )u
=uut u + ∥u∥uet u + ∥u∥eut u + ∥u∥2 eet u
=u(ut u) + ∥u∥u(et u) + ∥u∥e(ut u) + ∥u∥e(et u)
=(ut u + ∥u∥et u)u + (∥u∥(ut u) + ∥u∥2 et u)e
=(∥u∥2 + ∥u∥u1 )u + (∥u∥2 + ∥u∥u1 )∥u∥e
1 t 1
= (v1 v1 )u + (v1t v1 )∥u∥e.
2 2
D’où
2
· (v1 v1t )u = u + ∥u∥e et H(v1 )u = −∥u∥e.
∥v1 ∥ 2

De même,
∥v1 ∥2 = 2(∥u∥2 − ∥u∥u1 )

(v1 v1t )u = u(ut u) − ∥u∥u(et u) − ∥u∥e(ut u) + ∥u∥2 e(et u)


= (ut u − ∥u∥et u)u − (∥u∥(ut u) − ∥u∥2 et u)e
= (∥u∥2 − ∥u∥u1 )u + −(∥u∥2 − ∥u∥u1 )∥u∥e
1 t 1
= (v2 v2 )u − (v2t v2 )∥u∥e.
2 2
D’où
H(v2 )u = ∥u∥e.

Principe de la méthode de Householder


La méthode de Householder pour la résolution du système d’équation linéaire
Ax = b consiste à construire une suite de systèmes linéaires Ak x = bk equivalents à
Ax = b, avec :
 k 
a11 ak12 · · · · · · · · · ak1n  k 
  b1
 a k
· · · · · · · · · a k
..   bk2 
22 2n
 ..
. ··· ···   . 
 .   
Ak =  k  et bk =  ..  , (3.2.20)
 akk · · · akn 
k
 . 
 .. ..   .. 
 . . 
bkn
aknk · · · aknn
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 39

de sorte que la matrice An soit triangulaire supérieure.


Le passage du système Ak x = bk au système Ak+1 x = bk+1 s’effectue de la
manière suivante :
On pose {
Vk = (akkk , akk+1k , . . . , aknk )t
, (3.2.21)
Ṽk = Vk + signe(akkk )∥Vk ∥ẽk
où ẽk = (1, 0, . . . , 0)t ∈ Rn−k+1 . On a :
{
Ak+1 = Hk Ak
, (3.2.22)
bk = Hk bk
avec ( )
Ik−1 0
Hk = ; (3.2.23)
0 H(Ṽk )
où Ik−1 est la matrice unité d’ordre k − 1 et H(Ṽk ) est la matrice de Householder
associée au vecteur Ṽk
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 40

3.3 Méthodes Itératives


Soient A une matrice carrée d’ordre n inversible et b un vecteur de dimension n.
Considérons le système d’éequations linéaires suivant :
Ax = b (3.3.1)
Le système (3.3.1) admet une solution unique x∗.
On désire déterminer cette solution à l’aide d’une méthode itérative.
Les méthodes itératives pour la résolution du système (3.3.1) procèdent comme
suit :
( (k)Partant
) d’un vecteur initial x(0) , générer une suite de vecteurs d’approximation
x k≥1
qui converge vers x∗, la solution du système (3.3.1).
Pour la construction de la suite des vecteurs d’approximation x(k) , on distingue
deux types de méthodes itératives : les méthodes itératives stationnaires et les mé-
thodes itératives non-stationnaires.

3.3.1 Méthodes Itératives Stationnaires


Le principe général des méthodes itératives stationnaires pour la résolution du
SEL (3.3.1) est la recherche d’une matrice B dépendant de A et d’un vecteur c
dépendant de A et de b tels que celui-ci soit équivalent au système suivant :
x = Bx + c. (3.3.2)
La solution du système (3.3.2) est le point fixe de la fonction f définie de Rn vers
Rn par :
f (x) = Bx + c. (3.3.3)
qui peut alors être approchée de manière itérative à l’aide de la méthode des ap-
proximations successives en partant d’un vecteur initial x(0) . On est donc conduit
au processus itératif suivant :
{ (0)
x ∈ Rn
(3.3.4)
x(k+1) = Bx(k) + c

Le vecteur x(k) (k ≥ 0) est ( une) approximation de la solution de (3.3.2) à l’ordre k.


Il est clair que si la suite x(k) k≥1 converge alors

lim x(k) = x. (3.3.5)


k→+∞

La matrice B du système (3.3.2) est appelée matrice des itérations ou matrice asso-
ciée à la méthode itérative.
On considère la suite définie par (3.3.4). Soit ek le vecteur erreur d’itération à
l’ordre k + 1 (k ≥ 0). On a
ek = x(k+1) − x(k) = Bx(k) + c − Bx(k−1) − c = B[x(k) − x(k−1) ] = Bek−1 (3.3.6)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 41

En procédant par récurrence, on montre que :

ek = B k e0 (3.3.7)

La suite définie par (3.3.4) converge vers x∗ si et seulement si la suite définie par
(3.3.7) converge vers le vecteur nul. Une condition nécessaire et suffisante de conver-
gence de la suite (ek )k≥0 est
ρ(B) < 1 (3.3.8)
où ρ(B) désigne le rayon spectral de la matrice B. La vitesse de convergence de la
méthode (3.3.4) est alors donnée par

R(B) = − log10 [ρ(B)]. (3.3.9)

De l’équivalence entre les systèmes (3.3.1) et (3.3.2), on déduit que :

c = (I − B)A−1 b. (3.3.10)

Il est donc important de déterminer la matrice d’itération B de sorte que le vecteur


c soit ” facile ” à calculer.
Une méthode de construction de la suite des vecteurs x(k) (k = 0, 1, 2, · · · )
consiste à décomposer la matrice A du système d’éequations linéaires (3.3.1) sous la
forme suivante :
A=N −P (3.3.11)
où N est une matrice inversible tel que le système

Ny = z (3.3.12)

soit “ facile ” à résoudre.


Dès lors,
Ax = b (3.3.13)
équivaut à
N x = P x + b. (3.3.14)
Partant d’un vecteur initial x(0) , les vecteurs d’approximation x(k) (k = 0, 1, 2, · · · )
sont générés comme suit :
N x(k) = P x(k−1) + b. (3.3.15)
On déduit de l’équation (3.3.15) que :

x(k) = N −1 P x(k−1) + N −1 b, k = 1, 2, · · · . (3.3.16)

La matrice M définie par :


M = N −1 P (3.3.17)
est appelée matrice d’itération (3.3.16).
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 42

Début et arrêt des itérations


On considère une méthode itérative pour la résolution du système

Ax = b (3.3.18)

Supposons que cette méthode soit convergente. Le début des itérations est marqué
par le choix du vecteur initial x(0) , qui doit être, lorsque c’est possible une bonne
estimation de la solution exacte x∗ du système. Dans le cas contraire, ce vecteur
peut être quelconque (par exemple égal au vecteur nul). Dans la pratique, on ne
pourra pas effectuer une infinité d’itération. Il faut donc définir une condition d’ar-
rêt des itérations. Ne cherchant qu’une approximation de x∗, la condition d’arrêt
peut être marquée par “ l’écart ” qui existe entre la solution approchée x(k) et la
solution exacte x∗. L’erreur absolue ou l’erreur relative de l’approximation à l’étape
k étant difficilement calculable (n’ayant pas la valeur de x∗), la condition d’arrêt
des itérations peut être imposée sur le vecteur résidu à l’étape k.
Soient
r(k) = b − Ax(k) , (3.3.19)
le vecteur résidu à l’étape k et ε > 0 une précision fixée. On définit les deux critères
d’arrêt suivants :
r(k) < ε, (3.3.20)
ou
r(k)
< ε. (3.3.21)
∥r(0) ∥
Lorsque x(0) est nul, l’inégalité (3.3.21) devient :

r(k) < ε ∥b∥ , (3.3.22)

et on obtient la majoration suivante de l’erreur relative :

x ∗ −x(k) A−1 (b − Ax(k) ) ∥A∥ ∥A−1 ∥ r(k) r(k)


= ≤ ≤ κ(A) ≤ εκ(A),
∥x∗∥ ∥x∗∥ ∥A∥ ∥x∗∥ ∥b∥
(3.3.23)
où
κ(A) = ∥A∥ A−1 (3.3.24)
définit le conditionnement de la matrice A.
Remark 3.3.1. Dans la pratique, malgré la convergence de la méthode itérative, la
critère (3.3.20) (ou (3.3.21)) peut être difficilement réalisable. Il est donc oppor-
tun de limiter le nombre d’itération en associant au critère (3.3.20) ou (3.3.21) un
nombre maximal d’itération.
Il peut arriver, à cause des effets des erreurs d’arrondi, qu’une méthode itérative
dont la matrice d’itération M vérifie ρ(M ) < 1, ne converge pas dans la pratique.
C’est le cas en particulier lorsque la matrice A du système est fortement mal
conditionnée(κ(A) >> 1) et ρ(M ) est proche de 1.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 43

Un exemple classique décomposition de la matrice A


On suppose que :  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A= .. .. .. . (3.3.25)
 . . ··· . 
an1 an2 · · · ann
La matrice peut se décomposer sous la forme suivante :

A = D − L − U, (3.3.26)

où les matrices D, L et U sont respectivement définies par :


 
a11 0 ··· 0
 . 
 0 a22 . . 
D= . .. .. , (3.3.27)
 .. . . 0 
0 0 ann
 
0 0 ··· 0
 .. 
 −a21 0 . 
L= . .. .. ..  , (3.3.28)
 .. . . . 
−an1 · · · −ann−1 0
 
0 −a12 · · · −a1n
 .. . . .. 
 . 0 . . 
U = . . ..  (3.3.29)
 .. . . . −an−1n 
0 ··· 0 0

De manière schématique, la matrice A peut être représentée par :


De la décomposition (3.3.26) ci-dessus, on déduit plusieurs méthodes itératives
de base telles que : la Méthode de Jacobi, la méthode de Gauss-Seidel et la méthode
des relaxations successives (SOR).
On suppose dans la suite que :

aii ̸= 0, i = 1, 2, · · · , n. (3.3.30)

Dans le cas contraire, on effectue des permutations de lignes nécessaires sur le sys-
tème.

Méthode de Jacobi :
On considère la décomposition (3.3.26) ci-dessus. On définit la méthode itérative
de Jacobi en posant :
N = D et P = L + U. (3.3.31)
La matrice N est inversible et facile inverser : car diagonale.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 44

Figure 3.1 – Décomposition de la matrice A.

On a
A = N − P, (3.3.32)
et la matrice d’itération de la méthode de Jacobi est donnée par :

J = N −1 P = D−1 (L + U ) (3.3.33)
   
a11 0 −a12 −a13 ··· −a1n
 

 a22 
  −a21 0 −a23 ··· −a2n 
N =  , P =  −a −a 0 ··· −a3n 
 ...   31 32 
 ··· ··· ··· ··· ··· 
ann −an1 −an2 −an3 ··· 0
 
0 − aa12
11
− aa11
13
· · · − aa1n
11
 − a21 0 − aa23 · · · − aa2n 
 a22 22 
N −1 P =  
22

 − a33 − a33 0 · · · − aa3n


a31 a32
33 
 ··· ··· ··· ··· ··· 
− ann − ann − ann · · · 0
an1 an2 an3

On suppose que x(0) donné. A l’étape k ≥ 1, le vecteur d’approximation est donné


par :
x(k) = D−1 (b + (L + U )x(k−1) ). (3.3.34)
Plus précisément, on a l’algorithme de calcul suivant :

Algorithme 3.3.1. Méthode de Jacobi

Pour k = 1, 2, · · · , itermax
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 45

Pour i = 1, 2, · · · , n
 
 
 ∑ n 
(k) 1  (k−1) 
xi = bi − aij xj  (3.3.35)
aii  
 j=1 
j ̸= i
Si le critère d’arrêt est vérifié : arrêter.

Pour i fixé, la formule (3.3.35) s’écrit encore :


[ ]
(k) 1 ∑
i−1
(k−1)
∑n
(k−1)
xi = bi − aij xj − aij xj . (3.3.36)
aii j=1 j=i+1

Dans le calcul de la ieme composante du vecteur x(k) , on utilise toutes les composantes
du vecteur x(k−1) , exceptée la iéme . Le calcul du vecteur x(k) nécessite le stockage de
x(k−1) .
La méthode itérative de Jacobi est encore appelée méthode des déplacements
simultanés

Exemple 3.3.1. On considère le système linéaire suivant :


    
3 −1 1 x1 4
 3 6 2   x1  =  21 
3 3 7 x1 30
( )T
dont la solution exacte est x = 1 2 3 .
Pour l’application de la méthode de Jacobi, on mesure l’erreur d’approximation
(k)
par la formule Erreur(k) = x − x(k) ∞ = max xi − xi . On a :
1≤i≤3
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 46

(k) (k) (k)


k x1 x2 xk Erreur Résidu Ratio
1 0.00000 0.00000 0.00000 3.00e+00 3.00e+01
2 1.33333 3.50000 4.28571 1.50e+00 1.45e+01 0.5000
3 1.07142 1.40476 2.21428 7.88e-01 7.07e+00 0.5238
4 1.06349 2.22619 3.22448 2.26e-01 2.44e+00 0.2879
5 1.00056 1.89342 2.87585 1.24e-01 1.18e+00 0.5489
··· ··· ··· ··· ··· ··· ···
9 9.99688 1.99686 2.99652 3.48e-03 3.46e-02 0.4157
10 1.00011 2.00131 3.00147 1.47e-03 1.46e-02 0.4241
··· ··· ··· ··· ··· ··· ···
30 1.00000 2.00000 3.00000 4.14e-11 4.11e-10 0.4193
31 1.00000 2.00000 3.00000 1.73e-11 1.72e-10 0.4193
32 1.00000 2.00000 3.00000 7.28e-12 7.23e-11 0.4193
33 1.00000 2.00000 3.00000 3.05e-12 3.03e-11 0.4193
34 1.00000 2.00000 3.00000 1.28e-12 1.27e-11 0.4195

Méthode de Gauss-Seidel :
La méthode itérative de Gauss-Seidel est définie en posant :

N = D − L et P = U. (3.3.37)

On a    
a11 0 0 ··· 0 0 −a12 −a13 · · · −a1n
 a21 a22 0 ··· 0   0 0 −a23 · · · −a2n 
   
N = a31 a32 a33
 
· · · 0 et P =  · · · · · · ··· ··· ··· 

 ··· ··· ··· ··· ···   0 0 0 · · · −an−1n 
an1 an2 an3 · · · ann 0 0 0 ··· 0
La matrice d’itération de la méthode de Gauss-Seidel est donnée par :

G = N −1 P = (D − L)−1 U. (3.3.38)

On suppose que x(0) donné. A l’étape k ≥ 1, le vecteur d’approximation vérifie la


relation
N x(k) = P x(k−1) + b, (k = 1, 2, · · · ). (3.3.39)
La matrice N étant triangulaire inférieure, en appliquant la méthode de substi-
tution progressive, la composante i du vecteur x(k) (k = 1, 2, · · · ) est donnée par :
( )
(k) 1 ∑
i−1
(k)
∑n
(k−1)
xi = bi − aij xj − aij xj , i = 1, 2, · · · , n. (3.3.40)
aii j=1 j=i+1

Le vecteur x(k) (k = 1, 2, · · · ) vérifie alors :

x(k) = D−1 (b + Lx(k) + U x(k−1) ) (3.3.41)

On a alors l’algorithme de calcul suivant :


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 47

Algorithme 3.3.2. Méthode de Gauss-Seidel


Pour k = 1, 2, · · · , itermax
Pour i = 1, 2, · · · , n
( )
(k) 1 ∑
i−1
(k)
∑n
(k−1)
xi = bi − aij xj − aij xj (3.3.42)
aii j=1 j=i+1

Si le critère d’arrêt est vérifié : arrêter.

La méthode itérative de Gauss-Seidel est encore appelée méthode des déplace-


ments successifs.

Méthode des relaxations successives (SOR : Successive Over Relaxation).


L’objectif principal de la méthode de relaxation est l’accélération d’une méthode
itérative par l’introduction d’un paramètre de relaxation. D’une manière générale,
partant d’un vecteur initial x(0) , chaque itérée d’une méthode relaxation est donnée
par :
1
x(k+1) = (1 − ω) x(k) + ωx(k+ 2 ) k = 0, 1, 2, . . . (3.3.43)
1
où le vecteur intermédiaire x(k+ 2 ) est calculé à partir de x(k) à l’aide la méthode
itérative à accélérer et ω ̸= 0 désigne le paramètre de relaxation.
La méthode des relaxations successives (SOR) est obtenue à partir de la méthode
1
de Gauss-Seidel. A l’itération k + 1 (k = 0, 1, 2, . . .), le vecteur intermédiaire x(k+ 2 )
est obtenu par la méthode de Gauss-Seidel. Ainsi, on a :
[ ]
x(k+1) = (1 − ω)x(k) + ω D−1 (b + Lx(k+1) + U x(k) ) (3.3.44)

Lorsque :
– ω = 1,on obtient la méthode de Gauss-Seidel ;
– ω > 1,on parle de sur-relaxation (SOR) ;
– ω < 1,on parle de sous-relaxation.
En utilisant la relation (3.3.44), la ieme composante du vecteur x(k+1) est donnée
par :
[ ]
(k) ∑n
(k) ∑
i−1
(k+1)
aii (1 − ω)xi + ωbi − ω aij xj − ω aij xj
(k+1) j=i+1 j=1
xi = , i = 1, 2, . . . , n.
aii
(3.3.45)
La relation (3.3.45) définit la solution du système triangulaire :

(D − ωL)x(k+1) = [(1 − ω)D + ωU ] x(k) + ωb. (3.3.46)

D’où

x(k+1) = (D − ωL)−1 [(1 − ω)D + ωU ] x(k) + ω(D − ωL)−1 b. (3.3.47)


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 48

La matrice d’itérations H(ω) de la méthode des relaxations successives s’écrit alors :

H(ω) = (D − ωL)−1 [(1 − ω)D + ωU ] . (3.3.48)

La matrice H(ω) correspond à la décomposition suivante de la matrice A du système :


1 1
A= (D − ωL) − [(1 − ω)D + U ] . (3.3.49)
ω ω
On a alors l’algorithme de calcul suivant pour la méthode SOR :

Algorithme 3.3.3. Méthode SOR


Pour k = 1, 2, · · · , itermax
Pour i = 1, 2, · · · , n
( )
(k− 21 ) 1 ∑
i−1
(k)
∑n
(k−1)
xi = bi − aij xj − aij xj
aii j=1 j=i+1

(k+1) (k−1) (k− 21 )


xi = (1 − ω)xi + ωxi (3.3.50)
Si le critère d’arrêt est vérifié : arrêter.

Etude de la convergence de la méthode itérative définie par (3.3.16).


Soient x∗ la solution exacte du système Ax = b et x(k) (k ≥ 1), la solution
approchée du même système à l’étape k, obtenue à l’aide (3.3.16). On a :
{
N x(k) = P x(k−1) + b
. (3.3.51)
N x∗ = P x ∗ +b

En soustrayant membre à membre les équations de (3.3.51), on obtient :


( ) ( )
N x(k) − x∗ = P x(k−1) − x∗ + b. (3.3.52)

D’où ( )
x(k) − x = N −1 P x(k−1) − x + b. (3.3.53)
Définissons par :
e(k) = x(k) − x∗, k = 0, 1, 2, · · · ; (3.3.54)
le vecteur erreur à l’étape k. On a :

e(k) = M e(k−1) , k = 1, 2, · · · . (3.3.55)

En procédant par récurrence, on obtient :

e(k) = M k e(0) . (3.3.56)

e(0) étant le vecteur erreur initial.


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 49

Théorème 3.3.2. Une condition nécessaire et suffisante pour la convergence de la


méthode itérative définie par (3.3.16) est :

lim e(k) = 0 (3.3.57)


k→+∞

On déduit de l’équation (3.3.56) que la condition (3.3.57) est équivalente à la


condition suivante :
lim M k = 0. (3.3.58)
k→+∞

Toute matrice qui satisfait la condition (3.3.58) est appelée matrice convergente

Théorème 3.3.3. La matrice M est convergente si et seulement si toutes ses valeurs


propres ont un module strictement inférieur à 1. C’est-à-dire

ρ(M ) < 1, (3.3.59)

où ρ(M ) désigne le rayon spectrale de la matrice M.

On a
ρ(M ) = max |λi (M )| , (3.3.60)
1≤i≤n

où les λi (1 ≤ i ≤ n) sont les n valeurs propres de la matrice M.


D’une manière générale, la condition (3.3.59) est difficile à vérifier.
Cherchons une condition suffisante de convergence de la méthode itérative définie
par (3.3.16).Soit ∥.∥, une norme matriciel subordonnée à une norme vectorielle.
Soient λ une valeur propre de la matrice M et u un vecteur propre non nul de M
associé à λ. On a :
|λ| ∥u∥ = ∥λu∥ = ∥M u∥ ≤ ∥M ∥ ∥u∥ (3.3.61)
On déduit de (3.3.61) que
|λ| ≤ ∥M ∥ . (3.3.62)
D’où
ρ(M ) ≤ ∥M ∥ . (3.3.63)
On a donc :

Théorème 3.3.4. Si ∥.∥ est une norme matricielle subordonnée, alors pour toute
matrice carrée M on a
ρ(M ) ≤ ∥M ∥ (3.3.64)

Théorème 3.3.5. Condition suffisante de convergence


S’il existe une norme matricielle subordonnée notée par ∥.∥ telle que

∥M ∥ < 1, (3.3.65)

alors la méthode itérative de matrice d’itération égale à M est convergente.


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 50

Convergence des méthodes de Jacobi et de Gauss-Seidel.


Il est en général très difficile de vérifier la condition nécessaire et suffisante de
convergence spécifiée sur la matrice d’itération M = N −1 P .
Il est donc important d’établir des conditions suffisantes pour la convergence de
la méthode itérative. En d’autres termes, Il est important de spécifier une classe de
matrice pour laquelle chaque méthode converge.

Théorème 3.3.6. Si la matrice A est à stricte dominance diagonale par ligne ou par
colonne, alors les méthodes itératives de Gauss-Seidel et de Jacobi sont convergentes.

Théorème 3.3.7. Si la matrice A est symétrique et définie positive, alors les mé-
thodes itératives de Gauss-Seidel et de Jacobi sont convergentes.

Convergence de la méthode des relaxations successives


Théorème 3.3.8. Théorème de Kahan : Condition nécessaire de conver-
gence de la méthode SOR
Le rayon spectral de la matrice d’itérations H(ω) de la méthode des relaxations suc-
cessive vérifie l’inégalité :
ρ (H(ω)) ≥ |ω − 1| (3.3.66)
Ainsi, une condition nécessaire de convergence de la méthode SOR est :

|ω − 1| < 1 (3.3.67)

Dans le cas où le paramètre ω est un réel, la condition nécessaire de convergence de


la méthode SOR s’écrit alors :
0<ω<2 (3.3.68)

La condition (3.3.68) devient une condition suffisante de convergence lorsque la


matrice A est symétrique et définie positive.

Théorème 3.3.9. Théorème de Ostrowski-Reich


Si la matrice A du système est définie positive et si le paramètre ω vérifie

0 < ω < 2, (3.3.69)

alors la méthode des relaxations successives (SOR) converge.

3.3.2 Exemple de Méthodes Itératives non Stationnaires :


Méthode du Gradient Conjugué (CG : Conjugate Gra-
dient)
Principe de la méthode des pentes :
On considère le système d’équations linéaires suivant :

Ax = b, (3.3.70)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 51

auquel on associe la fonctionnelle quadratique suivante :


1 1
f (x) = xT Ax − xT b + c = ⟨x, Ax⟩ − ⟨x, b⟩ + c (3.3.71)
2 2
où c est un scalaire.
Le gradient et la matrice Hessienne de la fonctionnelle f au point x sont respec-
tivement donnés par :
1
∇f (x) = (A + AT )x − b (3.3.72)
2
et
1
H(f )(x) = (A + AT ) (3.3.73)
2
Si la matrice A est symétrique, alors on a :

∇f (x) = Ax − b et H(f ) = A

D’où, tout point critique de f est solution du système (3.3.70).


De plus, si la matrice A est définie positive, l’unique point critique de f est un
minimum.

Théorème 3.3.10. Le vecteur x∗ est la solution du système symétrique et défini


positif Ax = b si et seulement si x∗ minimise la fonctionnelle

1
f (x) = xT Ax − xT b + c (3.3.74)
2
minn f (x) = f (x∗) (3.3.75)
x∈R

Exemple 3.3.11. :

Lorsque la matrice A est symétrique et définie positive, la résolution du système


(3.3.70) est équivalente à la minimisation de la fonctionnelle f .
De manière itérative, la minimisation de f (x) procède comme suit : partant d’une
approximation initiale x0 , construire les approximations successives xk (k = 1, 2, . . .)
de x∗ tels que :
f (xk+1 ) < f (xk ). (3.3.76)
Dans la suite, on suppose que le scalaire c est nul.
Si à l’étape k + 1, on cherche xk+1 dans la direction non nulle dk , alors

xk+1 = xk + αk dk (3.3.77)

avec αk > 0. Le vecteur dk est appelé direction de descente ou direction de recherche.


Il faut donc choisir dk et αk de sorte que l’inégalité (3.3.76) soit satisfaite.
On a :
αk2
f (xk+1 ) = f (xk + αk dk ) = f (xk ) + αk ⟨dk , Axk − b⟩ + ⟨dk , Adk ⟩
2
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 52

d’où
αk2
f (xk+1 ) − f (xk ) = αk ⟨dk , Axk − b⟩ + ⟨dk , Adk ⟩
|2 {z }
>0

Donc si f (xk+1 ) < f (xk ), alors ⟨dk , Axk − b⟩ = ⟨dk , ∇f (xk )⟩ < 0
Pour que dk soit une direction de descente admissible, il faut que

⟨dk , Axk − b⟩ < 0. (3.3.78)

La direction de grande pente dans la décroissance des valeurs de f (x) est donnée
par −∇f (x).
Si on pose
dk = −∇f (xk ) = rk , (3.3.79)
où rk = b − Axk désigne le résidu du système à l’étape k, alors dk est une direction
admissible et on a la méthode suivante :

xk+1 = xk + αk rk . (3.3.80)

Avec ce choix de dk , l’inégalité (3.3.76) est satisfaite si et seulement si


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 53

⟨rk , rk ⟩ r T rk
0 < αk < 2 = 2 Tk (3.3.81)
⟨rk , Ark ⟩ rk Ark
Le paramètre optimal αk est tel que :

f (xk+1 ) = min f (xk + λk rk ). (3.3.82)


λk

On a :
1
f (xk + λk rk ) = (xk + λk rk )T A(xk + λk rk ) − (xk + λk rk )T b
2
∂f
∂λk
= (xk + λk rk )T Ark − rkT b
= λk rkT Ark − rkT (b − Axk ) = λk rkT Ark − rkT rk
∂f rkT rk
=0 ⇒ λk = .
∂λk rkT Ark
Donc le paramètre optimal est :

rkT rk
αk =
rkT Ark
La méthode itérative définie par :

rkT rk
xk+1 = xk + rk (3.3.83)
rkT Ark

est appelée méthode des grandes pentes (method of steepest descent) ou méthode du
gradient.
Considérons la méthode itérative suivante :

xk+1 = xk + αk dk (3.3.84)

A l’étape k + 1, le vecteur résidu est donné par

rk+1 = b − Axk+1 = b − A(xk + αk dk ) = rk − αk Adk (3.3.85)

En pratique, pour limiter les effets de propagation des erreurs d’arrondi, le vecteur
résidu est calculé comme suit :

rk+1 = rk − αk Adk . (3.3.86)

Pour la méthode du gradient, on a :


dk = rk et rk+1 = rk − αk Ark . (76)
On a l’algorithme suivant : x0 ∈ Rn ;
Algorithme 3.3.4. Méthode de Grandes Pentes
r0 = b − Ax0 ;
Pour k = 0, 1, . . . ,
Si ∥rk ∥ < tol Arrêter
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 54

Sinon
vk = Ark
αk = (rkT rk )/(rkT vk )
xk+1 = xk + αk rk
rk+1 = rk − αk vk
FinSi
FinPour

Convergence de la méthode du gradient


On désigne par
ek = xk − x, (3.3.87)
le vecteur erreur d’approximation à l’étape k. On a :

ek+1 = ek + αk rk . (3.3.88)

Soit ∥.∥A la A−norme ou norme d’énergie définie par :

∥v∥2A = v T Av ∀v ∈ Rn . (3.3.89)

On montre que
( )k
κ2 (A) − 1
∥ek ∥A ≤ ∥e0 ∥A , (3.3.90)
κ2 (A) + 1
où κ2 (A) désigne le conditionnement spectrale de A. On constate donc que plus la
matrice A est “ mal conditionné ” (κ2 (A) ≫ 1), plus la convergence de la méthode
du gradient est lente.

Directions conjuguées
Dans la méthode du gradient, il arrive parfois qu’une direction de recherche soit
utilisée plusieurs fois. Pour éviter cela, on peut par exemple prendre n directions de
recherche deux à deux orthogonale. Dans ce cas, on a :

xk+1 = xk + αk dk . (3.3.91)

Pour déterminer le paramètre αk , on impose la seconde condition d’orthogonalité


suivante :
eTk+1 dk = 0. (3.3.92)
Dans ce cas, on a :

eTk+1 dk = 0 ⇔ eTk dk + αk dTk dk = 0.

D’où
eTk dk
αk = − (3.3.93)
dTk dk
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 55

N’ayant pas la valeur du vecteur erreur ek , il n’est pas possible de calculer la valeur
de αk .
Une alternative serait de remplacer la condition d’orthogonalité par la condition
de A−orthogonalité. Les vecteurs u et v sont A− orthogonaux ou conjugués si

uT Av = 0. (3.3.94)

Cherchons les directions dk sous la forme :


{
r0 si k = 0
dk = . (3.3.95)
rk + βk dk−1 si k > 0

Le scalaire βk qui est le facteur de correction, est obtenu en imposant la condition


de A−orthogonaux. Ainsi,

dTk Adk−1 = 0 ⇒ rkT Adk−1 + βk dTk−1 Adk−1 = 0.

D’où
. (3.3.96)
Ainsi choisies, les directions dk (k = 0, 1, . . . , n − 1) sont admissible. En effet,

dTk ∇f (xk ) = −dTk rk = −rkT rk − βk dTk−1 rk = −rkT rk < 0


| {z }
=0

Soit dk une direction admissible. Posons :

xk+1 = xk + αk dk
α2
f (xk+1 ) < f (xk ) ⇔ −αk ⟨dk , rk ⟩ + 2k ⟨dk , Adk ⟩ < 0
⇔ 0 < αk < 2 ⟨d⟨dkk,Ad
,rk ⟩
k⟩

Le paramètre optimal est


⟨dk , rk ⟩
αk = . (3.3.97)
⟨dk , Adk ⟩
Avec ce choix de αk , on a :

dTk rk T
dTk Aek+1 = −dTk rk+1 = −dTk rk + T d Adk = 0
dk Adk k
et
dTk ∇f (xk ) = −dTk rk = −rkT rk − βk dTk−1 rk = −rkT rk .
| {z }
=0

D’où :
dTk rk = rkT rk (3.3.98)
et
rkT rk
αk = (3.3.99)
dTk Adk
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 56

On suppose que les valeurs de dk , βk et sont respectivement données par les relations
(3.3.95), (3.3.96) et (3.3.99). La méthode itérative définie par

xk+1 = xk + αk dk (3.3.100)

est appelée méthode du gradient conjugué.


Pour la méthode du gradient conjugué, on a l’algorithme suivant :

Algorithme 3.3.5. Méthode CG


r0 = b − Ax0 ;
d0 = r0 ;
Pour k = 0, 1, . . . , n − 1
Si ∥rk ∥ < tol Arrêter
Sinon
vk = Adk
αk = (rkT dk )/(dTk vk )
xk+1 = xk + αk dk
rk+1 = rk − αk vk
T
βk+1 = (rk+1 vk )/(dTk vk )
dk+1 = rk + βk+1 dk x = xk
FinSi
FinPour

Convergence de la méthode CG.


Théoriquement, la méthode du gradient conjugué perme d’obtenir la solution
exacte du système après n itérations (n étant la taille du système). Dans la pratique,
à cause des effets d’erreurs d’arrondi, les résidus perdent en précision. Ceci entraı̂ne
la perte de la propriété de A−orthogonalité par les directions de recherche.
Une technique pour atténuer les effets d’erreurs d’arrondi consiste à recalculer
après un certain nombre d’itération, le résidu par la formule

rk = b − Axk . (3.3.101)

On a le résultat suivant :

Théorème 3.3.12. A l’étape k de la méthode CG pour la résolution du système


symétrique et défini positif Ax = b , l’erreur d’approximation ek vérifie :
(√ )k
κ(A) − 1
∥ek ∥A ≤ 2 √ ∥e0 ∥A . (3.3.102)
κ(A) + 1

Pareillement à la méthode du gradient ou de grande pente, la vitesse de conver-


gence de la méthode CG dépend du nombre de conditionnement de la matrice A.
A chaque itération de la méthode CG, le calcul le plus coûteux est le produit
Matrice-Vecteur qui s’effectue en O(n2 ) opérations. Si la méthode CG converge après
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 57

un nombre d’itération inférieur à n, le coût de la méthode est de l’ordre de O(n3 )


opérations.
La méthode devient intéressante pour la résolution des systèmes à matrice creuse
lorsque le nombre d’itération nécessaire pour la convergence est suffisamment infé-
rieur à n.
Chapitre 4

Méthodes de résolution des


systèmes d’équations non linéaires

4.1 Position du Problème


Soit F : Ω ⊂ RN −→ RN , Une application continue sur Ω. On cherche dans Ω
la solution du système d’équations non linéaires

F (X) = 0. (4.1.1)

Il n’est pas souvent aisé de trouver directement la solution du système (4.1.1) à


partir de l’expression de la fonction F . On procède généralement par une approxi-
mation numérique.
L’approximation numérique de la solution du( système) (4.1.1) est généralement
(n)
basée sur la construction d’une suite de vecteur X vérifiant :
{
X ∗ = lim X (n)
n→+∞ .
F (X ∗ ) = 0

Procédant comme dans le cas de la résolution des équations non linéaires, on


construira à partir de F une application G : Ω −→ RN , de sorte que le système
(4.1.1) soit équivalent au système :

G(X) = X. (4.1.2)

On utilise l’application G pour calculer les approximations successives X (n) (n =


0, 1, . . .) comme suit : {
X (0) ∈ RN
. (4.1.3)
X (n+1) = G(X (n) )
( )
Si la suite X (n) converge, alors sa limite est solution du système (4.1.1).
Une fois l’application G construite, les théorèmes du point fixe donnent des
conditions suffisantes d’existence et d’unicité de la solution du problème (4.1.1).

58
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 59

4.2 Une méthode de construction du problème du


point fixe équivalent
Par analogie aux méthodes de résolution des équations non linéaires décrites ci-
dessus, on construit le problème du point fixe équivalent au problème (4.1.1) comme
suit :
G(X) = X − M (X)−1 F (X), (4.2.1)
où M (X) est une matrice carrée d’ordre N inversible dont les coefficients dépendent
du point X. On voit aisément que si F (X) = 0 alors G(X) = X et inversement.
On a le résultat d’existence et d’unicité suivant :
Proposition 4.2.1. Si l’application G est une contraction stricte d’une boule fermée
B dans elle même, alors la suite définie par :
{
X (0) ∈ B
(n+1) . (4.2.2)
X = G(X (n) )

converge dans B vers X ∗ .


Ce résultat est une conséquence du théorème du point fixe.
Considérons la méthode définie par :
{
X (0) ∈ B
. (4.2.3)
X (n+1) = G(X (n) ) = X (n) − M (X (n) )−1 F (X (n) )

Il serait très coûteux d’évaluer à chaque itération, la matrice M (X (n) )−1 . En posant

∆X (n) = −M (X (n) )−1 F (X (n) ), (4.2.4)

on obtient
M (X (n) )∆X (n) = −F (X (n) ), (4.2.5)
et
X (n+1) = X (n) + ∆X (n) . (4.2.6)
Une itération de la méthode consiste alors à résoudre le système (4.2.5) et à cal-
culer l’itérée suivante par la formule (4.2.6). On peut noter ici l’importance des
méthodes de résolution des systèmes d’équations linéaires dans la résolution des
systèmes d’équations non linéaires.

4.3 Méthode des approximations successives


Posons
M (X) = IN ,
où IN désigne la matrice unité d’ordre N . Alors, on a

G(X) = X − F (X)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 60

et on déduit la suite {
X (0) ∈ B
(4.3.1)
X (n+1) = X (n) − F (X (n) )
qui définit la méthode des approximations successives.

Exemple 4.3.1.

Proposition 4.3.2. Lorsque la méthode des approximations successives converge,


sa vitesse de convergence est linéaire.

4.4 Méthode de Newton et ses variantes


Lorsque N = 1, la méthode de Newton pour la résolution de l’équation (4.1.1)
est définie par : {
X (0) ∈ [a, b]
(n) ) . (4.4.1)
X (n+1) = X (n) − FF′(X
(X (n) )

La méthode itérative définie par (4.4.1) peut être généralisée au cas N > 1 par :
{
X (0) ∈ B
, (4.4.2)
X (n+1)
= X − J −1 (X (n) )F (X (n) )
(n)

où J(X (n) ) est la matrice Jacobienne de l’application F au point X (n) . La relation
(4.4.2) définie la méthode de Newton pour la résolution du problème (4.1.1). La
méthode de Newton n’est bien définie que si la matrice jacobienne de la fonction F
est inversible au voisinage de la solution X ′ du problème (4.1.1).
Chapitre 5

Méthodes des Diférences Finis

5.1 Les formules aux différences


Soit f une fonction de I ⊂ R dans R. On suppose que f est dérivable sur I. Il
existe plusieurs méthodes pour le calcul de la dérivée de f sur l’intervalle I.
Lorsque l’expression de la fonction f est assez complexe ou bien lorsque la fonc-
tion f est déterminée par la donnée de ses valeurs en certains points, on procède
généralement par une approximation numérique pour le calcul de la valeur approchée
se f ′ .
Nous décrivons dans cette partie, quelques méthodes d’approximation numérique
des dérivées f ( r) (r ≥ 1) de la fonction f . On distingue en général trois approches
pour la dérivation numérique :
1. les méthodes basées sur l’interpolation ;
2. les méthodes des différences finies ;
3. les méthodes des coefficients indéterminés.
Nous intéressont ici aux deux premières méthodes.

5.1.1 Méthodes basées sur l’interpolation polynomiale


Soit f une fonction telle que les valeurs soient connues en n + 1 points distinct
x0 , x1 , · · · , xn . Alors d’àprès la théorie de l’interpolation de Lagrange, il existe un
polynôme pn de dégré n tel que
f (xi ) = pn (xi ), 0 ≤ i ≤ n; (5.1.1)

n
pn (x) = f (xk )Lk (x), (5.1.2)
k=0
où les Lk (x) sont les fonctions de base de Lagange associées aux noeuds x0 , x1 , · · · , xn
et définies par
∏n
(x − xi )
i=1,i̸=k
Lk (x) = ∏ n , k = 0, 1, · · · , n. (5.1.3)
(xk − xi )
i=1,i̸=k

61
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 62

Le polynôme pn est une approximation de la fonction f sur l’intervale [m, M ] où

m = min {xi } et M = max {xi }.


0≤i≤n 0≤i≤n

Ainsi, la dérivée f (r) d’ordre r (r ≤ n) de la fonction f peut être approchée sur


l’intervalle [m, M ] par :
f (r) (x) ≈ p(r)
n (x). (5.1.4)

Exemple 5.1.1. On considère le tableau des données suivantes qui sont les valeurs
aux points xi d’une fonction f définie sur [0, 1].
1
x 0 2
1
y 1 e1/2 e
Le polynôme d’interpolation de Lagrange associé aux données du tableau ci-dessus
est défini par :

p2 (x) = (2 + 2e − 4e1/2 )x2 + (4e1/2 − 3 − e)x + 1

ainsi, sur l’intervalle [0,1], la dérivée de la fonction f interpolée par le polynôme p2


peut être approchée comme suit :

f ′ (x) ≈ p′2 (x) = (4 + 4e − 8e1/2 )x − (3 + e − 4e1/2 ).

Ainsi, f ′ (0) ≈ 0.87

Erreur d’approximation
On suppose que la fonction f ∈ C n ([m, M ]). D’après le théorème générale de
l’erreur d’interpolation polynômiale de Lagrange, on a :

w(x) (n+1)
f (x) − pn (x) = f (ξx ),
(n + 1)!

où (ξx ) ∈ [m, M ] et w(x) = ni=0 (x − xi ).
Lorsque la fonction f (n+1) est dérivable sur [m, M ], on obtient l’erreur d’approxi-
mation suivante : ( )
′ ′ d w(x)f (n+1)
f (x) − pn (x) = .
dx (n + 1)!

5.2 Méthode des Différences Finies


La méthode des Différences Finies (DF) est essentiellement basée sur le dévelop-
pement de Taylor de la fonction dont on voudrait obtenir une approximation de la
dérivée en certains points.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 63

5.2.1 Approximation de la dérivée d’une fonction


Soit f une fonction définie sur un intervalle I. Soit x0 ∈ I. On suppose que f est
de classe C n (n ≥ 1) sur I et que la dérivée d’ordre n + 1 de f (f (n+1) ) existe et est
bornée au voisinage V de x0 . Alors pour tout h ∈ R tel que x + h ∈ V , on a :

n
hk
f (x0 + h) = f (x0 ) + f (k) (x0 ) + O(hn+1 ).
k=1
k!

Ainsi, on a :
f (x0 + h) = f (x0 ) + hf ′ (x0 ) + O(h2 )
d’où
f (x0 + h) − f (x0 )
f ′ (x0 ) = + O(h).
h
La dérivée de la fonction f en x0 peut être approchée par la formule aux différences
suivante :
f (x0 + h) − f (x0 )
f ′ (x0 ) ≈ = y0′ . (5.2.1)
h
La relation (5.2.1) est connue sous le nom de formule aux Différences décentrées.
Lorsque h > 0, la formule (5.2.1) est appelée Différence Finie décentrée à droite.
Lorsque h < 0, (5.2.1) s’écrit encore
f (x0 ) − f (x0 − h1 )
f ′ (x0 ) ≈ = y0′ . (5.2.2)
h1
où h1 = −h > 0. Ainsi, la formule (5.2.2) est appelée Différence Finie décentrée à
gauche.
Pour les schémas aux différences finies décentrées, on a :

|f ′ (x0 ) − y0′ | = O(h). (5.2.3)

Donc l’ordre de l’erreur d’approximation dans ces cas vaut 1 lorsque f est de classe
C 1 et f ′′ est bornée au voisinage de x0 .
On suppose maintenant que n ≥ 2 et que [x0 − h, x0 + h] ⊂ V (h > 0). Le
développement de Taylor à l’ordre 2 de la fonction f au voisinage de x0 donne :
h2 ′′
f (x0 + h) = f (x0 ) + hf ′ (x0 ) + f (x0 ) + O(h3 ) (5.2.4)
2
et
h2 ′′

f (x0 − h) = f (x0 ) − hf (x0 ) + f (x0 ) + O(h3 ) (5.2.5)
2
En soustrayant membre à membre les équations (5.2.4) et (5.2.5), on obtient :

f (x0 + h) − f (x0 − h) = 2hf ′ (x0 ) + O(h3 ). (5.2.6)

Ainsi,
f (x0 + h) − f (x0 − h)
f ′ (x0 ) = + O(h2 ). (5.2.7)
2h
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 64

De la relation (5.2.8), on déduit la formule aux différences finies centrées sui-


vante :
f (x0 + h) − f (x0 − h)
f ′ (x0 ) ≈ y0′ = . (5.2.8)
2h
Pour le schéma aux différences finies centrées, on a :

|f ′ (x0 ) − y0′ | = O(h2 ). (5.2.9)

Donc l’ordre de l’erreur d’approximation dans ce cas vaut 2 lorsque f est de classe
C 2 et f 3 est bornée au voisinage de x0 .

5.2.2 Approximation de la dérivée seconde

5.3 Etude de cas


5.3.1 Equation de Poisson (1D et 2D)
5.3.2 Equation de la chaleur
Chapitre 6

Méthodes des Eléments Finis

6.1 Interpolation
6.1.1 Introduction
Dans ce chapitre, nous considérons le problème de l’approximation d’une fonction
donnée par une classe de fonctions ”facile” à manipuler.
Soit u(x) une fonction définie sur [a, b] (a < b), dont l’expression n’est pas vrai-
ment connue (les valeurs sont données en un nombre fini de points de [a, b] appelés
noeuds) ou qu’elle est difficile á manipuler.
On suppose que la fonction u(x) appartient á un espace vectoriel V qui contient
des fonction définies sur [a, b] (Par exemple, V = C([a, b]), V = C k ([a, b]), k ∈ N).
On cherche une approximation uh (x) de u(x) dans V h ⊂ V, un sous-espace vectoriel
des fonctions disponibles et facile à manipuler (par exemple des polynòmes).
On suppose que le sous-espace V h est de dimension finie n + 1 (n ∈ N). Alors on
a:
∑n
u(x) ≈ u (x) =
h
aj ϕ(x), (6.1.1)
j=0

òu les {aj }0≤j≤n sont des paramétres inconnus à déterminer et les {ϕj }0≤j≤n sont
des fonctions connues formant une base de l’espace vectoriel V h . Les coefficients
{aj }0≤j≤n déterminent entièrement l’approximation uh (x) de u(x).
Les méthodes de construction d’une approximation de u(x) sont caractérisées
par le
– choix des fonctions de base {ϕj }0≤j≤n ;
– procédé de détermination des coefficients {aj }0≤j≤n .
Dans la suite, on suppose connues les valeurs de la fonction u(x) aux abscisses
(noeuds) a ≤ x1 < x2 < · · · < xn ≤ b et données par :
u(xi ) = yi ; i = 0, 1, 2, · · · , n. (6.1.2)
On cherche généralement une approximation uh de u de sorte que
– Soit uh (x) passe exactement par les points xi (0 ≤ i ≤ n ie
uh (xi ) = u(xi ) = yi ; i = 0, 1, 2, · · · , n. (6.1.3)

65
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 66

Dans ce cas, on dit que uh (x) est une interpolation de u(x) relativement au
abscisses xi (0 ≤ i ≤ n, appelées points ou noeuds d’interpolation. L’intervalle
[x0 , xn ] est appelé intervalle d’interpolation. Les valeurs uh (x) pour x ∈
/ [x0 , xn ]
sont des valeurs extrapolées.
– Soit uh (x) ne passe pas par tout les points xi (0 ≤ i ≤ n, mais s’en rapproche
selon un critère à préciser. On a

uh (xi ) ≈ yi ; i = 0, 1, 2, · · · , n. (6.1.4)

Dans ce cas, on parle d’approximation, qui consiste à mésurer la déviation


de u(x) par rapport à uh (x) pour toute les valeurs de x ∈ [x0 , xn ].
Lorsque que les fonctions de base {ϕj }0≤j≤n sont des polynômes, on parle d’in-
terpolation ou d’approximation polynômiale.
Les polynômes algébriques constituent une des plus importantes classes de fonc-
tions définies sur R. Leur importance est due en partie au fait que d’une part, étant
donnée une fonction définie et continue sur un intervalle fermé et borné [a,b], celle ci
peut être approchée à la précision voulue par un polynôme. Ce résultat est clairement
donnée par le théorème suivant :
Théorème 6.1.1. Theorème d’approximation de Weierstrass.
Soit u une fonction définie et continue sur l’intervalle [a, b]. Alors pour tout
ϵ > 0, il existe un polynôme p(x) tel que

|u(x) − p(x)| < ϵ, ∀x ∈ [a, b]. (6.1.5)

D’autre part, les polynômes sont facilement dérivables et intégrables. De plus,


leurs dérivées et intégrales indéfinies sont aussi des polynômes.
Pour ces raisons, les polynômes sont très utilisés dans l’approximation des fonc-
tions continues.

6.1.2 Interpolation Polynômiale


Soit [a, b] ⊂ R un intervalle fermé et borné, {xj }0≤j≤n un ensemble de n+1 points
distincts de [a, b]. Soit u(x), une fonction inconnue définie sur [a, b]. On suppose que
les valeurs de u(x) aux points {xj }0≤j≤n sont données par {u(xj ) = yj }0≤j≤n .
On considère le problème suivant :
Trouver un polynôme qui interpole les valeurs
x x0 x1 ··· xn
y y0 y1 ··· yn
Il s’agit de déterminer un polynôme p(x) tel que p(xi ) = yi, i = 0, 1, 2, · · · , n.

Existence et Unicité du Polynôme d’Interpolation


On suppose que

n
p(x) = ak ϕk (x),
k=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 67

où {ϕj }0≤j≤n forme une base de l’ensemble Pn des polynômes de degré inférieur où
égale à n. Alors les coefficients ak (k = 0, 1, · · · , n) sont déterminer en résolvant le
système d’équation linéaire suivant :
    
ϕ0 (x0 ) ϕ1 (x0 ) ϕ2 (x0 ) · · · ϕn (x0 ) a0 y0
 ϕ0 (x1 ) ϕ1 (x1 ) ϕ2 (x1 ) · · · ϕn (x1 )   a1   y1 
    
 ϕ0 (x2 ) ϕ1 (x2 ) ϕ2 (x2 ) · · · ϕn (xn )   a2   y2 
  =  (6.1.6)
 .. .. .. ..   ..   .. 
 . . . .  .   . 
ϕ0 (xn ) ϕ1 (xn ) ϕ2 (xn ) · · · ϕ0 (x0 ) an yn
Il existe Plusieurs possibilités pour le choix de la base {ϕj }0≤j≤n .
• Si on considère la base {1, x, x2 , · · · , xn } constituée des monômes, le système (6.1.6)
devient     
1 x0 x20 · · · xn0 a0 y0
 1 x1 x2 · · · xn   a1   y1 
 1 1    
 1 x2 x2 · · · xn   a2   y2 
 2 2  = . (6.1.7)
 .. .. .. ..   ..   .. 
 . . . .  .   . 
1 xn xn · · · xnn
2
an yn
La matrice du système (6.1.7) est appelé matrice de Vandermonde associée aux
points xi (i = 0, 1, · · · , n) et son déterminant, appelé déterminant de Vadermonde
et donné par
1 x0 x20 · · · xn0
1 x1 x21 · · · xn1 ∏
n
V (x0 , x1 , · · · , xn ) = 1 x2 x22 · · · xn2 = (xi − xj ) ̸= 0. (6.1.8)
.. .. .. ..
. . . . i, j = 0
1 xn x2n · · · xnn i>j
Le déterminant du système (6.1.7) étant non nul, il possède une solution unique.
Donc il existe un polynôme de degré au plus égale à n qui interpole la fonction
u. Bien que le déterminant de ce système soit facile à calculer, la résolution de ce
système n’est pas aisée. Un choix judicieux des fonctions de base permettrait d’éviter
la résolution du système (6.1.6).

Méthode de Lagrange
Les polynômes de Lagrange associés aux points xi (i = 0, 1, · · · , n) sont les n + 1
polynômes li (x) de degré au plus égale à n, vérifiant la relation suivante :
{
0 si i ̸= j
li (xj ) = δij = . (6.1.9)
1 si i = j
Les polynômes li (x) forment une base de Pn . En effet, comme dim(Pn ) = n + 1, il
suffit de montrer que les li (x) forment un système libre. Soit (α0 , α1 , · · · , αn ) ∈ Rn
tel que
∑n
αi li (x) = 0.
i=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 68

En remplaçant x par x = xj (j = 0, 1, · · · , n), on obtient



n
0= αi li (xj ) = αj ; j = 0, 1, · · · , n.
i=0

Donc les polynôme li (x) forment une base de Pn .


En remplaçant les fonctions ϕi (x) par les polynômes li (x), le système (6.1.6)
devient :     
1 0 0 ··· 0 a0 y0
 0 1 0 · · · 0   a1   y1 
    
 0 0 1 · · · 0   a2   y2 
  = . (6.1.10)
 .. .. .. ..   ..   .. 
 . . . .  .   . 
0 0 0 ··· 1 an yn
On déduit donc que
ai = yi ; i = 0, 1, · · · , n, (6.1.11)
et

n
p(x) = yi li (x). (6.1.12)
i=0

Expression des polynômes de base de Lagrange :


Pour j ̸= i, le polynôme li (x) s’annule en xj ; il est donc de la forme

li (x) = a(x)q(x); q(x) = (x − xk ).
k̸=i

Comme le polynôme q(x) est de degré n, le polynôme a(x) est de degré 0. Donc
a(x) = a. On donc

n
1
li (xi ) = a (xi − xk ) = 1 ⇒ a = ∏ n .
k=0,k̸=i
(xi − xk )
k̸=i

On obtient alors ∏
(x − xk )
k̸=i
li (x) = ∏ . (6.1.13)
(xi − xk )
k̸=i

Théorème 6.1.2. Soit [a, b] ⊂ R un intervalle fermé et borné, {xj }0≤j≤n un en-
semble de n + 1 points distincts de [a, b]. Soit u(x), une fonction inconnue définie
sur [a, b]. On suppose que les valeurs de u(x) aux points {xj }0≤j≤n sont données par
{u(xj ) = yj }0≤j≤n . Alors, Il existe un polynôme pn (x) de degré < n et un seul tel
que
pn (xi ) = u(xi ), i = 0, 1, 2, . . . , n; (6.1.14)
ce polynôme s’écrit

n
pn (x) = u(xi )li (x), (6.1.15)
i=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 69

où
∏n
x − xj
li (x) = . (6.1.16)
j=0,i̸=i
xi − xj

Le Polynôme pn (x) définie par (6.1.15) est appelé polynôme d’interpolation de


Lagrange de la fonction u(x) relativement aux noeuds {xi }ni=0 .

Exemple 6.1.3. En utilisant les polynômes de Lagrange, Construire le polynôme


de interpolant les données

x 1 2 3
y 3 −10 2
Solution : Pour ces données, les polynômes de Lagrange sont :

(x − 2)(x − 3) 1
l0 (x) = = (x − 2)(x − 3)
(1 − 2)(1 − 3) 2
(x − 1)(x − 3)
l1 (x) = = −(x − 1)(x − 3)
(2 − 1)(2 − 3)
(x − 1)(x − 2) 1
l2 (x) = = (x − 1)(x − 2)
(3 − 1)(3 − 2) 2
Le polynôme d’interpolation de Lagrange associé à ces données est :
3
p2 (x) = (x − 2)(x − 3) + 10(x − 1)(x − 3) + (x − 1)(x − 2).
2

Méthode de Newton
Considérons l’ensemble des valeurs données par le tableau suivant :
x x0 x1 ··· xn
,
y y0 y1 ··· yn

où yi = u(xi ), u étant une fonction inconnue.


On Suppose que le polynôme pn (x) d’interpolation de ces valeurs a été construit
en utilisant les n + 1 polynômes de base de Lagrange associés aux noeuds xi (i =
0, 1, . . . , n. Si on introduit un noeud supplémentaire noté xn+1 , et qu’on souhaite ob-
tenir le polynôme d’interpolation Lagrange associé aux valeurs (x0 , y0 ), (x1 , y1 ), . . . , (xn , yn ), (xn+1 , yn
on sera obligé de calculer à nouveau tous les polynômes de base de Lagrange car
chacun de ces polynômes dépend de tous les noeuds d’interpolation. Ceci peut être
un facteur limitant, surtout lorsqu’on a un grand nombre de données. Une méthode
alternative serait de construire le polynôme d’interpolation de manière itérative en
construisant à l’étape i un polynôme pi (x) qui vérifie :

pi (xj ) = yj , j = 0, 1, . . . , i. (6.1.17)
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 70

1.5
l (x)
1
l2(x)
l3(x)
1

0.5

−0.5
0.5 1 1.5 2 2.5 3 3.5

Figure 6.1 – Fonctions de base de Lagrange associées aux noeuds {1, 2, 3}.

15

10

−5

−10

−15
0.5 1 1.5 2 2.5 3 3.5

Figure 6.2 – Polynôme d’interpolation relativement aux données de l’exemple.


Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 71

Ainsi, pour i = 0, on peut poser

p0 (x) = y0

En supposant qu’on est obtenu à l’étape k le polynôme pk (x) satisfaisant la propriété


(6.1.17) ci-dessus, le polynôme pk+1 (x) peut être obtenu de la manière suivante :

pk+1 (x) = pk (x) + ck+1 (x − x0 )(x − x1 ) · · · (x − xk ),

où ck+1 est une constante à déterminer. On peut observer que pk (xj ) = yj (0 ≤ j ≤
k). La constante c est obtenu en imposant (6.1.17) pour i = k + 1. Ainsi, on a :

yk+1 = pk+1 (xk+1 ) = pk (xk+1 ) + ck+1 (xk+1 − x0 )(xk+1 − x1 ) · · · (xk+1 − xk ).

D’où
yk+1 − pk (xk+1 )
ck+1 =
(xk+1 − x0 )(xk+1 − x1 ) · · · (xk+1 − xk )
Il s’agit de la méthode de Newton.
En procédant par récurrence, on montre que :
(k−1 )
∑ n ∏
pn (x) = y0 + ck (x − xj ) . (6.1.18)
k=1 j=0

L’écriture (6.1.18) du polynôme d’interpolation pn (x) est appelé forme de Newton du


polynôme d’interpolation de Lagrange associé aux données (x0 , y0 ), (x1 , y1 ),. . . , (xn , yn ).
Exemple 6.1.4. En utilisant la méthode de Newton, construire le polynôme inter-
polant les données
x 1 2 3
y 3 −10 2
Solution : On procède iterativement comme suit :

p0 (x) = 3
p1 (x) = 3 + c1 (x − 1)

avec p1 (2) = 3 + c1 = −10, d’où c1 = −13.

p2 (x) = 3 − 13(x − 1) + c2 (x − 1)(x − 2)

avec p2 (3) = 3 − 26 + 2c2 = 2, d’où c2 = 25


2
. On obtient
25
p2 (x) = 3 − 13(x − 1) + (x − 1)(x − 2).
2
Ayant déjà obtenu les valeurs des coefficients c0 = 3, c1 = 13, c2 = 25/2 de la forme
de Newton du polynôme d’interpolation de Lagrange p2 (x), la valeur de ce polynôme
en point t donnée se calcule de manière itérative comme suit :

u0 = 25
2
; u1 = −13 + u0 (t − 1); u2 = 3 + u1 (t − 2) = p2 (x).
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 72

Pour t = 1.5, on a u0 = 252


, u1 = −13 + 252
× 0.5 = − 17
4
, u2 = 3 − 17 4
× (−0.5) = 78 et
7
p2 (1.5) = 8 .
D’une manière générale, si les coefficients ck (k = 0, 1, . . . , n) de la forme de
Newton du polynôme d’interpolation de Lagrange pn (x) sont connus, la valeur de ce
polynôme en un point t est calculée itérativement comme suit :

u0 = cn ;
u1 = cn−1 + u0 (t − xn−1 );
u2 = cn−2 + u1 (t − xn−2 );
..
.
un = c0 + un−1 (t − x0 ) = pn (t).

Ce calcul requiert uniquement n multiplications et 2n additions. Ce qui est avanta-


geux comparer aux n2 additions et multiplications nécessaires lorsqu’on utilise les
fonctions de base de Lagrange.
La construction de la forme de Newton du polynôme d’interpolation de Lagrange
se ramène au calcul des coefficients ck . Ceci se fait en utilisant les différences divisées.

Différences Divisées.
Soit f une fonction définie sur [a, b] et {xi }ni=0 ⊂ [a, b], un ensemble de noeuds.
On suppose connues les valeurs {f (xi )}ni=0 de f aux noeuds {(xi )}ni=0 .
Definition 6.1.1. On appelle Différence Divisée d’ordre k de f aux k + 1 noeuds
(non nécessairement distincts) xi0 , xi1 , . . . , xik le scalaire

f [xi0 xi1 . . . xik ],

défini de manière recursive par

f [xi ] = f (xi );
f [xi1 , xi2 , . . . , xik ] − f [xi0 , xi1 , . . . , xik−1 ]
f [xi0 , xi1 , . . . , xik ] = . (6.1.19)
xik − xi0
Le coefficient ck de la forme de Newton du polynôme d’interpolation est alors
donné par :

ck = f [x0 , x1 , . . . , xk ]. (6.1.20)

Par définition, f [x0 , x1 , . . . , xk ] ne dépend pas de l’ordre des noeuds xi et peut être
calculé explicitement en fonction de f (x0 ),. . .,f (xn ) en ne considérant que les diffé-
rences divisées de la forme f [xj , xj+1 , . . . , xj+k ]. Ainsi, nous avons

f [xj+1 , xj+2 , . . . , xj+k ] − f [xj , xj+1 , . . . , xj+k−1 ]


f [xj , xj+1 , . . . , xj+k ] = .
xj+k − xj
Les coefficients ck sont obtenus à l’aide du tableau des différences divisées sui-
vant :
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 73

x f[ ] f[ , ] f[ , , ] f[ , , , ]
x0 f [x0 ]
f [x0 , x1 ]
x1 f [x1 ] f [x0 , x1 , x2 ]
f [x1 , x2 ] f [x0 , x1 , x2 , x3 ]
..
x2 f [x2 ] f [x1 , x2 , x3 ] .
.. ..
f [x2 , x3 ] . .
.. .. ..
x3 f [x3 ] . . .
.. .. .. .. ..
. . . . .
.. .. .. .. ..
. . . . .

Les calculs s’effectuent colonne après colonne en commençant par la 2eme colonne,
dont les valeurs sont : f [xi ] = f (xi ).

Exemple 6.1.5. Déterminer les différences divisées pour les données suivantes et
déduire le polynôme interpolant les données
x 1 2 3
y 3 −10 2
Solution : Les différences divisées d’ordre 0 s’obtiennent facilement en posant
f [xi ] = yi . On a

x f[ ] f[ , ] f[ , , ] Calculons les f [ , ]
1 3 f [x0 , x1 ] = f [xx11]−f [x0 ]
= −10−3 = −13
−x0 2−1
f [x2 ]−f [x1 ] 2+10
f [x1 , x2 ] = x2 −x1 = 3−2 = 12
2 −10
et
3 2 f [x0 , x1 , x2 ] = f [x1 ,xx22]−f [x0 ,x1 ]
−x0
= 12+13
3−1
= 25/2

Le tableau des différences divisées associées à ces données est :


x f[ ] f[ , ] f[ , , ]
1 3
-13
2 −10 25/2
12
3 2
d’où on obtient le polynôme d’interpolation suivant :
25
p2 (x) = 3 − 13(x − 1) + (x − 1)(x − 2).
2
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 74

Interpolation d’Hermite
Soit f une fonction définie [a, b]. On suppose que les valeurs de f et de ses dérivées
jusqu’à l’ordre αi sont connues aux points xi de [a, b] (i = 0, 1, ..., k). On considère
le problème suivant :
{
Trouverpn ∈ Pn , n = k + α0 + α1 + · · · + αk tel que
(l) (6.1.21)
∀(i, l) avec 0 ≤ i ≤ k et 0 ≤ l ≤ αi , pn (xi ) = f (l)(xi ).
Le problème (6.1.21) conduit à un système de n + 1 équations linéaires à n + 1
inconnues qui sont les coefficients de pn . L’equation homogène associée au problème
(6.1.21) est :
∀(i, l) avec 0 ≤ i ≤ k et 0 ≤ l ≤ αi , p(l)
n (xi ) = 0.

Si pn est solution de cette équation, alors pour i = 0, 1, ..., k, xi est racine de pn de


multiplicité αi + 1. Donc pn est de la forme

k
pn (x) = q(x) (x − xi )αi +1 ,
i=0

où q(x) est un polynôme. Comme (αi +1) = n+1 et pn ∈ Pn , ceci n’est possible
0≤i≤k
que si q ≡ 0. D’où pn ≡ 0. Il en découle l’existence et l’unicité de la solution du
problème (6.1.21).
On montre que
∑ k ∑αi
pn (x) = f l (xi )Li l(x),
i=0 l=0
où
(x − xi )αi
Liαi (x) = qi (x),
αi !
(x − xi )l ∑αi
(l−1)
Lil (x) = qi (x) − Cjl qi (xi )Lij , l = αi − 1, αi − 2, ..., 1, 0;
l! j=l+1

avec ( )αj +1
∏k
x − xj
qi (x) = .
xi − xj
j=0,j̸=i

Le polynôme pn (x) ainsi obtenu est appelé polynôme d’interpolation d’Hermite de


la fonction f associé aux noeuds x0 , x1 , . . . , xk et aux entiers α0 , α1 , . . . , αk .

Majoration de l’erreur d’interpolation polynômial


Une application de l’interpolation est l’utilisation de la fonction interpolante pour
approcher la fonction interpolée en des points distincts des points d’interpolation. Il
convient donc de mesurer l’erreur commise dans cette approximation.
On se place dans les hypothèses de l’interpolation d’Hermite, qui généralise l’in-
terpolation de Lagrange. On a le théorème suivant d’estimation de l’erreur dans
l’interpolation d’Hermite :
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 75

Proposition 6.1.6. Théorème fondamental de l’erreur d’interpolation po-


lynômiale
Soit pn le polynôme de degré ≤ n interpolant la fonction f aux k + 1 noeuds
distincts x0 , x1 , . . . , xk de [a, b] ainsi que ses dérivées jusqu’à l’ordre αi aux noeuds
xi . On suppose que f ∈ C n+1 ([a, b]). Alors pour tout x ∈ [a, b], il existe ξx ∈ [a, b]
tel que :
1
f (x) − p(x) = πn (x)f (n+1) (ξx ), (6.1.22)
(n + 1)!
où l’on a posé

k
πn (x) = (x − xi )αi +1 .
i=0

Lorsque tous les entiers αi (i = 0, 1, . . . , k) sont nuls, on a n = k et pk (x)


est le polynôme d’interpolation de Lagrange relativement aux noeuds x0 , x1 , . . . , xk .
L’erreur d’interpolation au point x ∈ [a, b] dans ce cas est :

1 ∏k
f (x) − p(x) = f (n+1) (ξx ) (x − xi ), ξx ∈ [a, b]. (6.1.23)
(n + 1)! i=0

Corollary 6.1.7. Soit Mn+1 = max |f (n+1) (x)|. Une majoration de l’erreur d’in-
x∈[a,b]
terpolation E(x) = f (x) − pn (x) est donnée par :
Mn+1
|E(x)| = |πn (x)|. (6.1.24)
(n + 1)!

Exemple 6.1.8. Posons f (x) = ex . On a Mn+1 = eb et |π(x)| ≤ (b − a)n+1 . Si on


pose a = 0, b = 2 et x0 = 0, x1 = 1, x2 = 1.5, x3 = 2 on obtient la figure suivante :

Erreur d’interpolation pour des noeuds équidistants


Le choix des noeuds équidistants est fréquemment utilisé pour la simplicité des
calculs. On considère le problème de majoration de :


k
max |x − xi |,
x∈[a,b]
i=0

avec
(b − a)
xi = a + hi = a + i, i = 0, 1, . . . , n.
n
Soit x ∈ [a, b]. On suppose que x est différent des points d’interpolation. Alors, il
existe k < n telle que x ∈ [xk , xk+1 ]. La fonction x 7→ |x − xk ||x − xk+1 | atteint son
maximum en xk +x2 k+1 et on a :

h2
|x − xk ||x − xk+1 | ≤ .
4
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 76

25

data1
exp(x)
20
p3(x)

15

10

−5
−1 −0.5 0 0.5 1 1.5 2 2.5 3

Figure 6.3 – Polynôme d’interpolation relativement aux données de l’exemple.

D’autre par, on |x−xi | ≤ (k −i+1)h pour i < k et |x−xi | ≤ (i−k)h pour k +1 < i.
D’où
∏k
h2
|x − xi | ≤ [(k + 1)!hk ][(n − k)!hn−k−1 ].
i=0
4
Comme (j + 1)!(n − j)! ≤ n!, on obtient :

k
hn+1 n! hn+1
|x − xi | ≤ , et |E(x)| ≤ Mn+1 .
i=0
4 4(n + 1)
Exemple 6.1.9. Un cas de divergence dans le choix des noeuds équidistants : la
function de Runge.
La fonction de Runge est définie pour tout x ∈ R par :
1
f (x) = .
1 + x2
Soit pn (x) le polynôme d’interpolation de f relativement au n+1 noeuds équidistants
sur [−5, 5] tels que x0 = −5 et xn = 5. Alors on a
lim max |f (x) − pn (x)| = +∞.
n−→+∞ x∈[−5,5]

Le polynôme d’interpolation pn (x) est représenté par les figures suivantes pour les
valeurs n = 5, 10, 15, 20 noeuds.
Cependant, il existe un meilleur choix des noeuds d’interpolation qui permet de
minimiser l’erreur d’interpolation en minimisant
∏n
max |x − xi |.
x∈[a,b]
i=0
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 77

1.2 2
runge runge
p5(x) p10(x)
1
data3 data3
1.5

0.8

1
0.6

0.4
0.5

0.2

0
0

−0.2 −0.5
−5 0 5 −5 0 5

Figure 6.4 – n = 5 noeuds équidistants Figure 6.5 – n = 10 noeuds équidistants

2.5 10
runge
p (x)
15 0
2
data3

−10 runge
1.5 p20(x)
data3
−20
1
−30

0.5
−40

0
−50

−0.5 −60
−5 0 5 −5 0 5

Figure 6.6 – n = 15 noeuds équidistantsFigure 6.7 – n = 20 noeuds équidistants

Ce sont les noeuds ou points de Tchebychev. Ces noeuds sont définies sur [−1, 1]
par : ( )
2i + 1
xi = cos π , (6.1.25)
2n + 2
et ont la propriété suivante :

n
max |t − xi | ≤ 2−n . (6.1.26)
t∈[−1,1]
i=0

On montre que pour tout autre choix ti (i = 0, 1, . . . , n) de noeuds dans [−1, 1], on
a
∏n
max |t − xi | ≥ 2−n . (6.1.27)
t∈[−1,1]
i=0

En utilisant les noeuds de Tchebychev dans [−1, 1], on obtient la majoration


suivante de l’erreur d’interpolation :
1
|f (t) − pn (t)| ≤ n
max |f (n+1) (ξ)|, ∀t ∈ [−1, 1]. (6.1.28)
2 (n + 1)! ξ∈[−1,1]

On calcul les points de Tchebychev dans un intervalle quelconque [a, b] en utilisant


la transformation :x 7−→ b−a
2
t + b+a
2
de l’intervalle [−1, 1] en [a, b]. Ainsi, les noeuds
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 78

de Tchebychev dans [a, b] sont


( )
b−a 2i + 1 b+a
xi = cos π + . (6.1.29)
2 2n + 2 2

On obtient alors la majoration de l’erreur d’interpolation suivante :

(b − a)( n + 1)
|f (x) − pn (x)| ≤ 2n+1 max |f (n+1) (ξ)|, ∀x ∈ [a, b]. (6.1.30)
2 (n + 1)! ξ∈[a,b]

Si on considère la fonction de Runge de l’exemple précédent, en utilisant les


noeuds de Tchebychev dans l’intervalle [−5, 5], le polynôme d’interpolation pn (x)
est représenté par les figures suivantes. On note la convergence de l’interpolation.

1.2 1.2
runge
cheb11
1 1
data3

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.2 −0.2
−5 0 5 −5 0 5

Figure 6.8 – 5 noeuds de Tchebychev Figure 6.9 – 11 noeuds de Tchebychev

1 1.4
runge runge
0.9 cheb17 cheb
23
1.2
data3 data3
0.8

0.7 1

0.6
0.8
0.5
0.6
0.4

0.3 0.4

0.2
0.2
0.1

0 0
−5 0 5 −5 0 5

Figure 6.10 – 17 noeuds de Tchebychev Figure 6.11 – 23 noeuds de Tchebychev

Exemple 6.1.10. 1. Combien faut - il de noeuds équidistants dans [0, π] pour


interpoler la fonction f (x) = 2 sin(x) + 3 cos(x) à 10−9 près ?
2. Même question avec le choix des noeuds de Tchebychev.
Cours de Méthodes Numériques (Awono Onana et J. Tagoudjeu) 79

Interpolation Polynômial par Morceau

6.2 Intégration Numérique


6.3 Méthodes variationnelles
6.4 Etude de cas
6.4.1 Equation de Poisson (1D et 2D)
6.4.2 Equation de la chaleur

Vous aimerez peut-être aussi