Vous êtes sur la page 1sur 76

Institut National des Télécommunications et des

Technologies de l’Information et de la Communication

- Abdelhafid Boussouf -

2018
Analyse numérique

Polycopié de cours
Disponible sur
moodle.ito.dz

Abdelhadi LOTFI
INTTIC - Oran
Table des matières

Introduction ...................................................................................................................... 1

Chapitre I. Les erreurs dans le calcul numérique ........................................................ 2

I.1 Introduction .......................................................................................................... 2


I.2 Erreurs absolue et relative .................................................................................... 2
I.2.1 Erreur absolue ............................................................................................... 2
I.2.1.1 Définition :................................................................................................. 2
I.2.2 Erreur relative ................................................................................................ 3
I.2.3 Majorants des erreurs absolue et relative ...................................................... 4
I.3 Propagation des erreurs ........................................................................................ 5
I.3.1 Cas de l’addition ........................................................................................... 5
I.3.2 Cas de la soustraction .................................................................................... 5
I.3.3 Cas de la multiplication ................................................................................. 7
I.3.4 Cas de la division .......................................................................................... 7
I.4 Représentation décimale des nombres approchés ................................................ 8
I.4.1 Remarque : .......................................................................................................... 8
I.4.1 Définition ...................................................................................................... 8
I.4.2 Exemples ....................................................................................................... 9
I.5 Chiffres exactes d’un nombre décimal approché ................................................. 9
I.5.1 Définition : .......................................................................................................... 9
I.5.1 Exemples ....................................................................................................... 9
I.5.2 Propriété ........................................................................................................ 9
I.6 Troncature et arrondissement d’un nombre ........................................................ 10
I.6.1 Règle d’arrondissement ............................................................................... 10
I.7 Relation entre erreur relative et chiffre significatif exact ................................... 11
Chapitre II. Résolution de 𝒇𝒙 = 𝟎 ................................................................................ 12

II.1 Introduction ........................................................................................................ 12


II.1.1 Méthodes numériques de résolution............................................................ 13
II.2 Méthode de dichotomie ...................................................................................... 14
II.2.1 Principe ....................................................................................................... 14
II.2.2 Algorithme .................................................................................................. 14
II.2.3 Critère d’arrêt .............................................................................................. 14
II.3 Méthode de la sécante ........................................................................................ 15
II.3.1 Principe ....................................................................................................... 15
II.3.2 Test d’arrêt .................................................................................................. 16
II.3.3 Convergence de la méthode ........................................................................ 16
II.3.4 Algorithme .................................................................................................. 17
II.4 Méthode de Newton ........................................................................................... 17
II.4.1 Principe ....................................................................................................... 17
II.4.2 Convergence ................................................................................................ 18
II.4.3 Algorithme .................................................................................................. 18
II.5 Méthode du point fixe ........................................................................................ 19
II.5.1 Principe ....................................................................................................... 19
II.5.2 Algorithme .................................................................................................. 20
II.6 Accélération de la convergence .......................................................................... 20
II.6.1 Lemme......................................................................................................... 20
II.6.2 Preuve .......................................................................................................... 20
II.6.3 Principe de l’accélération ............................................................................ 21
II.6.4 Algorithme d’accélération ........................................................................... 21
Chapitre III.Résolution de
𝑨𝒙 = 𝒃 22

III.1 Introduction ........................................................................................................ 22


III.2 Méthodes de résolution....................................................................................... 22
III.3 Méthodes directes ............................................................................................... 23
III.3.1 Méthodes d’élimination de Gauss ............................................................... 23
III.3.2 Méthode de décomposition LU ................................................................... 27
III.3.3 Méthode de Cholesky .................................................................................. 29
III.3.4 Calcul du déterminant ................................................................................. 33
III.3.5 Conclusion sur les méthodes directes ......................................................... 33
III.4 Méthodes itératives ............................................................................................. 34
III.4.1 Introduction ................................................................................................. 34
III.4.2 Principe ....................................................................................................... 34
III.4.3 Méthode de Jacobi....................................................................................... 36
III.4.4 Méthode de Gauss-Seidel ............................................................................ 39
Chapitre IV. Interpolation polynômiale ........................................................................ 43

IV.1 Introduction ........................................................................................................ 43


IV.1.1 Pourquoi vouloir interpoler des données ? .................................................. 43
IV.2 Cas général ......................................................................................................... 44
IV.2.1 Polynôme d’interpolation de Lagrange ....................................................... 44
IV.2.2 Propriétés du polynôme d’interpolation de Lagrange et de la base de
Lagrange .................................................................................................................... 46
IV.2.3 Existence et unicité du polynôme d’interpolation de Lagrange .................. 46
IV.2.4 Formule d’interpolation de Lagrange .......................................................... 47
IV.2.5 Exemple....................................................................................................... 47
IV.2.6 Erreur d’interpolation de Lagrange ............................................................. 48
IV.3 Algorithme de Neville ........................................................................................ 49
IV.3.1 Exemple....................................................................................................... 50
IV.3.2 Algorithme de Neville ................................................................................. 52
IV.4 Interpolation de Newton ..................................................................................... 52
IV.4.1 Inconvénients de l’interpolation de Lagrange ............................................. 52
IV.4.2 Propriétés du polynôme d’interpolation de Newton et de la base de Newton
52
IV.4.3 Différences divisées .................................................................................... 53
IV.4.4 Polynôme d’interpolation de Newton de degré n ........................................ 55
IV.4.5 Erreur d’interpolation .................................................................................. 56
IV.4.6 Exemple de calcul du polynôme d’interpolation de Newton ...................... 56
IV.5 Cas des points équidistants ................................................................................. 56
IV.5.1 Différences finies progressives ................................................................... 57
IV.5.2 Forme de Newton pour les différences finies progressives ........................ 58
IV.5.3 Formule simplifiée ...................................................................................... 59
IV.5.4 Exemple....................................................................................................... 60
Chapitre V. Différences finies et dérivation numérique ............................................. 61

V.1 Introduction ........................................................................................................ 61


V.2 Théorème ............................................................................................................ 61
V.3 Première formule d’interpolation de Newton (Rappel) ...................................... 62
V.4 Choix du point initial .......................................................................................... 62
V.5 Erreur d’interpolation ......................................................................................... 63
V.6 Exemple .............................................................................................................. 64
Table des figures

Figure II-1: Séparation des racines d'une fonction. ......................................................... 13

Figure II-2: Méthode de dichotomie. ............................................................................... 14

Figure II-3: Méthode de Lagrange - 1er cas. ................................................................... 15

Figure II-4: Méthode de Lagrange - 2ème cas. ............................................................... 16

Figure II-5: Convergence lente de la méthode de Lagrange. .......................................... 17

Figure II-6: Méthode de Newton. .................................................................................... 18

Figure II-7: Cas de convergence de la méthode du point fixe (g(x) est contractante). ... 19

Figure II-8: Cas de divergence de la méthode du point fixe (g(x) est décontractante). .. 20
Introduction

L’analyse numérique, domaine des mathématiques et de l'informatique qui crée,


analyse et implémente des algorithmes permettant d'obtenir des solutions numériques à des
problèmes impliquant des variables continues. De tels problèmes se posent dans les
sciences naturelles, les sciences sociales, l'ingénierie, la médecine et le commerce. Vers les
années 50 du 20ème siècle, la croissance de la puissance et de la disponibilité des ordinateurs
numériques a conduit à une utilisation massive de modèles mathématiques réalistes en
science et ingénierie. Ainsi, une analyse numérique plus sophistiquée est devenue
nécessaire pour résoudre ces modèles plus complexes du monde réel. Le domaine
académique formel de l'analyse numérique va des études mathématiques plutôt théoriques
aux questions d'informatique.

Avec la disponibilité croissante des ordinateurs, la nouvelle discipline de


l'informatique scientifique, ou science computationnelle, a émergé au cours des années
1980 et 1990. La discipline combine l'algorithmique, les calculs mathématiques
symboliques, l'infographie et d'autres domaines de l'informatique pour faciliter la mise en
place, la résolution et l'interprétation de modèles mathématiques complexes du monde réel.

Ce cours introduit la théorie et l'application des méthodes ou des techniques


numériques pour approximer des procédures mathématiques (telles que les zéros d'une
fonction, l’interpolation et la dérivation numérique) ou des solutions de problèmes qui se
posent dans la science et l'ingénierie. De telles approximations sont nécessaires parce que
les méthodes analytiques sont soit trop compliquées, soit que le problème à l'étude ne peut
être résolu analytiquement. Les explications justifiant pourquoi et comment ces techniques
d'approximation fonctionnent mettent l'accent sur la précision et l'efficacité des méthodes
développées. Le cours fournit également une base solide pour une étude plus approfondie
sur l'analyse numérique
Les erreurs dans le calcul numérique
Chapitre I. Les erreurs dans le calcul numérique

I.1 Introduction
En analyse numérique, l'erreur d'approximation de certaines données est la différence
entre une valeur exacte et une certaine valeur approchée ou approximation de celle-ci. Une
erreur d'approximation peut se produire lorsque :
➢ La mesure des données n'est pas précise (en raison des instruments) ;
➢ L'emploi de valeurs approchées au lieu des valeurs exactes (par exemple, 3,14 au
lieu de π).

Parmi les types d’erreurs, on peut citer :

❖ Les erreurs initiales


❖ Les erreurs de discrétisation
❖ Les erreurs de troncature
❖ Les erreurs d’arrondi

I.2 Erreurs absolue et relative


1
Quantité exacte : 1, 2 , √2, 𝜋, …

Quantité approchée (approximative) : 𝑒 ≅ 2.718, 𝜋 ≅ 3.14, ….

Soient x une quantité exacte et x* une valeur approchée de x :

• Si 𝑥 ∗ > 𝑥, 𝑥 ∗ est dite valeur approchée par excès.


• Si 𝑥 ∗ < 𝑥, 𝑥 ∗ est dite valeur approchée par défaut.

Exemple : pour le nombre √5, la valeur 2.23 est une valeur approchée par défaut et 2.24
est une valeur approchée par excès. On peut donc écrire l’encadrement 2.23 < √5 < 2.24.

I.2.1 Erreur absolue

I.2.1.1 Définition :

On appelle errer absolue de x* (sur x), la quantité 𝐸 = |𝑥 − 𝑥 ∗ |.


Chapitre I. Les erreurs dans le calcul numérique

Remarque: Plus l’erreur absolue de x* est petite, plus x* est précise.

I.2.1.2 Exemple :

Pour la valeur exacte x=2/3, la valeur approchée 𝑥1∗ = 0.666667 est mille fois

plus précise que 𝑥2∗ = 0.667.

En effet :

2 2000000 − 2000001 1
𝐸1 = |𝑥 − 𝑥1∗ | = | − 0.666667| = | 6
| = 10−6
3 3 ∙ 10 3
2 2000 − 2001 1
𝐸2 = |𝑥 − 𝑥2∗ | = | − 0.667| = | 3
| = 10−3
3 3 ∙ 10 3

Il vient que : 𝐸2 = 103 ∙ 𝐸1 ; ceci signifie que 𝐸2 est 1000 fois plus grande que 𝐸1 et ainsi,
𝑥1∗ est 1000 fois plus précise que 𝑥2∗ .

I.2.2 Erreur relative


|𝑥−𝑥 ∗ | 𝐸
I.2.2.1 Définition : On appelle erreur relative à x* la quantité 𝐸𝑟 = |𝑥|
= |𝑥|.

I.2.2.2 Remarque : On exprime souvent l’erreur relative en pourcentage.

I.2.2.3 Exemple : Pour les valeurs exactes 𝑥 = 2/3 et 𝑦 = 1/15, on considère les valeurs
approchées respectives 𝑥 ∗ = 0.67 et 𝑦 ∗ = 0.07.

Les erreurs absolues respectives sont :

2 200 − 201 1
𝐸1 = |𝑥 − 𝑥 ∗ | = | − 0.67| = | 2
| = 10−2
3 3 ∙ 10 3
1 100 − 105 1
𝐸2 = |𝑦 − 𝑦 ∗ | = | − 0.07| = | 2
| = 10−2
15 15 ∙ 10 3

Les erreurs relatives correspondantes sont :

𝐸1
𝐸𝑟1 = = 0.5 ∙ 10−2 = 0.5%
|𝑥|

𝐸2
𝐸𝑟2 = = 5 ∙ 10−2 = 5%
|𝑥|

3
Chapitre I. Les erreurs dans le calcul numérique

Ainsi, bien que les erreurs absolues soient égales, x* est une approximation 10 fois plus
précise pour x que y* l’est pour y.

I.2.3 Majorants des erreurs absolue et relative

Si la valeur exacte est connue, on peut déterminer les erreurs absolue et relative. Mais dans
la majorité des cas, elle ne l’est pas. Les erreurs absolue et relative deviennent alors
inconnues, et pour les apprécier, on introduit la notion de majorant de l’erreur.

I.2.3.1 Définition : On appelle majorant de l’erreur absolue d’une valeur approchée x*,
tout nombre réel positif ∆𝑥 qui vérifie : 𝐸 = |𝑥 − 𝑥 ∗ | ≤ ∆𝑥

Ce qui est équivalent à : 𝑥 ∗ − ∆𝑥 ≤ 𝑥 ≤ 𝑥 ∗ + ∆𝑥

I.2.3.1 Remarque :
Plus ∆𝑥 est petite, plus l’approximation x* est précise. On prend en pratique le plus
petit ∆𝑥 possible.
On écrit : 𝑥 = 𝑥 ∗ ∓ ∆𝑥 ou encore 𝑥 ≅ 𝑥 ∗ (∓∆𝑥), qui veut dire : 𝑥 ∈ [𝑥 ∗ − ∆𝑥, 𝑥 ∗ +
∆𝑥]
A défaut de l’erreur absolue effective, ∆𝑥 est appelé par abus de langage, erreur
absolue de x*.
𝑥1 + 𝑥2
Si 𝑥1 𝑒𝑡 𝑥2 sont tels que : 𝑥1 ≤ 𝑥 ≤ 𝑥2 alors 𝑥 ∗ = est une approximation de
2
𝑥2 − 𝑥1
x avec une erreur absolue ∆𝑥 = .
2

3.14+3.15
Exemple : On sait que : 3.14 ≤ 𝜋 ≤ 3.15, d’où : 𝑥 ∗ = = 3.145 est une
2
3.15−3.14 0.01
approximation de 𝜋 avec une erreur absolue : ∆𝑥 = = = 0.005.
2 2

Souvent au lieu d’écrire 𝑥 = 𝑥 ∗ ∓ ∆𝑥 ou 𝑥 ≅ 𝑥 ∗ (∓∆𝑥), on écrit 𝑥 = 𝑥 ∗ ∓ 𝛿𝑥 ∙


∆𝑥
100% ou 𝑥 ≅ 𝑥 ∗ (∓𝛿𝑥 ∙ 100%) avec : 𝛿𝑥 = |𝑥 ∗ | qui est un majorant de l’erreur
relative à x*.
A défaut de l’erreur relative effective, 𝛿𝑥 est appelée par abus de langage, erreur
relative à x*.

Si on connait l’erreur relative 𝛿𝑥, on en déduit un encadrement du nombre exacte


x:

𝑥 ∗ (1 − 𝛿𝑥) ≤ 𝑥 ≤ 𝑥 ∗ (1 + 𝛿𝑥)

Ou encore : 𝑥 = 𝑥 ∗ (1 ∓ 𝛿𝑥).

4
Chapitre I. Les erreurs dans le calcul numérique

Exemple : un poids est donné par : 50𝐾𝑔 ∓ 1%.

L’erreur relative à la valeur approchée 𝑥 ∗ = 50𝐾𝑔 est donc 𝛿𝑥 = 0.01.

L’erreur absolue est donc : ∆𝑥 = 𝑥 ∗ ∙ 𝛿𝑥 = 50 × 0.01 = 0.5𝐾𝑔.

Donc le poids exacte x est encadré par : 49.5𝐾𝑔 ≤ 𝑥 ≤ 50.5𝐾𝑔.

I.3 Propagation des erreurs


Soient x et y deux quantités exactes positives, x* et y* deux approximations positives de x
et y, ∆𝑥 𝑒𝑡 ∆𝑦 les erreurs absolues sur x et y.

I.3.1 Cas de l’addition


1. ∆(𝑥 + 𝑦) = ∆𝑥 + ∆𝑦
2. 𝛿(𝑥 + 𝑦) =≤ max(𝛿𝑥, 𝛿𝑦)

I.3.1.1 Preuve
1. Nous avons : 𝑥 ∗ − ∆𝑥 ≤ 𝑥 ≤ 𝑥 ∗ + ∆𝑥 et 𝑦 ∗ − ∆𝑦 ≤ 𝑦 ≤ 𝑦 ∗ + ∆𝑦
Donc : (𝑥 ∗ + 𝑦 ∗ ) − (∆𝑥 + ∆𝑦) ≤ 𝑥 + 𝑦 ≤ (𝑥 ∗ + 𝑦 ∗ ) + (∆𝑥 + ∆𝑦)
Ainsi, (∆𝑥 + ∆𝑦) est un majorant de l’erreur absolue de x+y, et par suite :
∆(𝑥 + 𝑦) = ∆𝑥 + ∆𝑦
∆(𝑥+𝑦) ∆𝑥+∆𝑦 ∆𝑥 𝑥∗ ∆𝑦 𝑦∗
2. 𝛿(𝑥 + 𝑦) = = = ∙ 𝑥 ∗+𝑦 ∗ + 𝑦 ∗ ∙ 𝑥 ∗ +𝑦 ∗
𝑥 ∗ +𝑦 ∗ 𝑥 ∗ +𝑦 ∗ 𝑥∗
𝑥∗ 𝑦∗
On pose : 𝜆1 = 𝑥 ∗ +𝑦 ∗ > 0 et 𝜆2 = 𝑥 ∗+𝑦 ∗ > 0 et 𝜆1 + 𝜆2 = 1

𝛿(𝑥 + 𝑦) = 𝛿𝑥 ∙ 𝜆1 + 𝛿𝑦 ∙ 𝜆2 ≤ max(𝛿𝑥, 𝛿𝑦) ∙ 𝜆1 + max(𝛿𝑥, 𝛿𝑦) ∙ 𝜆2


≤⏟
(𝜆1 + 𝜆2 ) ∙ max(𝛿𝑥, 𝛿𝑦) ≤ 𝑚𝑎𝑥(𝛿𝑥, 𝛿𝑦)
=1

I.3.2 Cas de la soustraction


1. ∆(𝑥 − 𝑦) = ∆𝑥 + ∆𝑦
𝑥 ∗ +𝑦 ∗
2. 𝛿(𝑥 − 𝑦) ≤ 𝑥 ∗ −𝑦 ∗ max(𝛿𝑥, 𝛿𝑦)

I.3.2.1 Preuve
1. Nous avons : 𝑥 ∗ − ∆𝑥 ≤ 𝑥 ≤ 𝑥 ∗ + ∆𝑥 et 𝑦 ∗ − ∆𝑦 ≤ 𝑦 ≤ 𝑦 ∗ + ∆𝑦
⟹ −𝑦 ∗ − ∆𝑦 ≤ −𝑦 ≤ −𝑦 ∗ + ∆𝑦
𝑑′ 𝑜ù: (𝑥 ∗ − 𝑦 ∗ ) − (∆𝑥 + ∆𝑦) ≤ 𝑥 − 𝑦 ≤ (𝑥 ∗ − 𝑦 ∗ ) + (∆𝑥 + ∆𝑦)
Ainsi, (∆𝑥 + ∆𝑦) est un majorant de l’erreur absolue de x-y, et par suite :

5
Chapitre I. Les erreurs dans le calcul numérique

∆(𝑥 − 𝑦) = ∆𝑥 + ∆𝑦
∆(𝑥−𝑦) ∆𝑥+∆𝑦 ∆𝑥 𝑥∗ 𝑥 ∗ +𝑦 ∗ ∆𝑦 𝑦∗ 𝑥 ∗ +𝑦 ∗
2. 𝛿(𝑥 − 𝑦) = = = ∙ ∙ + 𝑦 ∗ ∙ 𝑥 ∗+𝑦 ∗ ∙ 𝑥 ∗−𝑦 ∗
𝑥 ∗ −𝑦 ∗ 𝑥 ∗ −𝑦 ∗ 𝑥 ∗ 𝑥 ∗ +𝑦 ∗ 𝑥 ∗ −𝑦 ∗
𝑥 ∗ +𝑦 ∗
= [ 𝛿𝑥 ∙ 𝜆1 + 𝛿𝑦 ∙ 𝜆2 ] 𝑥 ∗ −𝑦 ∗
𝑥 ∗ +𝑦 ∗
≤ 𝑥 ∗−𝑦 ∗ [max(𝛿𝑥, 𝛿𝑦) ∙ 𝜆1 + max(𝛿𝑥, 𝛿𝑦) ∙ 𝜆2 ]

𝑥 ∗ +𝑦 ∗ 𝑥 ∗ +𝑦 ∗
≤ 𝑥 ∗−𝑦 ∗ [(𝜆
⏟ 1 + 𝜆2 ) ∙ max(𝛿𝑥, 𝛿𝑦)] ≤ 𝑥 ∗−𝑦 ∗ max(𝛿𝑥, 𝛿𝑦)
=1
𝑥∗ 𝑦∗
Avec : 𝜆1 = 𝑥 ∗+𝑦 ∗ > 0 et 𝜆2 = 𝑥 ∗+𝑦 ∗ > 0 et 𝜆1 + 𝜆2 = 1

I.3.2.2 Remarque : La soustraction est l’opération qui fait perdre le plus de précision.

I.3.2.2 Exemples
1. Soient x*=255 et y*=250 avec 𝛿𝑥 = 𝛿𝑦 = 0.1%
On cherche 𝛿(𝑥 − 𝑦)
∆𝑥 = 𝑥 ∗ ∙ 𝛿𝑥 = 255 ∙ 10−3 = 0.255
Nous avons : { et 𝑥 ∗ − 𝑦 ∗ = 5
∆𝑦 = 𝑦 ∗ ∙ 𝛿𝑦 = 250 ∙ 10−3 = 0.250
∆(𝑥−𝑦) ∆𝑥+∆𝑦
L’erreur relative est donc : 𝛿(𝑥 − 𝑦) = = = 10.1 ∙ 10−2 = 10.1%
𝑥 ∗ −𝑦 ∗ 𝑥 ∗ −𝑦 ∗

Ainsi : x* et y* sont 101 fois plus précis pour x et y (respectivement) que x*-y*
l’est pour x-y.
2. Soient *=56202 et y*=56198 avec 𝛿𝑥 = 𝛿𝑦 = 0.01%
On cherche 𝛿(𝑥 − 𝑦)𝑒𝑡 ∆(𝑥 − 𝑦)
Nous avons : 𝑥 ∗ − 𝑦 ∗ = 4
∆(𝑥−𝑦) ∆𝑥+∆𝑦 ∆𝑥 𝑥∗ ∆𝑦 𝑦∗
𝛿(𝑥 − 𝑦) = = = ∙ 𝑥 ∗−𝑦 ∗ + 𝑦 ∗ ∙ 𝑥 ∗ −𝑦 ∗
𝑥 ∗ −𝑦 ∗ 𝑥 ∗ −𝑦 ∗ 𝑥∗
𝑥 ∗ +𝑦 ∗
= ∙ 𝛿𝑥 = 281% puisque : 𝛿𝑥 = 𝛿𝑦
𝑥 ∗ −𝑦 ∗

Ainsi : x* et y* sont 28100 fois plus précis pour x et y (respectivement) que x*-y*
l’est pour x-y.
Pour calculer ∆(𝑥 − 𝑦), on a :
∆𝑥 = 𝑥 ∗ ∙ 𝛿𝑥 = 26202 ∙ 10−4 = 5.6202 ⟹ 𝑥 = 𝑥 ∗ ∓ ∆𝑥 = 56202 ∓ 5.6202
{∆𝑦 = 𝑦 ∗ ∙ 𝛿𝑦 = 26198 ∙ 10−4 = 5.6198 ⟹ 𝑥 = 𝑥 ∗ ∓ ∆𝑥 = 56198 ∓ 5.6198
∆(𝑥 − 𝑦) = (𝑥 ∗ − 𝑦 ∗ ) ∙ 𝛿(𝑥 − 𝑦) = 11.24
⟹ 𝑥 − 𝑦 = (𝑥 ∗ − 𝑦 ∗ ) ∓ ∆(𝑥 − 𝑦) = 5 ∓ 11.24 (Erreur considérable)

6
Chapitre I. Les erreurs dans le calcul numérique

I.3.3 Cas de la multiplication


1. ∆(𝑥𝑦) = 𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥
2. 𝛿(𝑥𝑦) = 𝛿𝑥 + 𝛿𝑦

I.3.3.1 Preuve
1. On a : 𝑥 ∗ − ∆𝑥 ≤ 𝑥 ≤ 𝑥 ∗ + ∆𝑥 et 𝑦 ∗ − ∆𝑦 ≤ 𝑦 ≤ 𝑦 ∗ + ∆𝑦

On suppose que : 𝑥 ∗ − ∆𝑥 > 0 et 𝑦 ∗ − ∆𝑦 > 0

Il vient que : (𝑥 ∗ − ∆𝑥)(𝑦 ∗ − ∆𝑦) ≤ 𝑥𝑦 ≤ (𝑥 ∗ + ∆𝑥)(𝑦 ∗ + ∆𝑦)

Et donc : 𝑥 ∗ 𝑦 ∗ − 𝑥 ∗ ∆𝑦 − 𝑦 ∗ ∆𝑥 + ∆𝑥∆𝑦 ≤ 𝑥𝑦 ≤ 𝑥 ∗ 𝑦 ∗ + 𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥 + ∆𝑥∆𝑦

En négligeant l’erreur du second ordre :

𝑥 ∗ 𝑦 ∗ − [𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥] ≤ 𝑥𝑦 ≤ 𝑥 ∗ 𝑦 ∗ + [𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥]

Et par la suite : ∆(𝑥𝑦) = 𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥 puisque [𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥] est un majorant de


l’erreur.

𝛿(𝑥𝑦) 𝑥 ∗ ∆𝑦+𝑦 ∗ ∆𝑥 ∆𝑥 ∆𝑦
2. 𝛿(𝑥𝑦) = = = + = 𝛿𝑥 + 𝛿𝑦
𝑥 ∗𝑦∗ 𝑥 ∗𝑦∗ 𝑥∗ 𝑦∗

I.3.4 Cas de la division


𝑥 𝑥 ∗ ∆𝑦+𝑦 ∗ ∆𝑥
1. ∆ ( ) =
𝑦 𝑦∗2
𝑥
2. 𝛿 ( ) = 𝛿𝑥 + 𝛿𝑦
𝑦

I.3.4.1 Preuve
1. On a : 𝑥 ∗ − ∆𝑥 ≤ 𝑥 ≤ 𝑥 ∗ + ∆𝑥
1 1 1
𝑦 ∗ − ∆𝑦 ≤ 𝑦 ≤ 𝑦 ∗ + ∆𝑦 ⟹ 𝑦 ∗+∆𝑦 ≤ 𝑦 ≤ 𝑦 ∗−∆𝑦

𝑦 ∗ −∆𝑦 𝑥 𝑥 ∗ +∆𝑥 𝑦 ∗ −∆𝑦 𝑦 ∗ −∆𝑦 𝑥 𝑦 ∗ +∆𝑦 𝑥 ∗ +∆𝑥


D’où : ≤ ≤ ⇔ ∙ ≤ ≤ ∙
𝑦 ∗ −∆𝑦 𝑦 𝑦 ∗ −∆𝑦 𝑦 ∗ +∆𝑦 𝑦 ∗ +∆𝑦 𝑦 𝑦 ∗ +∆𝑦 𝑦 ∗ −∆𝑦
𝑥 ∗ 𝑦 ∗ −𝑥 ∗ ∆𝑦−𝑦 ∗ ∆𝑥+∆𝑥∆𝑦 𝑥 𝑥 ∗ 𝑦 ∗ +𝑥 ∗ ∆𝑦+𝑦 ∗ ∆𝑥+∆𝑥∆𝑦
⇔ ≤ ≤
𝑦 ∗ 2 −∆2 𝑦 𝑦 𝑦 ∗ 2 −∆2 𝑦

Et en négligeant les erreurs du second ordre ∆2 𝑦 et ∆𝑥∆𝑦, on obtient :


𝑥 ∗ 𝑦 ∗ −𝑥 ∗ ∆𝑦−𝑦 ∗ ∆𝑥 𝑥 𝑥 ∗ 𝑦 ∗ +𝑥 ∗ ∆𝑦+𝑦 ∗ ∆𝑥 𝑥∗ 𝑥 ∗ ∆𝑦−𝑦 ∗ ∆𝑥 𝑥 𝑥∗ 𝑥 ∗ ∆𝑦−𝑦 ∗ ∆𝑥
≤𝑦≤ ⇔ 𝑦∗ − ≤ 𝑦 ≤ 𝑦∗ +
𝑦∗2 𝑦∗2 𝑦∗2 𝑦∗2
𝑥 ∗ ∆𝑦+𝑦 ∗ ∆𝑥 𝑥∗
Ainsi : ∗2
est un majorant de l’erreur absolue de 𝑦 ∗ et donc :
𝑦

7
Chapitre I. Les erreurs dans le calcul numérique

𝑥 𝑥 ∗ ∆𝑦 + 𝑦 ∗ ∆𝑥
∆( ) =
𝑦 𝑦 ∗2
2. Pour l’erreur relative :
𝑥 𝑥 𝑦∗ 𝑥 ∗ ∆𝑦+𝑦 ∗ ∆𝑥 𝑦 ∗
𝛿 (𝑦) = ∆ (𝑦) ∙ 𝑥 ∗ = ∙ 𝑥 ∗ = 𝛿𝑥 + 𝛿𝑦
𝑦∗2

I.4 Représentation décimale des nombres approchés


On sait que tout nombre réel positif x peut être représenté sous la forme d’un nombre
décimal de développement limité ou illimité :

𝑥 = 𝑎𝑚 10𝑚 + 𝑎𝑚−1 10𝑚−1 + ⋯ + 𝑎𝑚−𝑛 10𝑚−𝑛 + ⋯

Où les 𝑎𝑖 sont les chiffres du nombre réel x, avec 𝑎𝑚 ≠ 0 où m est un entier naturel appelé
rang supérieur du nombre réel x.

Exemple : 𝜋 = 3.14159 … = 3 ∙ 100 + 1 ∙ 10−1 + 4 ∙ 10−2 + 1 ∙ 10−3 + 5 ∙ 10−4 + ⋯

I.4.1 Remarque : Dans la pratique, on n’utilise que des nombres approchés :

𝑥 ≅ 𝑏𝑚 10𝑚 + 𝑏𝑚−1 10𝑚−1 + ⋯ + 𝑏𝑚−𝑛 10𝑚−𝑛 + ⋯ 𝑏𝑚 ≠ 0

Tous les chiffres conservés 𝑏𝑖 (i=m,…, m-n) s’appellent chiffres significatifs du


nombre approché x.
Certains des 𝑏𝑖 peuvent être nuls.
Les exemples suivants illustrent les cas où le zéro n’est pas considéré comme
chiffre significatif.
o 𝑥 = 3 ∙ 10−3 + 0 ∙ 10−4 + 4 ∙ 10−5 + 0 ∙ 10−6 qui s’écrit en notation décimale
𝑥 = 0.003040. Les zéros soulignés ne sont pas des chiffres significatifs.
o 𝑥 = 2 ∙ 108 + 0 ∙ 107 + 0 ∙ 106 + 1 ∙ 105 + 0 ∙ 104 qui s’écrit en notation
décimale 𝑥 = 20010000. Les zéros soulignés ne sont pas des chiffres
significatifs.

I.4.1 Définition

On appelle chiffre significatif d’un nombre approché, tout chiffre dans sa


représentation décimale différent de zéro ; et un zéro s’il se trouve entre deux chiffres
significatifs ou s’il constitue un chiffre réservé.

8
Chapitre I. Les erreurs dans le calcul numérique

I.4.2 Exemples
1. Une approximation à 6 décimales de 0.00301045 est :

0.003010 Ce zéro traduit le fait que le nombre approché a conservé la décimale


10-6 : c’est donc un chiffre significatif.

Etant placé entre deux chiffres significatifs (3 et 1), ce zéro est un


chiffre significatif.

Ces zéros ne sont pas significatifs car ils ne servent qu’à indiquer le
rang des autres chiffres.
2. Si on approxime le nombre 1894 à la centaine près par 1900, à la place des chiffres
9 et 4 négligés, on introduit des zéros. Ils ne servent qu’à fixer l’ordre de grandeur
du nombre pris comme approximation. Ce ne sont pas des chiffres significatifs. Par
contre si on approche le nombre 1899.7 à l’unité près par le nombre 1900, les deux
zéros sont alors des chiffres significatifs.

I.5 Chiffres exactes d’un nombre décimal approché


I.5.1 Définition : Un chiffre significatif d’un nombre approché x est dit exact (c.s.e) si
l’erreur absolue de ce nombre ne dépasse pas une demi unité de rang du chiffre significatif.

Ainsi :

o Le nième chiffre significatif après la virgule est exacte si : ∆𝑥 ≤ 0.5 ∙ 10−𝒏


o Le nième chiffre significatif avant la virgule est exacte si : ∆𝑥 ≤ 0.5 ∙ 10𝒏−𝟏

I.5.1 Exemples
1. Pour 𝑥 = 35.97 et 𝑥 ∗ = 36.00, nous avons :
∆𝑥 = |𝑥 − 𝑥 ∗ | = |35.97 − 36.00| = 0.03 ≤ 0.5 ∙ 10−1 ≤ 0.5 ∙ 100 ≤ 0.5 ∙ 101
Ainsi, les chiffres significatifs 3, 6 et le premier zéro après la virgule sont exacts.
2. Pour 𝑥 = 2/3 et 𝑥 ∗ = 0.6671, nous avons :
20000−20013 13
∆𝑥 = |𝑥 − 𝑥 ∗ | = |2/3 − 0.6671| = | |= 10−4 = 4.333 … . 10−4
3∙104 3

= 0.4333 … 10−3 ≤ 0.5 ∙ 10−3 ≤ 0.5 ∙ 10−2 ≤ 0.5 ∙ 10−1


Ainsi, les chiffres significatifs 6, 6 et 7 sont exacts.

I.5.2 Propriété
• Si un chiffre significatif est exact, tous les chiffres à sa gauche sont exacts.

9
Chapitre I. Les erreurs dans le calcul numérique

• Si un chiffre n’est pas exact, tous ceux à sa droite ne le sont pas.

I.5.2.1 Remarque

Si l’erreur absolue ne dépasse pas une demi unité de rang du chiffre significatif,
on dit que c’est une approximation au sens large ou encore que c’est une approximation
à chiffres exacts dans un sens large.

Exemple : Pour 𝑥 = 412.3567 𝑒𝑡 𝑥 ∗ = 412.356. 𝑥 ∗ est alors une approximation à 6


chiffres exacts dans un sens large puisque : ∆𝑥 = |𝑥 − 𝑥 ∗ | = 0.0007 = 0.7 ∙ 10−3 ≤ 1 ∙
10−3

I.6 Troncature et arrondissement d’un nombre


L’arrondi est une méthode habituelle pour tronquer (couper en éliminant une partie)
un nombre pour ne garder qu’un nombre fini de chiffres significatifs.

Exemple : Pour approximer le nombre 𝜋 = 3.141492653589 …, on peut


considérer la valeur approchée 3.14 ou encore 3.14159 et cela selon le besoin. Dans
le premier cas on a tronqué 𝜋 après 2 décimales. Dans le second cas on l’a tronqué
après 5 décimales.

I.6.1 Règle d’arrondissement

Pour arrondir un nombre jusqu’à n chiffres significatifs, il faut éliminer les chiffres à droite
du nième chiffre significatif conservé si on se trouve après la virgule, sinon on remplace par
des zéros :

1. Si le (n+1)ième chiffre significatif est >5, on augmente le nième chiffre de 1.


2. Si le (n+1) ième chiffre significatif est <5, les chiffres retenus restent inchangés.
3. Si le (n+1) ième chiffre significatif est 5 alors deux cas sont possibles :
• Tous les chiffres rejetés, situés après le (n+1)ième chiffre significatif sont des
zéros : on applique la règle du chiffre pair. (le nième chiffre reste inchangé
s’il est pair et on lui ajoute 1 s’il est impair).
• Parmi les chiffres rejetés, il existe au moins un qui soit non nul : on ajoute
1 au nième chiffre.

I.6.1.1 Exemples
1. Arrondir 𝑥 = 0.7897 à trois chiffres significatifs.
7 > 5 ⟹ 𝑥 ≅ 𝑥 ∗ 𝑜ù 𝑥 ∗ = 0.790

10
Chapitre I. Les erreurs dans le calcul numérique

2. Arrondir 𝑥 = 0.953 à deux chiffres significatifs.


3 < 5 ⟹ 𝑥 ≅ 𝑥 ∗ 𝑜ù 𝑥 ∗ = 0.95
3. Arrondir 𝑥 = 1.6438500 à cinq chiffres significatifs.
Tous les chiffres rejetés sont des zéro et le 5ième chiffre est pair : 𝑥 ≅ 𝑥 ∗ = 1.6438.
4. Arrondir 𝑥 = 2.64387500 à six chiffres significatifs.
Tous les chiffres rejetés sont des zéro et le 6ième chiffre est imppairs :
𝑥 ≅ 𝑥 ∗ = 2.64388.
5. Arrondir 𝑥 = 1.64385001 à cinq chiffres significatifs.
Parmi les chiffres rejetés il existe un chiffre différent de zéro. On ajoute donc 1 au
5ième chiffre : 𝑥 ≅ 𝑥 ∗ = 1.6439 .

I.6.1.2 Remarque : En appliquant la règle d’arrondissement, l’erreur absolue de la valeur


approchée obtenue (erreur d’arrondi) ne dépasse pas une demi-unité de rang du dernier
chiffre significatif retenu. Par conséquent, un nombre correctement arrondi ne possède que
des chiffres significatifs exacts.

I.7 Relation entre erreur relative et chiffre significatif exact


• Si un nombre approché possède n chiffres significatifs exacts, alors son erreur
relative est < 5 ∙ 10−𝑛 (sauf si le nombre est 1 suivi de n-1 zéros).
• Si l’erreur relative à x* est ≤ 0.5 ∙ 10−𝑛 alors x* possède au moins n chiffres
significatifs exacts.

11
Résolution de 𝑓(0) = 0
Chapitre II. Résolution de 𝒇(𝒙) = 𝟎

II.1 Introduction
Les méthodes analytiques de résolution des équations algébriques polynômiales sont
limitées à certaines formes de faible degré telles que les équations quadratiques, cubiques,
quartiques et des formes particulières du type :
𝑃𝑛 (𝑥) = 𝑎𝑥 2𝑛 + 𝑏𝑥 𝑛 + 𝑐 = 0

Pour les degrés > 4 il n’existe pas de méthodes exactes pour la résolution  Utiliser
les méthodes numériques pour trouver les racines approchées.
Les méthodes présentées dans ce chapitre servent à approximer la racine de la fonction.
Pour trouver toutes les racines il faut les séparer d’abord pour pouvoir appliquer ces
méthodes.
En étudiant les méthodes de résolution de f(x)=0, on pose souvent deux questions :

1. La méthode converge-t-elle vers la solution cherchée x*? (la suite x(1), x(2),
…, x(n) converge-t-elle vers x*?)
2. Dans le cas affirmatif, quelle est sa rapidité ?
La rapidité de convergence nous permet de comparer les méthodes entre elles.

Pour séparer les racines, on peut :

1. Étudier la fonction graphiquement


2. Utiliser la méthode de balayage : examiner un certain nombre de domaines
[xi, xi+1] jusqu’à obtenir le changement de signe attendu.
Chapitre II. Résolution de 𝑓(𝑥) = 0

y y

min x2 x3 x5
x x0 x1 x4 x

Séparation Graphique Séparation des racines par


des racines Balayage

Figure II-1: Séparation des racines d'une fonction.

II.1.1 Méthodes numériques de résolution


 Plusieurs méthodes existent
 Méthode de dichotomie (bi-section)
 Méthode de la sécante
 Méthode du point fixe
 Méthode de Newton
 Problèmes ?
 Convergence
 Complexité

13
Chapitre II. Résolution de 𝑓(𝑥) = 0

II.2 Méthode de dichotomie

II.2.1 Principe

Cette méthode consiste à diviser l’intervalle [a, b]


en deux intervalles de même taille ([a, c] et [c, b]) et de
prendre la partie dans laquelle se trouve la solution
(vérifier si f(a)f(c)>0). Voir la figure II.2.
f(b)
Théorème (convergence)

Soit {𝑥𝑛 } la suite générée par l’algorithme de


recherche par dichotomie et soit x* la solution
a c=(a+b)/2
du problème f(x)=0.
b
Alors {𝑥𝑛 } converge vers x* avec :
f(c)
𝑏−𝑎
|𝑥𝑛 − 𝑥 ∗ | ≤ 𝑛≥1
2𝑛

f(a)
II.2.2 Algorithme
Figure II-2: Méthode de dichotomie.
Poser 𝑎(0) = 𝑎, 𝑏 (0) = 𝑏, 𝜀 (0) = 𝑏 (0) −
𝑎(0) , 𝑘 = 0
Tant que 𝜀 (𝑘) ≥ 𝜀 faire
𝑎(𝑎) +𝑏(𝑘)
𝑚← 2

Si 𝑓(𝑎(𝑘) ) ∙ 𝑓(𝑚) < 0 alors


𝑎(𝑘+1) = 𝑎(𝑘) et 𝑏 (𝑘+1) = 𝑚
Sinon
𝑎(𝑘+1) = 𝑚 et 𝑏 (𝑘+1) = 𝑏 (𝑘)
Fin si
Calculer 𝜀 (𝑘+1) ← 𝑏 (𝑘+1) − 𝑎(𝑘+1)
𝑘 ←𝑘+1
Fin tant que

II.2.3 Critère d’arrêt

Soit 𝑘 ∈ 𝑁. On a :

14
Chapitre II. Résolution de 𝑓(𝑥) = 0

𝑏𝑘 − 𝑎𝑘 𝑏𝑘−1 − 𝑎𝑘−1 𝑏0 − 𝑎0
𝑏𝑘+1 − 𝑎𝑘+1 = = 2
= ⋯ = 𝑘+1
2 2 2

Puisque x* est la racine approchée de 𝑓(𝑥) = 0, on peut écrire :

𝑏𝑘 − 𝑎𝑘 𝑏0 − 𝑎0
|𝑥 ∗ − 𝑥𝑘 | ≤ 𝑏𝑘+1 − 𝑎𝑘+1 = = 𝑘+1
2 2

Si on veut donc calculer une approximation de x* avec n décimales exactes, il suffit de


poser :

𝑏0 − 𝑎0
≤ 0.5 ∙ 10−𝑛
2𝑘+1

On peut donc trouver le nombre d’itérations minimal nécessaires pour atteindre cette
précision :

𝑏 − 𝑎0
𝑙𝑜𝑔 ( 0 )
0.5 ∙ 10−𝑛
𝑘≥ −1
𝑙𝑜𝑔2

II.3 Méthode de la sécante

II.3.1 Principe

Cette méthode est appelée aussi méthode de la corde, des fausses positions ou aussi
méthode de Lagrange.

Soient f(a)<0 et f(b)>0. Relions par une droite les points A(a, f(a)) et B(b, f(b)) et
prenons comme approximation l’abscisse x1 du point d’intersection de la droite AB et l’axe
Ox. Cette valeur est donnée par :

(b  a) f (a)
y
B est fixe
x1  a  f (b)  f (a) B
- Si f(x1)<0 alors le nouveau segment est [x1,
b]. De la même façon, on a : a x1 x2
(b  x1 ) f ( x1 ) O cb x
x x
2 1
f (b)  f ( x1 )

Il vient, par récurrence, que : A1


A
Figure II-3: Méthode de Lagrange - 1er cas.

15
Chapitre II. Résolution de 𝑓(𝑥) = 0

(b  xn ) f ( xn )
x  x  A est fixe
n 1 n
f (b)  f ( xn )
y
- Si f(x1)>0 alors le nouveau segment est [a, B
x1]. La formule de récurrence devient:

( xn  a ) f ( a )
x a a
n 1
f ( xn )  f ( a )
O x b x
1
II.3.2 Test d’arrêt

Le calcul continu jusqu’à ce que les décimales A


qu’on veut conserver cessent de varier.
Figure II-4: Méthode de Lagrange -
On peut prendre comme test d’arrêt: |𝑥𝑛 − 2ème cas.
𝑥𝑛−1 | ≤ 0

Où e est la borne d’erreur absolue donnée.

II.3.3 Convergence de la méthode


 L’avantage est d’opérer dans un intervalle qui entoure toujours la racine qui se
réduit à chaque itération.

 L’itéré xn de la méthode de la sécante converge vers une racine de f, si les valeurs


initiales x0 et x1 sont suffisamment proches de la racine. L'ordre de convergence est
1+√5
α, où 𝛼 = ≈ 1.618. Appelée proportion d’or (golden number). Ceci est
2
possible sous certaines conditions techniques.

 Le taux de convergence peut s’avérer faible dans certains cas.

 Si la fonction est fortement convexe (concave), la convergence est lente (figure 4)

16
Chapitre II. Résolution de 𝑓(𝑥) = 0

II.3.4 Algorithme

Poser 𝑎(0) = 𝑎, 𝑏 (0) = 𝑏, 𝜀 (0) = 𝑏 (0) − y


(0)
𝑎 ,𝑘 = 0
Tant que 𝜀 (𝑘) ≥ 𝜀 faire
𝑎(𝑘) −𝑏 (𝑘)
𝑥 (𝑘) ← 𝑎(𝑘) − 𝑓(𝑎(𝑘) ) 𝑓(𝑎(𝑘))−𝑓(𝑏(𝑘) )

Si 𝑓(𝑎(𝑘) ) ∙ 𝑓(𝑥 (𝑘) ) < 0 alors


𝑎(𝑘+1) = 𝑎(𝑘) et 𝑏 (𝑘+1) = a x1
(𝑘)
𝑥
b x
Sinon
𝑎(𝑘+1) = 𝑥 (𝑘) et 𝑏 (𝑘+1) = Figure II-5: Convergence lente de la
𝑏 (𝑘) méthode de Lagrange.
Fin si
Calculer 𝜀 (𝑘+1) ← 𝑏 (𝑘+1) − 𝑎(𝑘+1)
𝑘 ←𝑘+1
Fin tant que

II.4 Méthode de Newton

II.4.1 Principe

Remplacer l’arc de courbe (AB) par la droite tangente à la courbe aux points A ou
B. L’intersection avec Ox détermine le prochain élément (x1). On forme la suite (xi) par
itérations (figure 5).

𝑓(𝑥 )
𝑥𝑛+1 = 𝑥𝑛 − 𝑛 𝑛 = 0, 1, 2, …
Formule de récurrence : { 𝑓′(𝑥𝑛 )
𝑥0 ∈ [𝑎, 𝑏]

17
Chapitre II. Résolution de 𝑓(𝑥) = 0

If faut que f’(xn)≠0 au voisinage


de x*.

II.4.2 Convergence

Déterminer un intervalle [a, b] sur


lequel il y a convergence de Newton n’est
pas toujours facile. Il existe cependant un
théorème qui donne une condition
suffisante. Figure II-6: Méthode de Newton.
Théorème (convergence globale de la
méthode de Newton)

Si la fonction f(x) définie sur [a, b] vérifie :

1. f (a) f (b)  0
2. x  [a, b] f ' ( x)  0 (strictemonotoniede f )
3. x  [a, b] f ' ' ( x)  0 (concativité de f dans le même sens)

Alors en choisissant x0 de [a, b] tel que 𝑓(𝑥0 )𝑓′′(𝑥0 ) > 0, les itérations de Newton
convergent vers l’unique solution x* de f(x)=0 dans [a, b]. De plus, la convergence est
quadratique.

II.4.3 Algorithme

Poser 𝑥 (0) ∈ [𝑎, 𝑏], 𝜀 (0) = 𝑏 − 𝑎, 𝑘 =


0
Tant que 𝜀 (𝑘) ≥ 𝜀 faire
𝑓(𝑥 (𝑘) )
𝑥 (𝑘+1) ← 𝑥 (𝑘) −
𝑓′ (𝑥 (𝑘) )

Calculer 𝜀 (𝑘+1) ← |𝑥 (𝑘+1) −


𝑥 (𝑘) |
𝑘 ←𝑘+1
Fin tant que

18
Chapitre II. Résolution de 𝑓(𝑥) = 0

II.5 Méthode du point fixe

II.5.1 Principe

Si l’équation donnée est mise sous la forme x=g(x), avec g(x) est une fonction continue
sur [a, b] et |g’(x)|≤L<1 (contractante) (voir figures 6 et 7) pour tout x de [a, b] sur lequel
l’équation n’a qu’une seule racine alors :

En partant d’une valeur initiale x0∈[a, b], on peut construire la suite:

x  g ( x ), x
1 0 2
 g ( x1),..., xn1  g ( xn)

La limite de cette suite est la racine unique de f(x)=0.

On arrête les opérations si : |𝑥𝑛 − 𝑥𝑛−1 | ≤ 𝜀

Figure II-7: Cas de convergence de la méthode du point fixe (g(x) est contractante).

19
Chapitre II. Résolution de 𝑓(𝑥) = 0

Figure II-8: Cas de divergence de la méthode du point fixe (g(x) est décontractante).

II.5.2 Algorithme

Poser 𝑥 (0) = 𝑥0 , 𝜀 (0) =


𝑑(𝑔(𝑥 (0) ), 𝑥 (0) ), 𝑘 = 0
Tant que 𝜀 (𝑘) ≥ 𝜀 faire
𝑥 (𝑘+1) ← 𝑔(𝑥 (𝑘) )
Calculer 𝜀 (𝑘+1) ← 𝑑(𝑥 (𝑘+1) , 𝑥 (𝑘) )
𝑘 ←𝑘+1
Fin tant que

II.6 Accélération de la convergence

II.6.1 Lemme

On suppose que 𝑓 ′ (𝑥) existe. Plus 𝑓 ′ (𝑥 ∗ ) est petite, plus la convergence est rapide.

II.6.2 Preuve

On pose 𝐸𝑘 = 𝑥𝑘 − 𝑥 ∗ . Un développement de Taylor de f nous donne :

𝐸𝑘2 ′′ ∗
𝑥𝑘+1 = 𝑓(𝑥𝑘 ) = 𝑓(𝑥 ∗ + 𝐸𝑘 ) = 𝑓(𝑥 ∗ ) + 𝐸𝑘 𝑓 ′ (𝑥 ∗ ) + 𝑓 (𝑥 ) + ⋯
2!

En négligeant les termes d’ordre supérieur à 1 en 𝐸𝑘 , il vient :

20
Chapitre II. Résolution de 𝑓(𝑥) = 0

𝑥𝑘+1 − 𝑓(𝑥 ∗ ) = 𝑥𝑘+1 − 𝑥 ∗ ≅ 𝑓 ′ (𝑥 ∗ ) ∙ 𝐸𝑘 ⟹ 𝐸𝑘+1 = 𝑥𝑘+1 − 𝑥 ∗ ≅ 𝑓 ′ (𝑥 ∗ ) ∙ 𝐸𝑘

Puisque (𝐸𝑘 ) est une suite convergente vers 0, on voit que plus 𝑓 ′ (𝑥 ∗ ) est petit, plus la
convergence est rapide.

II.6.3 Principe de l’accélération


𝜆𝑥+𝑓(𝑥)
Soit 𝜆 ≠ −1. Posons 𝐺(𝑥) = .
1+𝜆

Comme 𝑓(𝑥) = 𝑥 ⇔ 𝐺(𝑥) = 𝑥 : alors, x* est un point fixe de f si et seulement s’il est un
point fixe pour G.
𝜆+𝑓′(𝑥) 𝜆+𝑓′(𝑥 ∗ )
On a 𝐺′(𝑥) = ; donc 𝐺′(𝑥 ∗ ) = . Il suffit alors de prendre 𝜆 voisin de
1+𝜆 1+𝜆

– 𝑓 ′ (𝑥 ∗ ) pourvu que 𝑓 ′ (𝑥 ∗ ) soit petit. Et donc d’après le lemme 2.1, la convergence sera
plus rapide que celle donnée par 𝑓(𝑥) = 𝑥.

II.6.4 Algorithme d’accélération


1. Calculer 𝑥0 , 𝑥1 , … , 𝑥𝑛 par la méthode lente :
𝑥 ∈ [𝑎, 𝑏]
{ 0 , 𝑘 = 0, 1, … , 𝑛 − 1
𝑥𝑘+1 = 𝑓(𝑥𝑘 )
Où n est choisi selon chaque cas
2. On pose : 𝜆 = −𝑓 ′ (𝑥𝑛 )
3. On calcule les approximations suivantes par :
𝜆𝑥 + 𝑓(𝑥)
𝑥𝑘+1 = 𝐺(𝑥𝑘 ), 𝑘 = 𝑛, 𝑛 + 1, … 𝑜ù 𝐺(𝑥) =
1+𝜆

21
Résolution des systèmes d’équations linéaires
Chapitre III. Résolution de 𝑨𝒙 = 𝒃

III.1 Introduction
Dans la pratique scientifique, l’ingénieur se trouve souvent confronté à des problèmes
dont la résolution passe par celle d’un système d’équations qui modélisent les divers
éléments considérés. Ainsi, la détermination de :

- Contraintes et déplacement des structures mécaniques chargées


- Courant et tension des réseaux électriques
- Débits de chaleur dans des réseaux de chauffage
- Solution optimale en programmation linéaire …

Certains de ces problèmes nécessitent la résolution d’un système de quelques milliers


d’équations.

5𝑥 + 3𝑦 + 2𝑧 = 5
Exemple : {9𝑥 + 6𝑦 + 7𝑧 = 8
2𝑥 + 5𝑦 − 6𝑧 = 9

Dans ce chapitre, on s’intéresse à la résolution d’un système de n équations à n


inconnues :

𝑎11 𝑥1 + 𝑎12 𝑥2 + … + 𝑎1𝑛 𝑥𝑛 = 𝑏1


𝑎 𝑥 + 𝑎22 𝑥2 + … + 𝑎2𝑛 𝑥𝑛 = 𝑏2
{ 21 1
……………………………………….
𝑎𝑛1 𝑥1 + 𝑎𝑛2 𝑥2 + … + 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛

Que l’on note aussi : ∑𝑛𝑗=1 𝑎𝑖𝑗 𝑥𝑗 = 𝑏𝑖 𝑖 = ̅̅̅̅̅


1, 𝑛

𝑎11 𝑎12 … 𝑎1𝑛 𝑥1 𝑏1


𝑎 𝑎 … 𝑎2𝑛 𝑥2 𝑏
Ou encore : [ 21 22 ] [ ] = [ 2 ] ou Ax = b.
……………………. ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 𝑥𝑛 𝑏 𝑛

III.2 Méthodes de résolution


Il existe deux types de méthodes pour la résolution d’un système Ax=b :

1- Méthodes directes : une méthode directe conduit à une solution en un nombre fini
d’étapes, el s’il n’y a pas des erreurs d’arrondi, la solution serait celle du système.
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

2- Méthodes itératives : une méthode itérative fait passer d’un estimé x(k) de la solution
à un autre estimé x(k+1) de cette solution.

En effet, il n’existe pas de règle définitive pour le choix entre méthodes directes ou
indirectes. Cependant, les méthodes itératives sont rarement utilisées pour des systèmes à
matrice pleine de faible dimension (n<100). Les méthodes itératives sont généralement
préférées pour les systèmes de grande taille (l’accumulation des erreurs devient moins
cruciale dans ce cas).

III.3 Méthodes directes

III.3.1 Méthodes d’élimination de Gauss

La méthode de Gauss engendre un algorithme fini exact dont l’idée est de transformer le
système initial en un système triangulaire (inférieur ou supérieur).
III.3.1.1 Résolution d’un système triangulaire

On donne ici l’algorithme de résolution d’un système triangulaire inférieur. Il se fait en


“remontant” les équations de la dernière ligne à la première.

𝑏
𝑥𝑛 = 𝑎 𝑛
𝑛𝑛
L’algorithme de résolution est : { 1 𝑛
𝑥𝑖 = 𝑎 (𝑏𝑖 − ∑𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗 ) 𝑝𝑜𝑢𝑟 𝑖 = 𝑛 − 1, … , 1
𝑖𝑖

III.3.1.2 Méthode de Gauss

Soit à résoudre, le système suivant (n=3) :


(1)
𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 = 𝑏1 (𝐸1 )
(1)
𝑆1: { 𝑎21 𝑥1 + 𝑎22 𝑥2 + 𝑎23 𝑥3 = 𝑏2 (𝐸2 )
(1)
𝑎31 𝑥1 + 𝑎32 𝑥2 + 𝑎33 𝑥3 = 𝑏3 (𝐸3 )

(1) (2) (1) 𝑎 (1)


On élimine le terme 𝑎21 𝑥1 dans(𝐸2 ) en prenant 𝐸2 = 𝐸2 − 𝑎21 𝐸1
11

(1) (2) (1) 𝑎31 (1)


De même, on élimine le terme 𝑎31 𝑥1 dans(𝐸3 ) en prenant 𝐸3 = 𝐸3 − 𝐸1
𝑎11

On obtient ainsi le système :

23
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

(1)
𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 = 𝑏1 (𝐸1 )
(2) (2) (2) (2)
𝑆2: { 𝑎22 𝑥2 + 𝑎32 𝑥3 = 𝑏2 (𝐸2 )
(2) (2) (2) (2)
𝑎23 𝑥2 + 𝑎33 𝑥3 = 𝑏3 (𝐸3 )

(2) 𝑎
𝑎𝑖𝑗 = 𝑎𝑖𝑗 − 𝑖1 𝑎1𝑗
𝑎11
Avec : { (2) 𝑎 𝑖 = 2, 3 𝑒𝑡 𝑗 = 2, 3
𝑏𝑖 = 𝑏𝑖 − 𝑖1 𝑏1
𝑎11

(2)
En supposant que 𝑎22 ≠ 0, on élimine de la même façon le terme 𝑎32 𝑥2 grâce à la
(2)
(3) (2) 𝑎32 (2)
combinaison 𝐸3 = 𝐸3 − (2) 𝐸2 et on obtient un nouveau système équivalent au
𝑎22

système initial :
(1)
𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 = 𝑏1 (𝐸1 )
(2) (2) (2) (2)
𝑆3: { 𝑎22 𝑥2 + 𝑎23 𝑥3 = 𝑏2 (𝐸2 )
(3) (3) (3)
𝑎33 𝑥3 = 𝑏3 (𝐸3 )

(2)
(3) (2) 𝑎32 (2)
𝑎33 = 𝑎33 − (2) 𝑎23
𝑎22
Avec : (2)
(3) (2) 𝑎32 (2)
𝑏3 = 𝑏3 − (2) 𝑏2
{ 𝑎22

Le système S3 est triangulaire supérieur. La résolution se fait donc grâce à


l’algorithme du paragraphe 3.1.1.

Exemple : soit à résoudre le système :

2𝑥1 + 3𝑥2 − 𝑥3 = 5
{ 4𝑥1 + 4𝑥2 − 3𝑥3 = 3
−2𝑥1 + 3𝑥2 − 𝑥3 = 1

On écrit le système sous la forme Ax=b avec

2 3 −1 5 𝑥1
𝐴=( 4 4 𝑥
−3) ; 𝑏 = (3) ; 𝑥 = ( 2 )
−2 3 −1 1 𝑥3
(1)
On a le pivot 𝑎11 ≠ 0, on peut donc faire :

〈2〉 3 −1 5 2 3 −1 5
(4 4 −3 | 3) − − − − − −−→ ( 0 −2 −1 −7)
|
−2 3 −1 1 0 6 −2 6

24
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

[𝐴(1) |𝑏 (1) ] → [𝐴(2) |𝑏 (2) ]

(2)
Le pivot 𝑎22 ≠ 0, on peut donc faire :

2 3 −1 5 2 3 −1 5
(0 〈−2〉 |
−1 −7 ) − − − − − −−→ ( 0 −2 −1 −7 )
|
0 6 −2 6 0 0 −5 −15

[𝐴(2) |𝑏 (2) ] → [𝐴(3) |𝑏 (3) ]

En remplaçant dans le système d’équations, on a :

2𝑥1 +3𝑥2 −𝑥3 = 5 𝑥1 = 1


{ −2𝑥2 −𝑥3 = −7 ⇔ {𝑥2 = 2
−5𝑥3 = −15 𝑥3 = 3

III.3.1.3 Algorithme de Gauss

1ère étape : Triangularisation : [𝐴, 𝑏] → [𝑈, 𝑏 ′ ]

Pour k=1 à n-1 faire


Pour i=k+1 à n faire
𝑎𝑖𝑘
𝑤=
𝑎𝑘𝑘

Pour j=k+1 à n+1 faire


𝑎𝑖𝑗 = 𝑎𝑖𝑗 − 𝑤 ∙ 𝑎𝑘𝑗
Fin pour
Fin pour
Fin pour
2ème étape : Résolution du système : Ux=b’

Pour i=n à 1 faire


𝑏𝑖 −∑𝑛
𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 =
𝑎𝑖𝑖
Fin pour

III.3.1.4 Méthode de Jordan

La méthode de Jordan est une variante de la méthode de Gauss. Elle consiste à


éliminer non seulement les facteurs au-dessous du pivot mais aussi les facteurs au-dessus.
Le résultat est système à matrice diagonale.

25
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

La résolution est donc immédiate en utilisant la formule:

𝑏𝑖
𝑥𝑖 = 𝑖 = 1, 2, … , 𝑛
𝑑𝑖𝑖

III.3.1.5 Algorithme de Jordan

1ère étape : Triangularisation : [𝐀, 𝐛] → [𝐃, 𝐛′ ]

Pour k=1 à n-1 faire


Pour i=1 à n faire
Si i≠k alors
𝐚
𝐰 = 𝐚 𝐢𝐤
𝐤𝐤

Pour j=1 à n+1 faire


𝐚𝐢𝐣 = 𝐚𝐢𝐣 − 𝐰 ∙ 𝐚𝐤𝐣
Fin pour
Fin si
Fin pour
Fin pour
2ème étape : Résolution du système : Dx=b’

Pour i=n à 1 faire


𝐛
𝐱𝐢 = 𝐝 𝐢
𝐢𝐢

Fin pour

III.3.1.6 Calcul de la matrice inverse

Pour calculer la matrice inverse (de A) avec la méthode de Jordan, il suffit d’utiliser
une matrice Identité (C) au début de l’algorithme et de reporter tous les changements
effectués sur la matrice A sur cette matrice.
Pour construire l’algorithme d’inversion de A, il suffit d’ajouter à l’algorithme de
Jordan la ligne :
cij = cij − w ∙ ckj

Il ne faut pas oublier de normaliser la diagonale (avoir des 1) pour avoir la matrice
identité identité.
Où C est initialisée à la matrice identité avant d’appliquer l’algorithme.

26
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

A la fin de l’algorithme la matrice C correspond à l’inverse de la matrice A.

III.3.2 Méthode de décomposition LU

III.3.2.1 Introduction

La factorisation LU d'une matrice An,n est une astuce très importante dans le
domaine de l'analyse numérique. Sa base est très simple, mais ses applications sont très
nombreuses et très utiles.
III.3.2.2 Principe

Décomposition de la matrice A de façon à la mettre sous la forme A=L.U où L est


une matrice triangulaire unitaire inférieur et U est une matrice triangulaire supérieure.
Le système devient :
𝐿𝑦 = 𝑏
𝐴𝑥 = 𝑏 ⇔ 𝐿𝑈𝑥 = 𝑏 ⇔ {
𝑈𝑥 = 𝑦
La résolution du système Ax=b revient à résoudre les deux systèmes Ly=b et Ux=y.
Puisque L et U sont triangulaires, la résolution est immédiate.

1 0 0 ⋯ 0 𝑢11 𝑢12 ⋯ 𝑢1𝑛−1 𝑢1𝑛


𝑙21 1 0 ⋯ 0 0 𝑢22 ⋯ 𝑢2𝑛−1 𝑢2𝑛
𝐿 = 𝑙31 𝑙32 1 ⋯ 0 𝑈= 0 0 ⋯ 𝑢3𝑛−1 𝑢3𝑛
⋮ ⋮ ⋱ ⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮
(𝑙𝑛1 𝑙𝑛2 𝑙𝑛3 ⋯ 1) ( 0 0 0 ⋯ 𝑢𝑛𝑛 )

La meilleure façon d'obtenir cette factorisation, est d'utiliser l'élimination de Gauss.


Ainsi, la matrice U est la matrice finale après élimination de Gauss 𝐴(𝑛) .
𝑎11 𝑎12 𝑎13 ⋯ 𝑎1𝑛
(2) (2) (2)
0 𝑎22 𝑎23 ⋯ 𝑎2𝑛
(3) (3)
𝑈= 0 0 𝑎33 ⋯ 𝑎3𝑛
⋮ ⋮ ⋱ ⋮ ⋮
(𝑛)
( 0 0 0 ⋯ 𝑎𝑛𝑛 )
Il reste à trouver la matrice L (triangulaire inférieure unitaire).

27
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

En effet, les différentes étapes de la triangularisation peuvent s’écrire sous forme


matricielle. Si on pose A=A(0), la matrice A(1) du second système est obtenue en multipliant
1 0 0 𝑎11 𝑎12 𝑎13
𝑎21
− 1 0 (2) (2)
à gauche par : 𝐸 (1) = ( 𝑎11 ) → 𝐴(1) = 𝐸 (1) 𝐴(0) = ( 0 𝑎22 𝑎23 )
𝑎 (2) (2)
− 𝑎31 0 1 0 𝑎32 𝑎33
11

De la même façon, A(2) obtenue en multipliant A(1) et E(2) :

1 0 0 𝑎11 𝑎12 𝑎13


0 1 0 (2) (2)
𝐸 (2) = (2)
𝑎32 → 𝐴(2) = 𝐸 (2) 𝐴(2) = 𝐸 (2) 𝐸 (1) 𝐴(1) = ( 0 𝑎22 𝑎23 )
0 − (2)
1 0 0
(3)
𝑎33
𝑎22
( )
(2) (1) −1 (2) −1 −1
Ainsi, 𝐴(0) = (𝐸 𝐸 ) 𝐴 = (𝐸 (1) ) (𝐸 (2) ) 𝐴(2) . Les matrices E(i) sont
inversibles car leurs déterminants sont égaux à 1 et leurs inverses sont faciles à calculer.
En effet, on peut vérifier qu’on les obtient en transformant les termes sous la diagonale en
leurs opposants. On a donc :
1 0 0
𝑎21
−1 −1 1 0
𝐿 = (𝐸 (1) ) (𝐸 (2) ) = 𝑎11
𝑎31 𝑎32
1
(𝑎11 𝑎22 )

1 0 0 ⋯ 0
𝑙21 1 0 ⋯ 0 (𝑘)
𝑎𝑖𝑘
Dans le cas général, on a : 𝐿 = 𝑙31 𝑙32 1 ⋯ 0 avec 𝑙𝑖𝑘 = (𝑘)
𝑎𝑘𝑘
⋮ ⋮ ⋱ ⋮ ⋮
(𝑙𝑛1 𝑙𝑛2 𝑙𝑛3 ⋯ 1)
III.3.2.3 Algorithme de factorisation LU

Début
𝑢11 = 𝑎11
Pour j=2 à n faire
𝑢1𝑗 = 𝑎1𝑗
𝑎𝑗1
𝑙𝑗1 =
𝑎11
Fin pour
Pour i=2 à n-1 faire
𝑢𝑖𝑖 = 𝑎𝑖𝑖 − ∑𝑖−1
𝑘=1 𝑙𝑖𝑘 𝑢𝑘𝑖

28
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

Pour j=i+1 à n faire

𝑢𝑖𝑗 = 𝑎𝑖𝑗 − ∑𝑖−1


𝑘=1 𝑙𝑖𝑘 𝑢𝑘𝑗
1
𝑙𝑗𝑖 =
𝑢𝑖𝑖
[𝑎𝑗𝑖 − ∑𝑖−1
𝑘=1 𝑙𝑗𝑘 𝑢𝑘𝑖 ]

Fin pour
Fin pour
𝑢𝑛𝑛 = 𝑎𝑛𝑛 − ∑𝑛−1
𝑘=1 𝑙𝑛𝑘 𝑢𝑘𝑛
Fin

III.3.2.4 Utilité de la factorisation LU

On remarque facilement que la méthode LU nécessite plus de calcul et d’espace


mémoire que la méthode de résolution de Gauss. En effet, la méthode de Gauss est en
quelque sorte une partie de la méthode LU (construction de la matrice U). Cependant, il ne
faut pas douter de l’utilité de la méthode de factorisation LU. Dans plusieurs situations en
analyse numérique, il y a plusieurs systèmes du type 𝐴𝑥𝑖 = 𝑏𝑖 à résoudre pour 𝑖 = 1, … , 𝑀
avec M très grand. Puisque la matrice A est constante pour tous ses systèmes, il est donc
avantageux de calculer une fois L et U et résoudre les deux systèmes triangulaires à chaque
fois, ce qui revient plus facile à faire.

III.3.3 Méthode de Cholesky

III.3.3.1 Rappel

Une matrice A est symétrique si et seulement si : 𝐴 = 𝐴𝑡

Elle est définie positive si et seulement si : ∀𝑥 ∈ 𝑅 𝑛 {0}: 𝑥 𝑡 𝐴𝑥 > 0

2 1 1
Exemple : soit la matrice (1 2 1)
1 1 2

Cette matrice est symétrique.

2 1 1 𝑥1
On a : (𝑥1 , 𝑥2 , 𝑥3 ) (1 2 1) (𝑥2 ) = 𝑥12 + 𝑥22 + 𝑥32 + (𝑥1 + 𝑥2 + 𝑥3 )2 > 0 ∀𝑥 ≠ 0
1 1 2 𝑥3

Ainsi, la matrice est définie positive.

29
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

Remarques : soit 𝐴 ∈ 𝑅 𝑛×𝑛 une matrice symétrique.

• A est définie positive si et seulement si toutes ses valeurs propres sont positives.
• A est définie positive si et seulement si toutes les sous-matrices :
𝑎11 ⋯ 𝑎1𝑟
( ⋮ ⋱ ⋮ );1 ≤ 𝑟 ≤ 𝑛
𝑎𝑟1 ⋯ 𝑎𝑟𝑟

Ont un déterminant positif.

Il est intéressant de trouver une factorisation de A qui prend en compte sa symétrie.

III.3.3.2 Théorème : (Cholesky)

Soit A une matrice carrée d’ordre n non singulière (det(A)≠0) et symétrique. Pour
qu’il existe une matrice triangulaire inférieure L, de même dimension que A, telle que 𝐴 =
𝐿𝐿𝑡 , il faut et il suffit que A soit définie positive.

Remarque :

• L n’est pas unique.


• La décomposition devient unique si l’on fixe à l’avance les éléments
diagonaux 𝑙𝑖𝑖 𝑎𝑣𝑒𝑐 𝑙𝑖𝑖 > 0.
• On remarque que cette décomposition est un peut similaire à la décomposition LU.
Cependant, au lieu d’utiliser deux matrices, une suffit pour stoker les valeurs de L.
• Un autre point important est que la matrice triangulaire inférieure produise par la
factorisation LU est différente de celle produise par la factorisation de Cholesky

Avant de donner l’algorithme général de factorisation de Cholesky, étudions un exemple.

Exemple : pour trouver la décomposition de Cholesky de la matrice :

4 2 −6
𝐴 = ( 2 10 9)
−6 9 26

4 2 −6 𝑙11 0 0 𝑙11 𝑙21 𝑙31


On doit résoudre l’équation : ( 2 10 9 ) = (𝑙21 𝑙22 0 )( 0 𝑙22 𝑙32 )
−6 9 26 𝑙31 𝑙32 𝑙33 0 0 𝑙33

𝐿 𝐿𝑡

30
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

Pour ce faire, on écrit la matrice de multiplication pour trouver un système


d’équations à 6 inconnus. L’astuce est de trouver les 𝑙𝑖𝑗 dans le bon ordre. On obtient les
équations :
2
𝑙11 =4  𝑙11 = 2
𝑙21 𝑙11 = 2  𝑙21 = 1
𝑙31 𝑙11 = −6  𝑙31 = −3
2
𝑙21 2
+ 𝑙22 = 10  𝑙22 = 3
𝑙31 𝑙21 + 𝑙32 𝑙22 = 9  𝑙32 = 4
2
𝑙31 2
+ 𝑙32 2
+ 𝑙33 = 26  𝑙33 = 1

2 0 0
En conclusion, on a : 𝐿 = ( 1 3 0)
−3 4 1

Pour une matrice d’ordre 𝑛 × 𝑛, on calcule suivant l’ordre :

1
2 3
⋮ 4 5
⋮ ⋮ ⋮ ⋱
(2 4 6 ⋯ 2𝑛 − 1)

Afin d’obtenir les éléments 𝑙𝑖𝑗 de la matrice L, on multiplie les matrices𝐿 𝑒𝑡 𝐿𝑡 , puis
on identifie les coefficients respectifs dans l’égalité : 𝐴 = 𝐿𝐿𝑡 pour obtenir les équations :

31
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

2
𝑙11 = 𝑎11
2 2
𝑙𝑖1 + 𝑙𝑖2 + ⋯ + 𝑙𝑖𝑖2 = 𝑎𝑖𝑖
𝑙𝑖1 𝑙𝑗𝑖 + 𝑙𝑖2 𝑙𝑗𝑖 + 𝑙𝑖1 𝑙𝑗𝑖 + ⋯ + 𝑙𝑖𝑖 𝑙𝑗𝑖 = 𝑎𝑖𝑗 , 𝑖 > 𝑗
{𝑙𝑖𝑗 = 0 , 𝑖 < 𝑗

On déduit ensuite :

𝑙11 = √𝑎11
𝑖−1
2
𝑙𝑖𝑖 = √𝑎𝑖𝑖 − ∑ 𝑙𝑖𝑘 , 𝑖 = ̅̅̅̅̅
2, 𝑛
𝑘=1

𝑖−1
1
𝑙𝑗𝑖 = (𝑎𝑖𝑗 − ∑ 𝑙𝑖𝑘 𝑙𝑗𝑘 ) , 𝑖 < 𝑗
𝑙𝑖𝑖
𝑘=1

{𝑙𝑗𝑖 = 0 , 𝑖 > 𝑗

III.3.3.3 Algorithme de Cholesky

Début
Pour k=1 à n faire

𝑙𝑘𝑘 = √𝑎𝑘𝑘 − ∑𝑘−1 2


𝑠=1 𝑙𝑘𝑠

Pour j=k+1 à n faire


1
𝑙𝑗𝑘 =
𝑙𝑘𝑘
(𝑎𝑘𝑗 − ∑𝑘−1
𝑠=1 𝑙𝑗𝑠 𝑙𝑘𝑠 )

Fin pour
Fin pour
Fin

32
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

III.3.4 Calcul du déterminant

Les transformations élémentaires ne modifient pas la valeur du déterminant d’une


matrice (des matrices semblables ont le même déterminant).

Le déterminant d’une matrice triangulaire est le produit de ses éléments diagonaux.

Après application de l’algorithme de Gauss du système 𝐴𝑥 = 𝑏, on obtient un


nouveau système équivalent 𝑈𝑥 = 𝑏′ et le déterminant de la matrice initiale A se calcule
par :
𝑛

det(𝐴) = det(𝑈) = ∏ 𝑢𝑖𝑖


𝑖=1

La même formule est utilisée pour calculer le déterminant après une factorisation
LU.

Pour la factorisation de Cholesky, on utilise la propriété : det(𝐴𝐵) =


det(𝐴) . det(𝐵)

Ainsi : det(𝐴) = det(𝐿) . det(𝐿𝑡 ) = (det(𝐿))2

III.3.5 Conclusion sur les méthodes directes


• Les méthodes directes sont utilisées surtout pour la résolution des petits (n<20) et
moyens (n<100) systèmes d’équations linéaires.
• On dit que la meilleure méthode directe au sens du temps de calcul est celle qui
demande le moins d’opérations.
• La méthode de Gauss ou sa variante LU est souvent préférée pour des systèmes à
matrice quelconque.
• La méthode de Cholesky est recommandée pour résoudre des systèmes linéaires à
matrice symétrique définie positive.

33
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

III.4 Méthodes itératives

III.4.1 Introduction

On se propose le problème de la résolution du système linéaire de Cramer 𝐴𝑥 = 𝑏.

Où A est une matrice carrée de rang n.

Les méthodes que nous présentons ci-après sont une généralisation au cas n-
dimensionnel des méthodes de résolution de 𝑓(𝑥) = 0 étudiées dans le chapitre précédent.

Ces méthodes consistent à utiliser un vecteur estimé initial 𝑋 (0) =


(0) (0) (0)
(𝑥1 , 𝑥2 , … , 𝑥𝑛 )𝑡 de la solution exacte 𝑋 ∗ = (𝑥1∗ , 𝑥2∗ , … , 𝑥𝑛∗ )𝑡 du système 𝐴𝑥 = 𝑏 et de
générer une séquence de vecteurs : 𝑋 (𝑘+1) = 𝐹 (𝑘) (𝑋 (𝑘) , … , 𝑋 (𝑘) ).

III.4.2 Principe

Soit à résoudre le système 𝐴𝑥 = 𝑏 où A est une matrice carrée d’ordre n.

Ecrivons A sous la forme 𝐴 = 𝑀 − 𝑁, le système devient donc : (𝑀 − 𝑁)𝑥 = 𝑏 ou


encore :

𝑀𝑥 = 𝑁𝑥 + 𝑏

La méthode itérative associée à l’égalité précédente consiste, à partir d’un vecteur


initial 𝑋 (0) à générer la suite 𝑋 (1) , 𝑋 (2) , … , 𝑋 (𝑘+1) de la manière suivante :

𝑋 (1) = 𝑀−1 𝑁𝑋 (0) + 𝑀−1 𝑏

𝑋 (2) = 𝑀−1 𝑁𝑋 (1) + 𝑀−1 𝑏

……………………………

𝑋 (𝑘+1) = 𝑀−1 𝑁𝑋 (𝑘) + 𝑀−1 𝑏

Cette suite d’égalités peut être représentée par la relation itérative suivante :

𝑋 (𝑘+1) = 𝑇𝑋 (𝑘) + 𝑉 𝑘 = 0, 1, 2, …

Où : 𝑇 = 𝑀−1 𝑁 et 𝑉 = 𝑀−1 𝑏

La matrice d’itération T et le vecteur V sont indépendants de k.

La question que l’on se pose à propos de la méthode itérative de résolution de 𝐴𝑥 = 𝑏 par :

34
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

𝑋 (𝑘+1) = 𝑇𝑋 (𝑘) + 𝑉 est celle de la convergence. En d’autres termes 𝑋 (𝑘+1) converge-t-il


vers le vecteur solution de 𝐴𝑥 = 𝑏 ?

Pour répondre à cette question, définissons le vecteur d’erreur :

𝑒 (𝑘) = 𝑋 (𝑘) − 𝑋 ∗

associé à la kième itération.

Puisque 𝑋 ∗ vérifie :

𝑋 ∗ = 𝑇𝑋 ∗ + 𝑉

Et

𝑋 (𝑘) = 𝑇𝑋 (𝑘−1) + 𝑉

En soustrayant les deux équations précédentes, on obtient :

𝑒 (𝑘) = 𝑇𝑒 (𝑘−1)

En effet : 𝑒 (1) = 𝑇𝑒 (0) ; 𝑒 (2) = 𝑇𝑒 (1) = 𝑇 2 𝑒 (0) ; 𝑒 (3) = 𝑇 3 𝑒 (0) …

Enfin : 𝑒 (𝑘) = 𝑇𝑒 (𝑘−1) = 𝑇 𝑘 𝑒 (0)

La convergence de ce processus est assurée si, quelque soit 𝑒 (0) (donc quelque soit 𝑋 (0) ),
on a : lim 𝑒 (𝑘) = 0 ou lim 𝑇 𝑘 𝑒 (0) = 0
𝑘→∞ 𝑘→∞

Ce qui revient à dire que : lim 𝑇 𝑘 = 0.


𝑘→∞

III.4.2.1 Théorème :

La suite définie par 𝑋 (0) ∈ 𝑅 𝑛 et 𝑋 (𝑘+1) = 𝑇𝑋 (𝑘) + 𝑉 converge vers 𝑋 ∗ =


(𝐼 − 𝑇)−1 𝑉 quelque soit 𝑋 (0) si et seulement si 𝜌(𝑇) < 1.

Comme on a d’une manière générale : 𝜌(𝐴) ≤ ‖𝐴‖, une condition suffisante de


convergence du système est telle que ‖𝐴‖ < 1.

III.4.2.2 Décomposition de la matrice A

Il faut choisir une matrice T qui assure la convergence et telle que 𝑇𝑋 + 𝑉 ne soit
pas très chère à calculer. Nous allons donc chercher des décompositions de la forme 𝑀 −

35
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

𝑁 de la matrice A de telle façon que M soit facilement inversible et vérifie 𝜌(𝑀−1 𝑁) < 1
(ou ‖𝑀−1 𝑁‖ < 1 : condition suffisante).

Définissons les matrices D, L, U telles que :

D est une matrice diagonale : 𝑑𝑖𝑖 = 𝑎𝑖𝑖 ∀𝑖

𝑙𝑖𝑗 = −𝑎𝑖𝑗 ; 𝑖 > 𝑗


L est une matrice inférieure : {
𝑙𝑖𝑗 = 0 ;𝑖 ≤ 𝑗

𝑢𝑖𝑗 = −𝑎𝑖𝑗 ; 𝑖 < 𝑗


U est une matrice supérieure : {
𝑢𝑖𝑗 = 0 ;𝑖 ≥ 𝑗

A partir de cela, on a la relation : 𝐴 = 𝐷 − 𝐿 − 𝑈

Qui correspond aux trois types de décompositions suivantes :

Méthode de Jacobi

𝐴 = 𝑀 − 𝑁 où 𝑀 = 𝐷 et N = L + U

Dans ce cas la matrice T sera : 𝑇𝐽 = 𝐷−1 (𝐿 + 𝑈)

Méthode de Gauss-Seidel

𝐴 = 𝑀 − 𝑁 où 𝑀 = 𝐷 − 𝐿 et N = U

Dans ce cas la matrice T sera : 𝑇𝐺𝑆 = (𝐷 − 𝐿)−1 𝑈

Méthode de relaxation

𝐷 1−ω
𝐴 = 𝑀 − 𝑁 où 𝑀 = − 𝐿 et N = D+U
𝜔 ω
𝐷 1−ω
Dans ce cas la matrice T sera : 𝑇𝜔 = (𝜔 − 𝐿)−1 ( D + U)
ω

III.4.3 Méthode de Jacobi

III.4.3.1 Principe

La matrice A étant décomposée en : 𝐴 = 𝑀 − 𝑁 = 𝐷 − (𝐿 + 𝑈)

Le système 𝐴𝑥 = 𝑏 devient : 𝐷𝑋 = (𝐿 + 𝑈)𝑋 + 𝑏

La méthode itérative de Jacobi s’écrit alors :

𝐷𝑋 (𝑘+1) = (𝐿 + 𝑈)𝑋 (𝑘) + 𝑏

36
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

Soit :

𝑋 (𝑘+1) = 𝐷−1 (𝐿 + 𝑈)𝑋 (𝑘) + 𝐷 −1 𝑏

Qui peut s’écrire sous forme développée :


(𝑘+1) (𝑘) (𝑘) (𝑘)
𝑥1 = (𝑏1 − 𝑎12 𝑥2 − 𝑎13 𝑥3 − ⋯ − 𝑎1𝑛 𝑥𝑛 )/𝑎11

(𝑘+1) (𝑘) (𝑘) (𝑘)


𝑥2 = (𝑏2 − 𝑎21 𝑥1 − 𝑎23 𝑥3 − ⋯ − 𝑎2𝑛 𝑥𝑛 )/𝑎22

…………………………………………………………..
(𝑘+1) (𝑘) (𝑘) (𝑘)
𝑥𝑛 = (𝑏𝑛 − 𝑎𝑛1 𝑥1 − 𝑎𝑛2 𝑥2 − ⋯ − 𝑎𝑛𝑛−1 𝑥𝑛−1 )/𝑎𝑛𝑛

Cette méthode suppose des pivots 𝑎𝑖𝑖 non nuls. Dans le cas où un pivot est nul, un
simple échange des lignes suffit pour vérifier cette condition.

III.4.3.2 Test d’arrêt

On note le vecteur résidu : 𝑟 (𝑘) = 𝑏 − 𝐴𝑋 (𝑘)


(𝑘) (𝑘)
Ou encore : 𝑟𝑖 = 𝑏𝑖 − ∑𝑛𝑗=1 𝑎𝑖𝑗 𝑥𝑗

Il existe plusieurs tests d’arrêt parmi lesquels on peut prendre :

‖𝑟 (𝑘) ‖
1- ‖𝑏‖
<𝜀
‖𝑋 (𝑘) −𝑋 (𝑘−1) ‖
2- ‖𝑋 (𝑘) ‖
<𝜀
3- ‖𝑋 (𝑘) − 𝑋 (𝑘−1) ‖ < 𝜀

III.4.3.3 Algorithme de Jacobi

Données : 𝑏, 𝐴, 𝑋 (0) , 𝜀

Début
k=0
‖𝑟 (𝑘) ‖
Tant que ‖𝑏‖
≥ 𝜀 faire
Pour i=1 à n faire
(𝑘) (𝑘)
𝑟𝑖 = 𝑏𝑖 − ∑𝑛𝑗=1 𝑎𝑖𝑗 𝑥𝑗
(𝑘+1) (𝑘) (𝑘)
𝑥𝑖 = (𝑥𝑖 + 𝑟𝑖 )/𝑎𝑖𝑖
Fin pour

37
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

k=k+1
Fin tant que
Fin

III.4.3.4 Conditions de convergence

L’itération de Jacobi s’écrit :

𝑋 (𝑘+1) = 𝐷−1 (𝐿 + 𝑈)𝑋 (𝑘) + 𝐷 −1 𝑏

Soit :
𝑋 (𝑘+1) = 𝑇𝐽 𝑋 (𝑘) + 𝑉

Pour assurer la convergence, on doit avoir 𝜌(𝑇𝐽 ) < 1, comme le calcul de 𝜌(𝑇𝐽 ) est
très souvent compliqué, on se contente de la condition suffisante, à savoir ‖𝑇𝐽 ‖ < 1. Ce
qui se traduit par : ∑𝑛𝑗=1|𝑡𝑖𝑗 | < 1 ∀𝑖

Puisqu’on a : 𝑇𝐽 = 𝐷−1 (𝐿 + 𝑈), on peut écrire : ∑𝑛𝑗=1|𝑙𝑖𝑗 + 𝑢𝑖𝑗 | < |𝑑𝑖𝑖 | ∀𝑖

En revenant au système initial :


𝑛

∑|𝑎𝑖𝑗 | < |𝑎𝑖𝑖 | ∀𝑖 = ̅̅̅̅̅


1, 𝑛
𝑗=1
𝑗≠𝑖

III.4.3.4.a Théorème

Une condition suffisante pour que TJ converge est que la matrice A du système
𝐴𝑥 = 𝑏 soit à diagonale fortement dominante.

Note : Le processus itératif convergent jouit de la propriété importante d’autocorrection,


qui fait qu’une erreur de calcul isolée n’entache pas le résultat final. Une approximation
erronée peut être considérée comme un nouveau vecteur initial.

III.4.3.5 Exemple :

Résoudre le système suivant par la méthode itérative de Jacobi avec 3 décimales exactes.

4𝑥1 + 0.24𝑥2 − 0.08𝑥3 = 8


{ 0.09𝑥1 + 3𝑥2 − 0.15𝑥3 = 9
0.04𝑥1 − 0.08𝑥2 + 4𝑥3 = 20

38
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

III.4.3.5.a Solution

Vérifions d’abord la convergence. La matrice est à diagonale fortement dominante


puisque :

𝑎11 = 4 > 0.24 + |−0.08| = 0.32

𝑎22 = 3 > 0.09 + |−0.15| = 0.24

𝑎33 = 4 > 0.04 + |−0.08| = 0.12

Ainsi, le processus itératif de Jacobi est convergent.

Mettons le système sous la forme réduite :

𝑥1 = 2 − 0.06𝑥2 − 0.02𝑥3
{𝑥2 = 3 − 0.03𝑥1 + 0.05𝑥3
𝑥3 = 5 − 0.01𝑥1 + 0.02𝑥2

On peut choisir 𝑋 (0) = (2, 3, 5)𝑡

En remplaçant ces valeurs dans le système réduit, on obtient :


(1)
𝑥1 = 2 − 0.06 × 3 − 0.02 × 5 = 1.92
{𝑥2(1) = 3 − 0.03 × 2 + 0.05 × 5 = 3.19
(1)
𝑥3 = 5 − 0.01 × 2 + 0.02 × 3 = 5.04

En appliquant une deuxième itération, on obtient : 𝑋 (2) = (1.9094, 3.1944, 5.0446)𝑡


Pour la troisième itération, on trouve : 𝑋 (3) = (1.9092, 3.19495, 5.0448)𝑡
(3) (2)
En prenant 𝑒 = 0.5 × 10−3 : |𝑥1 − 𝑥1 | = 0.0002 < 0.5 × 10−3

(3) (2)
|𝑥2 − 𝑥2 | = 0.0005 = 0.5 × 10−3

(3) (2)
|𝑥3 − 𝑥3 | = 0.0002 < 0.5 × 10−3

La solution donnée avec trois décimales exactes est :

𝑥1 = 1.909 ∓ 0.001, 𝑥2 = 3.195 ∓ 0.001, 𝑥3 = 5.045 ∓ 0.001

III.4.4 Méthode de Gauss-Seidel

III.4.4.1 Principe

La matrice A étant décomposée en : 𝐴 = 𝑀 − 𝑁 = (𝐷 − 𝐿) − 𝑈

39
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

Dans la méthode itérative de Gauss-Seidel, on réécrit la formule d’itération de la manière


suivante :

𝑋 (𝑘+1) = (𝐷 − 𝐿)−1 𝑈𝑋 (𝑘) + (𝐷 − 𝐿)−1 𝑏

Puisque l’inversion de la matrice (D-L) peut être difficile à calculer, on préfère écrire le
système sous la forme :

(𝐷 − 𝐿)𝑋 (𝑘+1) = 𝑈𝑋 (𝑘) + 𝑏

Qui devient : 𝐷𝑋 (𝑘+1) = 𝐿𝑋 (𝑘+1) + 𝑈𝑋 (𝑘) + 𝑏

Et finalement : 𝑋 (𝑘+1) = 𝐷−1 𝐿𝑋 (𝑘+1) + 𝐷−1 𝑈𝑋 (𝑘) + 𝐷−1 𝑏

Le développement de cette récurrence vectorielle donne :


(𝑘+1) (𝑘) (𝑘) (𝑘)
𝑥1 = (𝑏1 − 𝑎12 𝑥2 − 𝑎13 𝑥3 − ⋯ − 𝑎1𝑛 𝑥𝑛 )/𝑎11

(𝑘+1) (𝑘+1) (𝑘) (𝑘)


𝑥2 = (𝑏2 − 𝑎21 𝑥1 − 𝑎23 𝑥3 − ⋯ − 𝑎2𝑛 𝑥𝑛 )/𝑎22

…………………………………………………………..
(𝑘+1) (𝑘+1) (𝑘+1) (𝑘+1)
𝑥𝑛 = (𝑏𝑛 − 𝑎𝑛1 𝑥1 − 𝑎𝑛2 𝑥2 − ⋯ − 𝑎𝑛𝑛−1 𝑥𝑛−1 )/𝑎𝑛𝑛

On constate que la différence entre cette méthode et celle de Jacobi est l’utilisation
immédiate des nouveaux estimés 𝑋 (𝑘+1) à l’itération (k+1).

La condition d’avoir des pivots non nuls reste nécessaire aussi pour la méthode de Gauss-
Seidel.

III.4.4.2 Algorithme de Gauss-Seidel

Données : 𝑏, 𝐴, 𝑋 (0) , 𝜀

Début
k=0
(𝑘+1) (𝑘)
Tant que |𝑥𝑖 − 𝑥𝑖 | > 𝜀 faire
Pour i=1 à n faire
(𝑘+1) (𝑘+1) (𝑘)
𝑥𝑖 = [𝑏𝑖 − ∑𝑖−1
𝑗=1 𝑎𝑖𝑗 𝑥𝑗 − ∑𝑛𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗 ]/
𝑎𝑖𝑖
Fin pour

40
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

k=k+1
Fin tant que
Fin

III.4.4.3 Convergence de la méthode de Gauss-Seidel

La matrice d’itération de Gauss-Seidel est définie par : 𝑇𝐺 𝑆 = (𝐷 − 𝐿)−1 𝑈

Le vecteur V est défini par : 𝑉𝐺 𝑆 = (𝐷 − 𝐿)−1 𝑏

Une condition suffisante pour la convergence de la méthode de Gauss-Seidel est


que la matrice A soit une matrice à diagonale fortement dominante :
𝑛

∑|𝑎𝑖𝑗 | < |𝑎𝑖𝑖 | ∀𝑖 = ̅̅̅̅̅


1, 𝑛
𝑗=1
𝑗≠𝑖

Remarques

❖ La méthode de Gauss-Seidel est plus rapide en convergence que la méthode de


Jacobi. En effet, on utilise dans la même itération les valeurs déjà estimées. Dans
un certain sens, le (k+1) ième itéré est plus proche de la limite pour la méthode de
Gauss-Seidel que pour la méthode de Jacobi.
❖ La permutation des lignes dans le système initial peut facilement conduire à une
divergence. Une deuxième vérification paraît nécessaire pour conclure de la
convergence du système.
❖ Pour la méthode de Gauss-Seidel, un seul vecteur suffit pour enregistrer les valeurs
des itérés successifs. Une fois un itéré de l’itération précédente est utilisé dans le
calcul, il n’est pas nécessaire de le garder pour la prochaine itération. Ceci implique
un gain dans l’espace de stockage.

III.4.4.4 Exemple

Résoudre le système suivant par la méthode itérative de Gauss-Seidel avec 4 décimales


exactes.

10𝑥1 + 𝑥2 + 𝑥3 = 12
{ 2𝑥1 + 10𝑥2 + 𝑥3 = 13
2𝑥1 + 2𝑥2 + 10𝑥3 = 14

En prenant : 𝑋 (0) = (1.2, 0, 0)𝑡

41
Chapitre III. Résolution de 𝐴𝑥 = 𝑏

III.4.4.4.a Solution

Vérifions d’abord la convergence. La matrice est à diagonale fortement dominante


puisque :

𝑎11 = 10 > 1 + 1 = 2

𝑎22 = 10 > 2 + 1 = 3

𝑎33 = 10 > 2 + 2 = 4

Ainsi, le processus itératif de Gauss-Seidel est convergent.

Mettons le système sous la forme réduite :

𝑥1 = 1.2 − 0.1𝑥2 − 0.1𝑥3


{𝑥2 = 1.3 − 0.2𝑥1 − 0.1𝑥3
𝑥3 = 1.4 − 0.2𝑥1 − 0.2𝑥2

L’approximation initiale est : 𝑋 (0) = (1.2, 0, 0)𝑡

En remplaçant dans le processus itératif :


(1)
𝑥1 = 1.2 − 0.1 × 0 − 0.1 × 0 = 1.20
{ 𝑥2(1) = 1.3 − 0.2 × 1.2 − 0.1 × 0 = 1.06
(1)
𝑥3 = 1.4 − 0.2 × 1.2 − 0.2 × 1.06 = 0.948

Pour la deuxième itération, on obtient :


(2)
𝑥1 = 1.2 − 0.1 × 0.06 − 0.1 × 0.948 = 0.9992
{𝑥2(2) = 1.3 − 0.2 × 0.9992 − 0.1 × 0.948 = 1.00536
(2)
𝑥3 = 1.4 − 0.2 × 0.9992 − 0.2 × 1.00536 = 0.999098

Pour les autres itérations, on a :

𝑋 (3) = (0.9996, 1.0002, 1.0001)𝑡

𝑋 (4) = (1.0000, 1.0000, 1.0000)𝑡

𝑋 (5) = (1.0000, 1.0000, 1.0000)𝑡

Ainsi, la solution approchée du système est :

𝑥1 = 1.0000 ∓ 0.0001, 𝑥2 = 1.0000 ∓ 0.0001 𝑒𝑡 𝑥3 = 1.0000 ∓ 0.0001

Remarque : la solution exacte est : (1, 1, 1)𝑡

42
Interpolation polynômiale
Chapitre IV. Interpolation polynômiale

IV.1 Introduction

En analyse numérique (et dans son application algorithmique discrète pour le calcul
numérique), l'interpolation est une opération mathématique permettant de construire une
courbe à partir de la donnée d'un nombre fini de points, ou une fonction à partir de la donnée
d'un nombre fini de valeurs. La solution du problème d'interpolation passe par les points
prescrits, et, suivant le type d'interpolation, il lui est demandé de vérifier des propriétés
supplémentaires.

Ainsi le type le plus simple d'interpolation est l'interpolation linéaire, qui consiste à
« joindre les points » donnés. À partir d'une table trigonométrique, elle peut servir à estimer
les valeurs situées entre les données de la table.

L'interpolation doit être distinguée de l'approximation de fonction, qui consiste à


chercher la fonction la plus proche possible, selon certains critères, d'une fonction donnée.
Dans le cas de l'approximation, il n'est en général plus imposé de passer exactement par les
points donnés initialement.

IV.1.1 Pourquoi vouloir interpoler des données ?


Les données sont les résultats de mesures expérimentales et l’expression exacte de
f n’est pas connue.
f est connue d’avance mais trop compliquée à manipuler.
L’expression de la fonction f n’est pas connue mais seulement en certains points (xi
, f(xi )) pour i = 0, 1, 2, . . . , n.
Evaluer f(x) pour des valeurs de x différentes des xi.
Le calcul de f peut être très coûteux, donc on ne veut pas évaluer f trop souvent.
Particulièrement utile pour la dérivation et l’intégration numérique.
Chapitre IV. Interpolation polynômiale

IV.2 Cas général

IV.2.1 Polynôme d’interpolation de Lagrange

Étant donné une suite de (𝑛 + 1) points {(𝑥0 , 𝑦0 ), (𝑥1 , 𝑦1 ), … , (𝑥𝑛 , 𝑦𝑛 )} . Les


(𝑥𝑖 ) 0≤𝑖≤𝑛 sont appelés points d’interpolation. Les (𝑦𝑖 ) 0≤𝑖≤𝑛 représentent les
valeurs d’interpolation. Pour interpoler une fonction f, on définit ces valeurs
d’interpolation comme suit :

𝑦𝑖 = 𝑓(𝑥𝑖 ), ∀𝑖 = 0, … , 𝑛

Le problème est alors de déterminer l’unique polynôme de degré n, Pn qui satisfait :

𝑃𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ), ∀𝑖 = 0, … , 𝑛

Exemple avec 4 points :

Calculer le polynôme passant par les points (0,1) (1,2) (2,9) (3,28) .
x0 = 0  f(x0) = 1
x1 = 1  f(x1) = 2
x2 = 2  f(x2) = 9
x3 = 3  f(x3) = 28
Etant donnés quatre points le polynôme recherché est tout au plus de degré 3.
a0 + a1.0 + a2.02 + a3.03 = 1
a0 + a1.1 + a2.12 + a3.013 = 2
a0 + a1.2 + a2.22 + a3.23 = 9
a0 + a1.3 + a2.32 + a3.33 = 28
On présente ce système sous forme matricielle
1 0 0 0  a 0   1 
1 1 1 1   a1   2 
  x    
1 2 4 8  a 2   9 
     
1 3 9 27  a 3  28
La matrice correspondant à ce système est appelée matrice de Vandermonde.
On va appliquer la méthode de Gauss pour résoudre ce système.
1 0 0 0   1 
1 1 1 1   2 
  
1 2 4 8   9 
  
1 3 9 27 28
Le but est de transformer la matrice à gauche en matrice unitaire. On fait la soustraction
(ligne 2 - ligne 1) , (ligne 3 - ligne 1) , (ligne 3 - ligne 1)

44
Chapitre IV. Interpolation polynômiale

1 0 0 0   1  1 0 0 0   1 
0 1 1 1   1  0 1 1 1   1 
       
0 2 4 8   8  Puis (ligne 3) - (ligne 2).2 0 0 2 6   6 
       
1 3 9 27 27 0 0 6 24 28
On divise ligne 3 par (2) et ligne 4 par (4).
1 0 0 0 1
0 1 1 1  1 
  ² 
0 0 1 3 3 Maintenant : (ligne 2 - ligne 3) , (ligne 4 - ligne 3)
   
0 0 1 4   4 
1 0 0 0   1  1 0 0 0 1
0 1 0  2  2 0 1 0 0  0 
      
0 0 1 3   3   0 0 1 0  0 
      
0 0 0 1   1  0 0 0 1 1
Dernière opération: (ligne 3 - ligne 4.(3)) , (ligne 2 + ligne 4.(2)). La prernière matrice
donne:
a0 = 1 , a1 = 0 , a3 = 0 , a4 = 1
Le polynôme est : P3(x) = 1 + x3 Avec ce polynôme de Lagrange on peut évaluer la
valeur de la fonction f(x) en dehors des points de collocations:
x0 = 0  f(x0) = 1
x1 = 1  f(x1) = 2
x2 = 2  f(x2) = 9
x3 = 3  f(x3) = 28

Remarques
Si les abscisses sont distinctes (ce qui est notre cas) alors la matrice de
Vandermonde est inversible. Ce qui démontre l’existence d’un interpolant quel
que soit l’ensemble de points de collocation d’abscisses distinctes.
On peut montrer que le conditionnement de la matrice de Vandermonde est
mauvais, en fait le système devient numériquement singulier pour n assez grand (à
cause des 𝑥𝑖𝑛 ).
L’ajout ou le retrait d’un point de collocation illustre le peu de flexibilité de la
méthode.
Conclusion : comme pour la méthode de Cramer pour la résolution d’un système linéaire
ou la règle de Sarrus pour les déterminants, l’utilisation du système de Vandermonde est
à éviter.

45
Chapitre IV. Interpolation polynômiale

Le polynôme qui satisfait cette égalité 𝑃𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ), ∀𝑖 = 0, … , 𝑛 est le polynôme


d’interpolation de Lagrange :

𝑃𝑛 (𝑥) = ∑𝑛𝑘=0 𝑙𝑘 (𝑥)𝑓(𝑥𝑘 )

Où les 𝑙𝑘 sont des polynômes de degré n qui forment une base de .


𝑛
𝑥 − 𝑥𝑖 𝑥 − 𝑥0 𝑥 − 𝑥𝑘−1 𝑥 − 𝑥𝑘+1 𝑥 − 𝑥𝑛
𝑙𝑘 (𝑥) = ∏ = … …
𝑥𝑘 − 𝑥𝑖 𝑥𝑘 − 𝑥0 𝑥𝑘 − 𝑥𝑘−1 𝑥𝑘 − 𝑥𝑘+1 𝑥𝑘 − 𝑥𝑛
𝑖=0
𝑖≠𝑘

IV.2.2 Propriétés du polynôme d’interpolation de Lagrange et de la base de


Lagrange

Les polynômes 𝑙𝑘 vérifient la propriété suivante :

1 𝑖=𝑘
𝑙𝑘 (𝑥𝑖 ) = 𝛿𝑘𝑖 = { , ∀𝑖 = 0, … , 𝑛
0 𝑖≠𝑘

Ils forment une base de l’espace Pn des polynômes de degré au plus n.


𝑛

∑ 𝛼𝑘 𝑙𝑘 (𝑥) = 0
𝑘=0

En fixant 𝑥 = 𝑥𝑖 , on obtient :
𝑛 𝑛

∑ 𝛼𝑘 𝑙𝑘 (𝑥) = ∑ 𝛼𝑘 𝛿𝑘𝑖 = 0 𝛼𝑘 = 0
𝑘=0 𝑘=0

La famille (𝑙𝑘 )0≤𝑘≤𝑛 est libre. Étant maximale, c’est une base de Pn.
Enfin on voit clairement que :
𝑛 𝑛

𝑃𝑛 (𝑥𝑖 ) = ∑ 𝑙𝑘 (𝑥𝑖 )𝑓(𝑥𝑘 ) = ∑ 𝛿𝑘𝑖 𝑓(𝑥𝑘 ) = 𝑓(𝑥𝑖 )


𝑘=0 𝑘=0

IV.2.3 Existence et unicité du polynôme d’interpolation de Lagrange

Existence. La preuve de l’existence est au-dessus, elle correspond exactement à la


construction du polynôme d’interpolation de Lagrange relativement à la base (𝑙𝑘 )0≤𝑘≤𝑛 de
Pn.

46
Chapitre IV. Interpolation polynômiale

Unicité. Considérons deux éléments Pn et Qn de Pn qui vérifient

𝑃𝑛 (𝑥𝑖 ) = 𝑄𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ), ∀𝑖 = 0, … , 𝑛

Soit 𝑅𝑛 = (𝑃𝑛 − 𝑄𝑛 ) ∈ Pn. Le polynôme 𝑅𝑛 admet (n+1) racines qui sont exactement les
(𝑥𝑖 )0≤𝑖≤𝑛 puisque :

𝑅𝑛 (𝑥𝑖 ) = 𝑃𝑛 (𝑥𝑖 ) − 𝑄𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ) − 𝑓(𝑥𝑖 ) = 0, ∀𝑖 = 0, … , 𝑛

𝑅𝑛 admet donc (n+1) racines et Rn ∈ Pn, donc :

𝑅𝑛 = 0  𝑅𝑛 = 𝑄𝑛

On a donc démontré l’existence et l’unicité du polynôme d’interpolation de Lagrange.

IV.2.4 Formule d’interpolation de Lagrange

Soit 𝑦 = 𝑓(𝑥) une fonction dont on connait les valeurs 𝑦𝑖 qu’elle prend aux (n+1) points
distincts 𝑥𝑖 ; 𝑖 = 0, 1, 2, … , 𝑛.

Le polynôme d’interpolation de Lagrange s’écrit dans ce cas :


𝑛

𝑃𝑛 (𝑥 ) = ∑ 𝑦𝑖 𝑙𝑖 (𝑥)
𝑖=0

Avec :
𝑛
(𝑥 − 𝑥𝑗 )
𝑙𝑖 (𝑥) = ∏ ; 𝑖 = 0…𝑛
𝑗=0
(𝑥𝑖 − 𝑥𝑗 )
𝑗≠𝑖

IV.2.5 Exemple

Étant donné 3 points d’appui {(0, 1), (2, 5), (4, 17)} .

On veut déterminer le polynôme d’interpolation de Lagrange de degré 2 passant par


ces trois points.

Solution

47
Chapitre IV. Interpolation polynômiale

𝑃2 (𝑥) = ∑ 𝑦𝑖 𝑙𝑖 (𝑥)
𝑖=0

Et
2
(𝑥 − 𝑥𝑗 )
𝑙𝑖 (𝑥) = ∏ ; 𝑖 = 0…2
𝑗=0
(𝑥𝑖 − 𝑥𝑗 )
𝑗≠𝑖

Calculons 𝑙0 , 𝑙1 𝑒𝑡 𝑙2 :

(𝑥 − 𝑥1 )(𝑥 − 𝑥2 ) (𝑥 − 2)(𝑥 − 4) 𝑥 2 − 6𝑥 + 8
𝑙0 (𝑥) = = =
(𝑥0 − 𝑥1 )(𝑥0 − 𝑥2 ) (0 − 2)(0 − 4) 8

(𝑥 − 𝑥0 )(𝑥 − 𝑥2 ) (𝑥 − 0)(𝑥 − 4) 𝑥 2 − 4𝑥
𝑙1 (𝑥) = = =
(𝑥1 − 𝑥0 )(𝑥1 − 𝑥2 ) (2 − 0)(2 − 4) −4

(𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) (𝑥 − 0)(𝑥 − 2) 𝑥 2 − 2𝑥
𝑙2 (𝑥) = = =
(𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 ) (4 − 0)(4 − 2) 8

On a donc :

𝑃2 (𝑥) = 𝑙0 (𝑥) + 5𝑙1 (𝑥) + 17𝑙2 (𝑥)

= 1 + 𝑥2

On a par exemple 𝑓(3) ≈ 𝑃2 (3) = 10

IV.2.6 Erreur d’interpolation de Lagrange

Dans la pratique, l’interpolation polynômiale sert à remplacer la fonction f par un

polynôme. Le polynôme 𝑃𝑛 (𝑥) est donc une approximation de la fonction f. Il est donc

important d’étudier l’erreur de l’approximation.

IV.2.6.1 Théorème :

Soit [𝑎, 𝑏] un intervalle contenant 𝑥0 , 𝑥1 , … , 𝑥𝑛 . On suppose que la fonction f est

(n+1) fois dérivable sur [𝑎, 𝑏]. Alors, pour tout 𝑥 ∈ [𝑎, 𝑏], il existe  ∈ [𝑎, 𝑏] tel que :

48
Chapitre IV. Interpolation polynômiale

𝑛
𝑓 (𝑛+1) ()
𝑓(𝑥) − 𝑃𝑛 (𝑥) = ∏(𝑥 − 𝑥𝑖 )
(𝑛 + 1)!
𝑖=0

𝑓 (𝑛+1) est la dérivée d’ordre (n+1) de la fonction f.

Remarque

La formule précédente ne permet pas de calculer la valeur exacte de l’erreur puisque

 est en général inconnu. Cependant, on peut calculer une majoration de l’erreur.

𝑛
𝑀𝑛+1
|𝑓(𝑥) − 𝑃𝑛 (𝑥)| = |∏(𝑥 − 𝑥𝑖 )|
(𝑛 + 1)!
𝑖=0

Avec :

𝑀𝑛+1 = max |𝑓 (𝑛+1) (𝑥)|


𝑥∈[𝑎,𝑏]

IV.3 Algorithme de Neville


L'algorithme de Neville est une méthode récursive du calcul de la valeur du
polynôme d'interpolation en un point donné, avec lequel il est aisé d'ajouter des points
d'interpolation au fur et à mesure. Il est moins adapté pour fournir une expression du
polynôme d'interpolation.

Soit un jeu de n+1 points donnés (xi, yi) où tous les xi sont distincts, et le polynôme
d'interpolation P de degré au plus n vérifiant: P(xi) = yi pour tout i = 0,…,n

Ce polynôme existe et est unique. L'algorithme de Neville évalue ce polynôme pour


le point d'abscisse x.

49
Chapitre IV. Interpolation polynômiale

Soit 𝑃𝑖,𝑗 le polynôme de degré j qui passe par les points (xk, yk) pour k = i, i + 1, …,
i+j. Les 𝑃𝑖,𝑗 satisfont à la relation de récurrence

𝑃𝑖,0 (𝑥 ) = 𝑦𝑖
{ (𝑥 − 𝑥𝑖 )𝑃𝑖+1,𝑗 (𝑥 ) − (𝑥 − 𝑥𝑖+𝑗+1 )𝑃𝑖,𝑗 (𝑥 )
𝑃𝑖,𝑗+1 (𝑥 ) =
𝑥𝑖+𝑗+1 − 𝑥𝑖

Cette relation de récurrence permet de calculer P0,n(x), qui est la valeur cherchée.
C'est l'algorithme de Neville.

Par exemple, pour n = 4, on peut utiliser la relation de récurrence pour remplir le


tableau triangulaire ci-dessous, de gauche à droite.

On obtient ainsi P0,4(x), la valeur du polynôme passant par n + 1 points (xi, yi) à
l'abscisse x.

Cet algorithme nécessite O(n2) opérations en virgule flottante.

IV.3.1 Exemple

Soit l’ensemble des points {(0.1, -1.6228), (0.2, -0.8218), (0.3, -0.3027), (0.4,

0.1048), (0.5, 0.4542)}. On veut appliquer l’algorithme de Neville pour trouver la valeur

50
Chapitre IV. Interpolation polynômiale

d’interpolation au point 𝑥 = 0.15.

0.1 -1.6228
-1.22230
0.2 -0.8218 -1.18706
-1.08135 -1.17642
0.3 -0.3027 -1.12320 -1.17186
-0.91395 -1.13992
0.4 0.1048 -1.02289
-0.76870
0.5 0.4542

51
Chapitre IV. Interpolation polynômiale

IV.3.2 Algorithme de Neville

Pour i=1 à n faire


M(i,0)=yi(i)
Fin Pour
Pour i=1 à n faire
Pour j=1 à i faire
(𝑥 − 𝑥𝑖(𝑖 − 𝑗))𝑀(𝑖, 𝑗 − 1) − (𝑥 − 𝑥𝑖(𝑖))𝑀(𝑖 − 1, 𝑗 − 1)
𝑀(𝑖, 𝑗) =
𝑥𝑖(𝑖) − 𝑥𝑖(𝑖 − 𝑗)
Fin Pour
Fin Pour
Resultat=M(n,n)

IV.4 Interpolation de Newton

IV.4.1 Inconvénients de l’interpolation de Lagrange

❖ Elle nécessite un grand nombre d’opérations.


❖ Si on ajoute d’autres points d’interpolation, on doit refaire tous les calculs.
❖ L’estimation de l’erreur est difficile.

De tels polynômes ne sont pas pratiques puisque du point de vue numérique, il est
difficile de déduire 𝑙𝑘+1 de 𝑙𝑘 . Pour cela, on introduit le polynôme d’interpolation de
Newton.

IV.4.2 Propriétés du polynôme d’interpolation de Newton et de la base de


Newton

Les polynômes 𝑒𝑘 de la base de Newton sont définis comme suit :

𝑘−1

𝑒𝑘 (𝑥) = ∏(𝑥 − 𝑥𝑖 ) = (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑘−1 ) ; 𝑘 = 1, … , 𝑛


𝑖=0

Avec pour convention

𝑒0 = 1

52
Chapitre IV. Interpolation polynômiale

En outre

𝑒1 = (𝑥 − 𝑥0 )
𝑒2 = (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )
𝑒3 = (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )

𝑒𝑛 = (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛−1 )

L’ensemble des polynômes (𝑒𝑘 )0≤𝑘≤𝑛 (base de Newton) forment une base de l’espace
Pn des polynômes de degré au plus n, puisqu’il s’agit d’une famille de (n+1) polynômes de
degré échelonné.

Le polynôme d’interpolation de Newton de degré n relatif à la subdivision


{(𝑥0 , 𝑦0 ), (𝑥1 , 𝑦1 ), … , (𝑥𝑛 , 𝑦𝑛 )} s’écrit :
𝑛

𝑃𝑛 (𝑥) = ∑ 𝛼𝑘 𝑒𝑘 (𝑥)
𝑘=0

= 𝛼0 + 𝛼1 (𝑥 − 𝑥0 ) + 𝛼2 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) +
… + 𝛼𝑛 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛−1 )

Avec

𝑃𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ), ∀𝑖 = 0, 1, … , 𝑛

Il faut alors déterminer les coefficients (𝛼𝑘 )0≤𝑘≤𝑛 . C’est l’objet de la prochaine
partie intitulée les différences divisées.

IV.4.3 Différences divisées

Le polynôme d’interpolation de Newton de degré 𝑛, 𝑃𝑛 (𝑥) évalué en 𝑥0 donne :

𝑃𝑛 (𝑥0 ) = ∑ 𝛼𝑘 𝑒𝑘 (𝑥0 ) = 𝛼0 = 𝑓(𝑥0 ) = 𝑓[𝑥0 ]


𝑘=0

De manière générale, on note

53
Chapitre IV. Interpolation polynômiale

𝑓[𝑥𝑖 ] = 𝑓(𝑥𝑖 ), ∀𝑖 = 0, 1, … , 𝑛

𝑓[𝑥𝑖 ] est appelée différence divisée d’ordre 0.

Le polynôme d’interpolation de Newton de degré n, 𝑃𝑛 (𝑥) évalué en 𝑥1 donne :

𝑃𝑛 (𝑥1 ) = ∑ 𝛼𝑘 𝑒𝑘 (𝑥1 )
𝑘=0

= 𝛼0 + 𝛼1 (𝑥1 − 𝑥0 )
= 𝑓[𝑥0 ] + 𝛼1 (𝑥1 − 𝑥0 )
= 𝑓[𝑥1 ]

D’où :

𝑓[𝑥1 ] − 𝑓[𝑥0 ]
𝛼1 = = 𝑓[𝑥0 , 𝑥1 ]
𝑥1 − 𝑥0

𝑓[𝑥0 , 𝑥1 ] est appelée différence divisée d’ordre 1.

Le polynôme d’interpolation de Newton de degré n, 𝑃𝑛 (𝑥) évalué en 𝑥2 donne :

𝑃𝑛 (𝑥2 ) = ∑ 𝛼𝑘 𝑒𝑘 (𝑥2 )
𝑘=0

= 𝛼0 + 𝛼1 (𝑥2 − 𝑥0 ) + 𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 )


= 𝑓[𝑥0 ] + 𝑓[𝑥0 , 𝑥1 ](𝑥2 − 𝑥0 ) + 𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 )
= 𝑓[𝑥2 ]

On a alors :

𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 ) = 𝑓[𝑥2 ] − 𝑓[𝑥0 ] − 𝑓[𝑥0 , 𝑥1 ](𝑥2 − 𝑥0 )


𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 ) = 𝑓[𝑥2 ] − 𝑓[𝑥0 ] − 𝑓[𝑥0 , 𝑥1 ](𝑥2 − 𝑥0 ) − 𝑓[𝑥1 ] + 𝑓[𝑥1 ]
𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 ) = 𝑓[𝑥2 ] − 𝑓[𝑥1 ] + 𝑓[𝑥1 ] − 𝑓[𝑥0 ] − 𝑓[𝑥0 , 𝑥1 ](𝑥2 − 𝑥0 )
𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 ) = 𝑓[𝑥2 ] − 𝑓[𝑥1 ] + (𝑥1 − 𝑥0 )𝑓[𝑥0 , 𝑥1 ] − (𝑥2 − 𝑥0 )𝑓[𝑥0 , 𝑥1 ]
𝛼2 (𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 ) = 𝑓[𝑥2 ] − 𝑓[𝑥1 ] + (𝑥1 − 𝑥2 )𝑓[𝑥0 , 𝑥1 ]
𝑓[𝑥2 ] − 𝑓[𝑥1 ]
𝛼2 (𝑥2 − 𝑥0 ) = − 𝑓[𝑥0 , 𝑥1 ]
𝑥2 − 𝑥1

54
Chapitre IV. Interpolation polynômiale

𝛼2 (𝑥2 − 𝑥0 ) = 𝑓[𝑥1 , 𝑥2 ] − 𝑓[𝑥0 , 𝑥1 ]

D’où :

𝑓[𝑥1 , 𝑥2 ] − 𝑓[𝑥0 , 𝑥1 ]
𝛼2 = = 𝑓[𝑥0 , 𝑥1 , 𝑥2 ]
𝑥2 − 𝑥0

𝑓[𝑥0 , 𝑥1 , 𝑥2 ] est appelée différence divisée d’ordre 2. On obtient alors par récurrence :

𝑓[𝑥1 , … , 𝑥𝑘 ] − 𝑓[𝑥0 , … , 𝑥𝑘−1 ]


𝛼𝑘 = = 𝑓[𝑥0 , … , 𝑥𝑘 ]
𝑥𝑘 − 𝑥0

𝑓[𝑥0 , … , 𝑥𝑘 ] est alors appelée différence divisée d’ordre k. En pratique lorsqu’on veut
déterminer par exemple la différence divisée d’ordre 3 𝑓[𝑥0 , 𝑥1 , 𝑥2 , 𝑥3 ], on a besoins des
quantités suivantes :

𝑥0 𝑓[𝑥0 ]
𝑥1 𝑓[𝑥1 ] 𝑓[𝑥0 , 𝑥1 ]
𝑥2 𝑓[𝑥2 ] 𝑓[𝑥1 , 𝑥2 ] 𝑓[𝑥0 , 𝑥1 , 𝑥2 ]
𝑥3 𝑓[𝑥3 ] 𝑓[𝑥2 , 𝑥3 ] 𝑓[𝑥1 , 𝑥2 , 𝑥3 ] 𝑓[𝑥0 , 𝑥1 , 𝑥2 , 𝑥3 ]

Puisque

𝑓[𝑥1 , 𝑥2 , 𝑥3 ] − 𝑓[𝑥0 , 𝑥1 , 𝑥2 ]
𝑓[𝑥0 , 𝑥1 , 𝑥2 , 𝑥3 ] =
𝑥3 − 𝑥0

D’une façon générale :

𝑓[𝑥𝑖+1 , … , 𝑥𝑗 ] − 𝑓[𝑥𝑖 , … , 𝑥𝑗−1 ]


𝑓[𝑥𝑖 , … , 𝑥𝑗 ] =
𝑥𝑗 − 𝑥𝑖

IV.4.4 Polynôme d’interpolation de Newton de degré n

Le polynôme d’interpolation de Newton de degré n s’écrit donc à l’aide des


différences divisées successives :

𝑃𝑛 (𝑥) = 𝑓[𝑥0 ] + ∑ 𝑓[𝑥0 , … , 𝑥𝑘 ]𝑒𝑘 (𝑥)


𝑘=1

55
Chapitre IV. Interpolation polynômiale

IV.4.5 Erreur d’interpolation

Pour le calcul de l’erreur d’interpolation, on utilise la même formule que celle


relative à l’interpolation de Lagrange. En effet :
𝑛
𝑓 (𝑛+1) ()
𝐸(𝑥) = 𝑓(𝑥) − 𝑃𝑛 (𝑥) = ∏ (𝑥 − 𝑥𝑖 )
(𝑛 + 1)!
𝑖=0

Si on pose : 𝑀𝑛+1 = 𝑚𝑎𝑥𝑎≤𝑥≤𝑏 |𝑓 (𝑛+1) (𝑥)| , alors :


𝑛
𝑀𝑛+1
𝐸(𝑥) ≤ ∏ (𝑥 − 𝑥𝑖 )
(𝑛 + 1)!
𝑖=0

IV.4.6 Exemple de calcul du polynôme d’interpolation de Newton

Étant donné trois points {(0, 1), (2, 5), (4, 17)}. Nous allons déterminer le polynôme
d’interpolation de Newton de degré 2 passant par ces points.

𝑥0 = 0 𝑓[𝑥0 ] = 1
5−1
𝑥1 = 2 𝑓[𝑥1 ] = 5 𝑓[𝑥0 , 𝑥1 ] = =2
2−0
17 − 5 6−2
𝑥2 = 4 𝑓[𝑥2 ] = 17 𝑓[𝑥1 , 𝑥2 ] = =6 𝑓[𝑥0 , 𝑥1 , 𝑥2 ] = =1
4−2 4−0

Par suite :

𝑃2 (𝑥) = 𝑓[𝑥0 ] + 𝑓[𝑥0 , 𝑥1 ]𝑥 + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ]𝑥(𝑥 − 2)


= 1 + 𝑥2

IV.5 Cas des points équidistants

Ce cas a une grande importance dans l’interpolation des fonctions tabulées. Dans ce

cas où les valeurs successives 𝑥0 , 𝑥1 = 𝑥0 + ℎ, 𝑥2 = 𝑥0 + 2ℎ, … , 𝑥𝑛 = 𝑥0 + 𝑛ℎ (ℎ > 0),

sont en progression arithmétique, on a intérêt à faire intervenir les différences finies.

56
Chapitre IV. Interpolation polynômiale

IV.5.1 Différences finies progressives

IV.5.1.1 Définition

Soient 𝑦0 , 𝑦1 , … , 𝑦𝑛 des nombres réels. On appelle différence finie progressive

d’ordre 1 l’expression :

∆𝑦𝑖 = 𝑦𝑖+1 − 𝑦𝑖 ; 𝑖 = 0, 1, … , 𝑛 − 1

Une différence finie d’ordre 2 est :

∆2 𝑦𝑖 = ∆𝑦𝑖+1 − ∆𝑦𝑖 ; 𝑖 = 0, 1, … , 𝑛 − 2

En général, une différence finie progressive d’ordre k est donnée par :

∆𝑘 𝑦𝑖 = ∆𝑘−1 𝑦𝑖+1 − ∆𝑘−1 𝑦𝑖 ; 𝑖 = 0, 1, … , 𝑛 − 𝑘

Par convention :

∆0 𝑦𝑖 = 𝑦𝑖 ; 𝑖 = 0, 1, … , 𝑛

Conséquence : Pour n+1 points, on ne peut définir que les différences finies jusqu’à

l’ordre n.

IV.5.1.2 Relation entre différences finies progressives et différences divisées

Théorème : Soit 𝑓(𝑥) une fonction dont on connait les valeurs 𝑓(𝑥𝑖 ) aux points 𝑥𝑖 , 𝑖 =

0, 1, … , 𝑛 avec 𝑥𝑖 = 𝑥𝑖−1 + ℎ ; 𝑖 = 1, … , 𝑛 ; ℎ > 0. Alors :

∆𝑘 𝑓(𝑥𝑖 )
𝑓[𝑥𝑖 , 𝑥𝑖+1 , … , 𝑥𝑖+𝑘 ] = ;0 ≤ 𝑖 ≤ 𝑖 + 𝑘 ≤ 𝑛
ℎ𝑘 𝑘!

Où 𝑓[𝑥𝑖 , 𝑥𝑖+1 , … , 𝑥𝑖+𝑘 ] est la différence divisée d’ordre k et ∆𝑘 𝑓(𝑥𝑖 ) est la différence

57
Chapitre IV. Interpolation polynômiale

finie progressive d’ordre k au point (𝑥𝑖 , 𝑓(𝑥𝑖 )).

Preuve : (par récurrence)

Pour simplifier, on prend 𝑖 = 0 et on doit donc montrer que :

∆𝑘 𝑓(𝑥0 )
𝑓[𝑥0 , … , 𝑥𝑘 ] = ;0 ≤ 𝑘 ≤ 𝑛
ℎ𝑘 𝑘!

Cette relation est vraie pour 𝑘 = 1 car :

𝑓(𝑥0 ) − 𝑓(𝑥1 ) 𝑓(𝑥1 ) − 𝑓(𝑥0 ) ∆𝑓(𝑥0 )


𝑓[𝑥0 , 𝑥1 ] = = =
𝑥0 − 𝑥1 𝑥1 − 𝑥0 1! ℎ

Supposons que la relation est vraie jusqu’à l’ordre k, et montrons qu’elle reste vraie pour

k+1.

On a :

𝑓[𝑥0 , … , 𝑥𝑘 ] − 𝑓[𝑥1 , … , 𝑥𝑘+1 ]


𝑓[𝑥0 , … , 𝑥𝑘+1 ] =
𝑥0 − 𝑥𝑘+1
𝑘 𝑘
1 ∆ 𝑓(𝑥0 ) ∆ 𝑓(𝑥1 )
= [ − ]
−(𝑘 + 1)ℎ ℎ𝑘 𝑘! 𝑘
ℎ 𝑘!
𝑘
1 ∆ 𝑓(𝑥1 ) − ∆𝑘 𝑓(𝑥0 )
= ∙ 𝑘
(𝑘 + 1)ℎ ℎ 𝑘!
∆𝑘+1𝑓(𝑥0 )
= 𝑘+1
ℎ (𝑘 + 1)!

IV.5.2 Forme de Newton pour les différences finies progressives

Si les abscisses sont équidistantes, on peut énoncer le théorème suivant :

Théorème : Soient 𝑥0 , 𝑥1 , … , 𝑥𝑛 (n+1) abscisses telles que : 𝑥𝑖 = 𝑥𝑖−1 + ℎ (𝑖 =

̅̅̅̅̅
1, 𝑛 𝑒𝑡 ℎ > 0). Le polynôme d’interpolation de 𝑓(𝑥) aux points 𝑥𝑖 , 𝑖 = ̅̅̅̅̅̅
0, 𝑛 peut s’écrire:

58
Chapitre IV. Interpolation polynômiale

∆𝑓(𝑥0 ) ∆2 𝑓(𝑥0 )
𝑃𝑛 (𝑥) = 𝑓(𝑥0 ) + (𝑥 − 𝑥0 ) + (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) + ⋯
1! ℎ 2! ℎ2

∆𝑛 𝑓(𝑥0 )
+ (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛−1 )
𝑛! ℎ𝑛

Cette formule est appelée forme de Newton du polynôme d’interpolation pour les

différences finies progressives.

IV.5.3 Formule simplifiée

On a :

𝑥1 = 𝑥0 + ℎ
𝑥2 = 𝑥0 + 2ℎ

𝑥𝑘−1 = 𝑥0 + (𝑘 − 1)ℎ

{ 𝑥𝑛 = 𝑥0 + 𝑛ℎ

𝑥−𝑥0
En faisant un changement de variable : 𝑡 = ℎ

Il vient que : (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑘−1 ) = ℎ𝑘 𝑡(𝑡 − 1) … (𝑡 − (𝑘 − 1))

En remplaçant dans la formule d’interpolation :

∆𝑦0 ∆2 𝑦0 ∆𝑛 𝑦0
𝑃𝑛 (𝑥) = 𝑃̃𝑛 (𝑡) = 𝑦0 + 𝑡+ 𝑡(𝑡 − 1) + ⋯ + 𝑡(𝑡 − 1) … (𝑡 − (𝑛 − 1))
1! 2! 𝑛!

Avec : 𝑦𝑖 = 𝑓(𝑥𝑖 )

L’erreur d’interpolation est donnée par :

𝑀𝑛+1
𝐸(𝑥) = |𝑓(𝑥) − 𝑃𝑛 (𝑥)| ≤ |ℎ𝑛+1 𝑡(𝑡 − 1)(𝑡 − 2) … (𝑡 − 𝑛)|
(𝑛 + 1)!

Où :

59
Chapitre IV. Interpolation polynômiale

𝑀𝑛+1 = 𝑚𝑎𝑥𝑥0 ≤𝑥≤𝑥𝑛 |𝑓 (𝑛+1) (𝑥)|

IV.5.4 Exemple

Construire le polynôme d’interpolation de Newton à l’aide des différences finies

progressives pour les points : {(4, 1), (6, 3), (8, 8), (10, 20)}

IV.5.4.1 Solution
On a : ℎ = 𝑥𝑖+1 − 𝑥𝑖 = 6 − 4 = 2

∆𝑘 𝑦𝑖 = ∆𝑘−1 𝑦𝑖+1 − ∆𝑘−1 𝑦𝑖 ; 𝑖 = 0, 1, … , 𝑛 − 𝑘

∆𝑦0 ∆2 𝑦0 ∆3 𝑦0
𝑃3 (𝑥) = 𝑦0 + (𝑥 − 𝑥0 ) + (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) + (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )
1! ℎ 2! ℎ2 3! ℎ3

On construit le tableau des différences finies :

𝑦𝑖 ∆𝑦𝑖 ∆2 𝑦𝑖 ∆3 𝑦𝑖
𝑥𝑖
41
2
6 3 3
5 4
8 8 7
12
10 20
2 3 4
𝑃3 (𝑥) = 1 + (𝑥 − 4) + 2
(𝑥 − 4)(𝑥 − 6) + (𝑥 − 4)(𝑥 − 6)(𝑥 − 8)
2 2∙2 6 ∙ 23

71 9 1
𝑃3 (𝑥) = −10 + 𝑥 − 𝑥2 + 𝑥3
21 8 12
𝑥−𝑥0
En prenant : 𝑡 = ℎ
∆𝑦0 ∆2 𝑦0 ∆3 𝑦0
𝑃3 (𝑥) = 𝑃̃3 (𝑡) = 𝑦0 + 𝑡+ 𝑡(𝑡 − 1) + 𝑡(𝑡 − 1)(𝑡 − 2)
1! 2! 3!
3 2
𝑃̃3 (𝑡) = 1 + 2𝑡 + 𝑡(𝑡 − 1) + 𝑡(𝑡 − 1)(𝑡 − 2)
2 3
𝑥−𝑥 7−4 3
Pour 𝑥 = 7 par exemple, on a : 𝑡 = ℎ 0 = 2 = 2

Et

3 3 3 3 3 2 3 3 3
𝑃3 (7) = 𝑃̃3 ( ) = 1 + 2 ( ) + ( ) ( − 1) + ( ) ( − 1) ( − 2) = 4.875
2 2 2 2 2 3 2 2 2

60
Différences finies et dérivation numérique
Chapitre V. Différences finies et dérivation numérique

V.1 Introduction
Il arrive souvent que pour résoudre des problèmes pratiques, il faut calculer les
dérivées d’ordres imposés d’une fonction y=f(x) donnée par un tableau (fonction tabulée).
Il se peut également que l’expression analytique compliquée de cette fonction rende
difficile sa dérivation immédiate. Ce sont autant de cas où l’on recourt à la dérivation
approchée.

En principe, on peut utiliser n’importe quelle approximation d’une fonction et la


dériver pour avoir une approximation de la dérivée de la fonction.

On a en fait les équations suivantes :

f(x)=P(x)+E(x)⇒f^' (x)=P^' (x)+E^' (x)

Ou encore :

f(x)≈P(x)⇒f^' (x)≈P^' (x)

Bien sûr, c’est l’erreur E^' (x) qu’il importe d’analyser.

Remarque :

De toute façon, aucune méthode de dérivation numérique n’est satisfaisante.

V.2 Théorème
Soit f une fonction n fois continument dérivable sur [a, b] et admettant une dérivée
d’ordre n+1 dans l’intervalle ouvert ]𝑎, 𝑏[. Soit P le polynôme d’interpolation de f aux
points 𝑥0 , 𝑥1 , … , 𝑥𝑛 contenus dans l’intervalle [a, b]. Alors :

𝑓 𝑛+1 ()
∀ 𝑖 = ̅̅̅̅̅
0, 𝑛 𝑓 ′ (𝑥𝑖 ) − 𝑃′ (𝑥𝑖 ) = (𝑥 − 𝑥𝑗 ) /  ∈ ]𝑎, 𝑏[
(𝑛 + 1)! 𝑖

L’intervalle [a, b] est choisi de manière à être le plus petit intervalle contenant les
𝑥𝑖 .
Chapitre V : Différences finies et dérivation numérique

V.3 Première formule d’interpolation de Newton (Rappel)


Soient 𝑥0 , 𝑥1 , … , 𝑥𝑛 (n+1) points équidistants tels que 𝑥𝑖 = 𝑥𝑖−1 + ℎ ; 𝑖 = 1, … , 𝑛 ; ℎ > 0.
Le polynôme d’interpolation de Newton s’écrit :

∆𝑓(𝑥0 ) ∆2 𝑓(𝑥0 )
𝑃𝑛 (𝑥) = 𝑓(𝑥0 ) + (𝑥 − 𝑥0 ) + (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) + ⋯
1! ℎ 2! ℎ2
𝑥−𝑥0
En posant : 𝑡 = avec 𝑦𝑖 = 𝑓(𝑥𝑖 ), on a :

∆𝑦0 ∆2 𝑦0 ∆𝑛 𝑦0
𝑃𝑛 (𝑥) = 𝑃̃𝑛 (𝑡) = 𝑦0 + 𝑡+ 𝑡(𝑡 − 1) + ⋯ + 𝑡(𝑡 − 1) … (𝑡 − (𝑛 − 1))
1! 2! 𝑛!

∆2 𝑦0 2 ∆3 𝑦0 3
= 𝑦0 + ∆𝑦0 𝑡 + (𝑡 − 𝑡) + (𝑡 − 3𝑡 2 + 2𝑡)
2! 3!

∆4 𝑦0 4
+ (𝑡 − 6𝑡 3 + 11𝑡 2 − 6𝑡) + ⋯
4!

Avec l’erreur d’interpolation :

∆𝑛+1 𝑦0
𝐸(𝑥) = 𝐸̃ (𝑡) ≅ 𝑡(𝑡 − 1) … (𝑡 − 𝑛)
(𝑛 + 1)!
𝑑 𝑑 𝑑𝑡 1 𝑑
Puisque 𝑑𝑥 = 𝑑𝑡 ∙ 𝑑𝑥 = ℎ ∙ 𝑑𝑡, il vient que :

1 2
2𝑡 − 1 3
3𝑡 2 − 6𝑡 + 2 4
2𝑡 3 − 9𝑡 2 + 11𝑡 − 3
𝑓′(𝑥) ≅ [∆𝑦0 + ∆ 𝑦0 + ∆ 𝑦0 + ∆ 𝑦0 +⋯]
ℎ 2 6 12

De la même façon, on obtient :

1 2 3 4
6𝑡 2 − 18𝑡 + 11
𝑓′′(𝑥) ≅ 2 [∆ 𝑦0 + ∆ 𝑦0 (𝑡 − 1) + ∆ 𝑦0 +⋯]
ℎ 12

Quand la nécessité s’impose, on procède de la même façon pour calculer des dérivées à
n’importe quel ordre.

V.4 Choix du point initial


Afin de calculer 𝑓 ′ (𝑥), 𝑓 ′′ (𝑥), … en un point fixé, on choisit comme 𝑥0 l’abscisse
𝑥𝑖 le plus proche de x.

62
Chapitre V : Différences finies et dérivation numérique

Quand il s’agit de chercher les dérivées de f aux abscisses 𝑥𝑖 , les formules de


dérivations deviennent plus simples. On prend alors comme 𝑥0 le 𝑥𝑖 lui-même.
𝑥𝑖 −𝑥0 𝑥𝑖 −𝑥𝑖
On a donc : 𝑡 = = =0
ℎ ℎ

D’où :

1 1 1 1 1
𝑓′(𝑥𝑖 ) ≅ [∆𝑦𝑖 − ∆2 𝑦𝑖 + ∆3 𝑦𝑖 − ∆4 𝑦𝑖 + ∆5 𝑦𝑖 … ]
ℎ 2 3 4 5

Et de même :

1 2 11 4 5
𝑓′′(𝑥𝑖 ) ≅ 2
[∆ 𝑦𝑖 − ∆3 𝑦𝑖 + ∆ 𝑦𝑖 − ∆5 𝑦𝑖 … ]
ℎ 12 6

V.5 Erreur d’interpolation


Si l’erreur d’interpolation est 𝐸(𝑥) = 𝑓(𝑥) − 𝑃(𝑥), l’erreur d’approximation de 𝑓′
par 𝑃′ est donnée par :

𝐸 ′ (𝑥) = 𝑓 ′ (𝑥) − 𝑃′(𝑥)

Cela veut dire que l’erreur d’approximation de la dérivée d’une fonction est égale
à l’erreur de cette fonction. Et il en est de même pour les dérivées d’ordres supérieurs.

̃ ∆𝑛+1 𝑦0 1
𝐸′(𝑥) = 𝐸′ (𝑡) ≅ ∙ ∙ [𝑡(𝑡 − 1) … (𝑡 − 𝑛)]′𝑡
(𝑛 + 1)! ℎ

Et
𝑛+1
̃ (𝑡) ≅ ∆ 𝑦0 ∙ 1 ∙ [𝑡(𝑡 − 1) … (𝑡 − 𝑛)]′′
𝐸′′(𝑥) = 𝐸′′ 𝑡
(𝑛 + 1)! ℎ2

𝑥−𝑥0
Avec : 𝑡 = et ℎ = 𝑥𝑖+1 − 𝑥𝑖

Pour 𝑡 = 0, on obtient :

∆𝑛+1 𝑦0 (−1)𝑛
𝐸′(𝑥0 ) ≅ ∙
𝑛+1 ℎ

Remarque :

63
Chapitre V : Différences finies et dérivation numérique

Il convient de noter que la dérivation approchée est une opération moins précise
que l’interpolation.

V.6 Exemple
Estimer puis évaluer la précision de la valeur 𝑓′(50) de la fonction 𝑓(𝑥) = log(𝑥)
donnée par :

𝒙𝒊 50 55 60 65

𝒇(𝒙𝒊 ) 1.6990 1.7404 1.7782 1.8129

Solution

On a ℎ = 𝑥𝑖+1 − 𝑥𝑖 = 𝑥1 − 𝑥0 = 55 − 50 = 5

Construisons le tableau des différences finies :

𝑥𝑖 𝑦𝑖 ∆𝑦𝑖 ∆2 𝑦𝑖 ∆3 𝑦𝑖

50 1.6990

0.0414

55 1.7404 -0.0036

0.0375 0.0005

60 1.7782 -0.0031

0.0347

65 1.8129

1 1 1
𝑓′(𝑥) ≅ [∆𝑦0 − ∆2 𝑦0 + ∆3 𝑦0 ]
ℎ 2 3
1
𝑓 ′ (50) ≅ [0.0414 + 0.0018 + 0.0002] = 0.0087
5

Pour calculer 𝑓′′(𝑥) :

64
Chapitre V : Différences finies et dérivation numérique

1 2
𝑓′′(𝑥𝑖 ) ≅ [∆ 𝑦𝑖 − ∆3 𝑦𝑖 ]
ℎ2
1
𝑓′′ (50) ≅ [−0.0036 − 0.0005] ≅ −0.000164
25

Evaluation de la précision :

𝐿𝑛(𝑥)
𝑦 = log(𝑥) =
𝐿𝑛(10)

1 1 0.43429
𝑦′ = ∙ =
𝑥 𝐿𝑛(10) 𝑥

Par conséquent :

0.43429
𝑦 ′ (50) = = 0.0087
50

Ainsi, les résultats coïncident à la quatrième décimale près.

1 1 0.43429
𝑦 ′′ (𝑥) = − ∙ = − ≅ −0.000
𝑥 2 𝐿𝑛(10) 502

65
Bibliographie
G. DAHLQUIST and Å. BJÖRCK. Numerical methods in scientific computing.
Volume I. SIAM, 2008.
M. LAKRIB. Cours d’Analyse Numérique. 5ième édition. Office des publications
universitaires. ISBN : 9961.0.0610.0. Avril 2009.
F. B. Hildebrand et Mathematics, Introduction to Numerical Analysis: Second
Edition, 2nd edition. New York: Dover Publications, 1987.
R. W. Hamming, Numerical Methods for Scientists and Engineers, 2nd Revised
edition. New York: Dover Publications, 1987.
R. L. Burden, J. D. Faires, et A. M. Burden, Numerical Analysis, 10 edition. Boston,
MA: Brooks Cole, 2015