Vous êtes sur la page 1sur 59

Ebauche de cours de l’analyse

numérique pour SMP-S6

Méthodes Numériques A. RTIBI 1


Introduction

Dans la nature, les systèmes et phénomènes physiques les plus intéressants sont aussi les plus
complexes à étudier. Ils sont souvent régis par un grand nombre de paramètres non-linéaires
interagissant entre eux ( météorologie, turbulence des fluides...).

Pour analyser les paramètres et grandeurs d’un système naturel il faut recourir à une série
d'expériences. Mais les essais peuvent s'avérer très coûteux (essais en vol, essais avec
matériaux rares, instrumentations très chères...) et ils peuvent être très dangereux (essais
nucléaires, environnement spatial...). Enfin il peut être difficile de mesurer tous les
paramètres: échelles du problème trop petites (chimie du vivant, couche limite en fluide...) ou
trop grandes (astrophysique, météorologie, géophysique...).

On peut aussi construire un modèle mathématique permettant la représentation du phénomène


physique. Le principe d'un modèle est de remplacer un système complexe en un objet ou
opérateur simple reproduisant les aspects ou comportements principaux de l'original (ex :
modèle réduit, maquette, modèle mathématique ou numérique, modèle de pensée ou
raisonnement).

Les modèles mathématiques utilisent très souvent des systèmes d'équations aux dérivées
partielles (EDP) non-linéaires dont on ne connait pas de solutions analytiques en général. Il
faut alors résoudre le problème numériquement en transformant les équations continues de la
physique en un problème discret sur un certain domaine de calcul (le maillage). Dans certains
cas il s'agit de la seule alternative (nucléaire, astrophysique, spatial...). Dans d'autres cas, les
simulations numériques sont menées en parallèle avec des expérimentations.

Les différentes étapes pour modéliser un système complexe :

 Recherche d'un modèle mathématique représentant la physique. Mise en équation.


 Elaboration d'un maillage. Discrétisation des équations de la physique.
 Résolution des équations discrètes (souvent systèmes linéaires à résoudre).
 Transcription informatique et programmation des relations discrètes.
 Simulation numérique et exploitation des résultats.

Méthodes Numériques A. RTIBI 2


Interpolation polynomiale

I. Introduction
A partir d'une fonction 𝑓(𝑥) connue en (𝑛 + 1) points de la forme [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 =
0, 1, … , 𝑛], peut-on construire une approximation de 𝑓(𝑥) pour tout 𝑥 ?

Les points [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛] sont appelés points de collocation ou points
d'interpolation. Ils peuvent provenir essentiellement de données expérimentales ou
numériques. Le problème d'interpolation se ramène en fait à la construction d'un polynôme de
degré élevé dont la courbe passe par tous les points de collocation et capable de restituer
toutes les valeurs entre les nœuds. En d'autres termes, il s'agit de trouver un modèle
mathématique afin de réduire toute information en une expression mathématique facilement
exploitable. De ce fait, le recours aux techniques d'interpolation permet d'avoir des courbes
régulières (lisses) passant par un nombre de points élevé (génération de nœuds
supplémentaires).

Théorème
Un polynôme de degré 𝑛 de forme générale 𝑝𝑛 𝑥 = 𝑎0 + 𝑎1 𝑥 + ⋯ + 𝑎𝑛 𝑥 𝑛 𝑎𝑛 ≠ 0,
possède exactement 𝑛 racines qui peuvent être réelles ou complexes conjuguées.

Corollaire
Par (𝑛 + 1) points de collocation [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛], on ne peut faire passer
qu'un et un seul polynôme de degré 𝑛.

Démonstration
Admettons l'existence de deux polynômes de degrés 𝑛 chacun, notés 𝑝𝑛 𝑥 et 𝑔𝑛 𝑥 , passant
par les (𝑛 + 1) points de collocation.

Considérons alors le polynôme 𝑞 𝑥 = 𝑝𝑛 𝑥 − 𝑔𝑛 𝑥 qui est au plus de degré 𝑛. On notera


que le polynôme 𝑞(𝑥) vérifie 𝑞 𝑥𝑖 = 𝑝𝑛 𝑥𝑖 − 𝑔𝑛 𝑥𝑖 = 𝑓 𝑥𝑖 − 𝑓 𝑥𝑖 = 0 ; ∀ 𝑖 =
0,1, … , 𝑛.

Le polynôme 𝑞(𝑥) posséderait donc (𝑛 + 1) racines, ce qui contredit le théorème


précédent. Ceci démontre l'unicité du polynôme passant par (𝑛 + 1) points de collocation
donnés.

II. Matrice de VANDERMONDE


Puisque le problème d'interpolation consiste à déterminer l'unique polynôme de degré 𝑛
passant par les 𝑛 + 1 points de collocation, une première tentative (tentative directe) pour
construire ce polynôme consiste à déterminer les coefficients 𝑎𝑖 du polynôme en vérifiant
directement :

𝑝𝑛 𝑥𝑖 = 𝑓 𝑥𝑖 ; ∀ 𝑖 = 0,1, … , 𝑛
ou encore:

𝑎0 + 𝑎1 𝑥𝑖 + ⋯ + 𝑎𝑛 𝑥𝑖𝑛 = 𝑓 𝑥𝑖 ; ∀ 𝑖 = 0,1, … , 𝑛

qui est un système linéaire de 𝑛 + 1 équations à 𝑛 + 1 inconnus.

Méthodes Numériques A. RTIBI 3


Une écriture matricielle de ce système conduit à:

1 𝑥0 𝑥02 ⋯ 𝑥0𝑛 𝑎0 𝑓 𝑥0
𝑥1𝑛 𝑎1
= 𝑓 𝑥1
⋮ ⋱
⋮ ⋮ ⋮
1 𝑥𝑛 𝑥𝑛2 ⋯ 𝑥𝑛𝑛 𝑎𝑛 𝑓 𝑥𝑛

La matrice de ce système linéaire porte le nom de matrice de Vandermonde. Son déterminant


est : 𝑑𝑒𝑡 = 𝑖<𝑗 𝑥𝑖 − 𝑥𝑗 ≠ 0, si tous les 𝑥𝑖 sont distincts. On peut donc trouver un unique
vecteur de coefficients 𝑎0 , 𝑎1 , … , 𝑎𝑛 𝑡 résolvant le problème.
Remarque : Il est connu (à admettre) que les matrices du type Vandermonde deviennent très
mal conditionnées lorsque n augmente (elles sont très sensible aux erreurs d’arrondies). Dans
la pratique, cette méthode n’est à utiliser que si 𝑛 < 4.

Exercice
Trouver un polynôme qui interpole le nuage de points (0,1), (1,2), (2,9) 𝑒𝑡 (3,28). Le nuage
contient 4 points distincts, le polynôme cherché est donc de degré 3. Ses coefficients 𝑎𝑖 sont
solution de :
0 0 0 1 𝑎3 1
1 1 1 1 𝑎2 2
8 4 2 1 𝑎1 = 9
27 9 3 1 𝑎0 28
dont la solution est 1,0,0,1 𝑡 . Le polynôme recherché est donc : 𝑝3 𝑥 = 𝑥 3 + 1

III. Interpolation de Lagrange


L’interpolation de Lagrange est une façon simple et systématique pour construire un
polynôme d’interpolation pour une fonction 𝑓 dont on connait les valeurs de 𝑛 + 1 points
distincts [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛].

Prenons l’exemple d’une interpolation linéaire 𝑛 = 1.

On considère deux points de collocations 𝑥0 , 𝑓 𝑥0 , 𝑥1 , 𝑓 𝑥1 distincts.

Pour déterminer le polynôme 𝑃1 𝑥 de degré 1 (d’équation : 𝑦 = 𝑎𝑥 + 𝑏) qui passe par les


𝑎𝑥0 + 𝑏 = 𝑓 𝑥0
deux points distincts on résout le système
𝑎𝑥1 + 𝑏 = 𝑓 𝑥1
𝑓 𝑥1 − 𝑓 𝑥0 𝑥1 𝑓 𝑥0 − 𝑥0 𝑓 𝑥1
𝑃1 𝑥 = 𝑥+
𝑥1 − 𝑥0 𝑥1 − 𝑥0
Qu’on peut écrire aussi,
𝑥 − 𝑥1 𝑥 − 𝑥0
𝑃1 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥1
𝑥0 − 𝑥1 𝑥1 − 𝑥0
𝑃1 𝑥 = 𝑓 𝑥0 . 𝐿0 (𝑥) + 𝑓 𝑥1 𝐿1 (𝑥)

On remarque 𝐿𝑖 𝑥𝑗 = 𝛿𝑖𝑗

Méthodes Numériques A. RTIBI 4


On dit que 𝑃1 est le polynôme d’interpolation de Lagrange de degré 1 associé aux points
𝑥0 , 𝑓 𝑥0 , 𝑥1 , 𝑓 𝑥1 .

Généralisation
Soit 𝑓 une fonction réelle d’une variable réelle définie sur [𝑎, 𝑏] qui contient les points
[𝑥𝑖 , 𝑖 = 0, 1, … , 𝑛] distincts tel que 𝑓 𝑥𝑖 = 𝑓𝑖 , 𝑖 = 0, 1, … , 𝑛:

Théorème
Il existe un polynôme 𝑃𝑛 unique de degré au plus égal à 𝑛 tel que :

∀ 𝑖 = 0, 1, … , 𝑛 𝑃𝑛 𝑥𝑖 = 𝑓𝑖
Démonstration.

 Existence : Polynôme de Lagrange

On définit les Polynômes 𝐿𝑖 par :


𝑛
𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑖−1 𝑥 − 𝑥𝑖+1 … 𝑥 − 𝑥𝑛 𝑥 − 𝑥𝑗
𝐿𝑖 𝑥 = =
𝑥𝑖 − 𝑥0 𝑥𝑖 − 𝑥1 … 𝑥𝑖 − 𝑥𝑖−1 𝑥𝑖 − 𝑥𝑖+1 … 𝑥𝑖 − 𝑥𝑛 𝑥𝑖 − 𝑥𝑗
𝑗 =0,𝑗 ≠𝑖

Propriétés :

𝐿𝑖 𝑥𝑖 = 1 ∀𝑖; 𝐿𝑖 𝑥𝑗 = 0 ∀ 𝑗 ≠ 𝑖; 𝑑°𝐿𝑖 = 𝑛

On prend :
𝑛

𝑃𝑛 𝑥 = 𝑓𝑖 𝐿𝑖 𝑥
𝑖=0

On a

𝑃𝑛 𝑥𝑖 = 𝑓𝑖

 unicité :

Si le polynôme 𝑃𝑛 n’est unique alors il existe un polynôme 𝑄𝑛 tel que : 𝑃𝑛 𝑥𝑖 = 𝑓𝑖 =


𝑄𝑛 𝑥𝑖 ∀ 𝑖 = 0, 1, … , 𝑛

On pose 𝑅 = 𝑃𝑛 − 𝑄𝑛 , 𝑑0 ≤ 𝑛

𝑅 𝑥𝑖 = 0 ∀ 𝑖 = 0, 1, … , 𝑛 ⇒ 𝑅 𝑎𝑑𝑚𝑒𝑡 𝑛 + 1 𝑟𝑎𝑐𝑖𝑛𝑒𝑠
Donc 𝑅 = 0

Définition
Le polynôme 𝑃𝑛 s’appelle le polynôme d’interpolation de Lagrange de la fonction 𝑓
relativement aux points (𝑥𝑖 , 𝑓 𝑥𝑖 , 𝑖 = 0, 1, … , 𝑛].

Les polynômes 𝐿𝑖 𝑥 forment une base de 𝑃𝑛 et s’appellent les polynômes de base de


Lagrange associées à ces points.

Méthodes Numériques A. RTIBI 5


Exercice
On considère les points (0; 1), (1; 2), (2; 9) 𝑒𝑡 (3; 28) , déterminer par la méthode de
Lagrange le polynôme 𝑃3 𝑥 d’interpolation polynomiale qui passe par les points :
(𝑥𝑖 , 𝑦𝑖 ); 𝑖 = 0, 1,2,3
Solution
D’après la méthode de Lagrange,

𝑃3 𝑥 = 𝑦0 𝐿0 𝑥 + 𝑦1 𝐿1 𝑥 + 𝑦2 𝐿2 𝑥 + 𝑦3 𝐿3 𝑥
𝑥 − 𝑥1 𝑥 − 𝑥2 𝑥 − 𝑥3 𝑥 − 𝑥0 𝑥 − 𝑥2 𝑥 − 𝑥3
= 𝑦0 + 𝑦1
𝑥0 − 𝑥1 𝑥0 − 𝑥2 𝑥0 − 𝑥3 𝑥1 − 𝑥0 𝑥1 − 𝑥2 𝑥1 − 𝑥3
𝑥 − 𝑥0 𝑥 − 𝑥1 𝑥 − 𝑥3 𝑥 − 𝑥0 𝑥 − 𝑥1 𝑥 − 𝑥2
+ 𝑦2 + 𝑦3
𝑥2 − 𝑥0 𝑥2 − 𝑥1 𝑥2 − 𝑥3 𝑥3 − 𝑥0 𝑥3 − 𝑥1 𝑥3 − 𝑥2

𝑝3 𝑥 = 𝑥 3 + 1
Remarque
La méthode d’interpolation de Lagrange présente un inconvénient majeur : elle n’est pas
récursive. En effet, si on souhaite passer d’un polynôme de degré n à un polynôme de degré
(𝑛 + 1) (en ajoutant un point d’interpolation), on doit reprendre tout le processus à zéro. Dans
l’exemple précédent, si on souhaite obtenir le polynôme de degré 4 correspondant aux points
(0; 1), (1; 2), (2; 9), (3; 28) et (5; 54), on ne peut d’aucune façon récupérer le polynôme de
degré 3 déjà calculé et de le modifier simplement pour obtenir 𝑃4 𝑥 . C’est en revanche ce
que permet la méthode d’interpolation de Newton

IV. Polynôme de Newton


Soit une fonction 𝑓 dont en connait les valeurs de 𝑛 + 1 points distincts [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 =
0, 1, … , 𝑛].
Définitions :
On appelle différence divisée d’ordre 0 :

𝑓 𝑥𝑖 = 𝑓 𝑥𝑖
On appelle différence divisée d’ordre 1 :

𝑓 𝑥𝑖 − 𝑓 𝑥𝑗
𝑓 𝑥𝑖 , 𝑥𝑗 = , 𝑖≠𝑗
𝑥𝑖 − 𝑥𝑗

On appelle différence divisée d’ordre 2 :

𝑓 𝑥𝑖 , 𝑥𝑗 − 𝑓 𝑥𝑗 , 𝑥𝑘
𝑓 𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 = , 𝑖 ≠ 𝑗, 𝑖 ≠ 𝑘 𝑒𝑡 𝑗 ≠ 𝑘
𝑥𝑖 − 𝑥𝑘
On appelle différence divisée d’ordre n :
𝑓 𝑥0 , 𝑥1 , … , 𝑥𝑛 −1 − 𝑓 𝑥1 , … , 𝑥𝑛
𝑓 𝑥0 , 𝑥1 , … , 𝑥𝑛 = ,
𝑥0 − 𝑥𝑛

Méthodes Numériques A. RTIBI 6


Soit 𝑃𝑛 𝑥 le polynôme d’interpolation de 𝑓 de 𝑑° ≤ 𝑛 tel que 𝑃𝑛 𝑥𝑖 = 𝑓 𝑥𝑖 , 𝑝𝑜𝑢𝑟 𝑖 =
0,1,2 … 𝑛
Divisons 𝑃𝑛 par 𝑥 − 𝑥0 , on aura :

𝑃𝑛 𝑥 = 𝑥 − 𝑥0 𝑃𝑛−1 𝑥 + 𝑓 𝑥0
𝑃𝑛 𝑥 − 𝑓 𝑥0
𝑃𝑛 −1 𝑥 =
𝑥 − 𝑥0
𝑃𝑛 𝑥𝑖 − 𝑓 𝑥0 𝑓 𝑥𝑖 − 𝑓 𝑥0
𝑃𝑛−1 𝑥𝑖 = = = 𝑓 𝑥0 , 𝑥𝑖 ∀𝑖 ≥1
𝑥𝑖 − 𝑥0 𝑥𝑖 − 𝑥0
Divisons 𝑃𝑛−1 par 𝑥 − 𝑥1 , on aura :

𝑃𝑛 −1 𝑥 = 𝑥 − 𝑥1 𝑃𝑛−2 𝑥 + 𝑃𝑛 −1 𝑥1
𝑃𝑛−1 𝑥 − 𝑃𝑛 −1 𝑥1
𝑃𝑛 −2 𝑥 =
𝑥 − 𝑥1
𝑃𝑛 −1 𝑥𝑖 − 𝑃𝑛−1 𝑥1 𝑓 𝑥0 , 𝑥𝑖 − 𝑓 𝑥0 , 𝑥1
𝑃𝑛−2 𝑥𝑖 = = = 𝑓 𝑥0 , 𝑥1 , 𝑥𝑖 ∀𝑖 ≥2
𝑥𝑖 − 𝑥1 𝑥𝑖 − 𝑥1
De proche en proche on aura : formule de Newton

𝑃𝑛 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1
+ ⋯ 𝑓 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑛 𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑛−1
La formule de Newton (ou polynôme de Newton) est une autre forme d’écriture du polynôme
d’interpolation de Lagrange.
L’intérêt du polynôme de Newton est qu’il est plus maniable et moins coûteux et peut être
calculé de manière récursive.
Pour 𝑚 = 0,1, … , 𝑛 , on définit 𝑃𝑚 par les formules de récurrence suivantes :
𝑃0 𝑥 = 𝑓 𝑥0
𝑃𝑚 +1 𝑥 = 𝑃𝑚 𝑥 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑚 +1 𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑚
Les différences divisées 𝑓 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑘 sont calculées à l’aide d’une table triangulaire, dite
table des différences divisées de la façon suivante :

𝑥𝑖 𝑓 𝑥𝑖 𝑓 𝑥𝑖 , 𝑥𝑖+1 𝑓 𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 …


𝑥0 𝑓 𝑥0
𝑥1 𝑓 𝑥1 𝑓 𝑥0 , 𝑥1
𝑥2 𝑓 𝑥2 𝑓 𝑥1 , 𝑥2 𝑓 𝑥0 , 𝑥1 , 𝑥2
Remarque
La construction de cette table est simple. Nous nous sommes arrêtés aux deuxièmes
différences divisées, mais les autres s’obtient de la même manière. Pour obtenir par exemple
𝑓 𝑥0 , 𝑥1 , 𝑥2 , il suffit de soustraire les 2 termes adjacents 𝑓 𝑥1 , 𝑥2 − 𝑓 𝑥0 , 𝑥1 et de diviser le
résultat par , 𝑥2 − 𝑥0 . De même, pour obtenir 𝑓 𝑥0 , 𝑥1 , 𝑥2 , 𝑥3 , on soustrait 𝑓 𝑥0 , 𝑥1 , 𝑥2 de
𝑓 𝑥1 , 𝑥2 , 𝑥3 et de diviser le résultat par , 𝑥3 − 𝑥0 . La formule de Newton utilise la diagonale
principale de cette table.
Méthodes Numériques A. RTIBI 7
Exemple
Cherchons le polynôme de Newton qui passe par les points de collocation 0,1 , 1,2 , 2,9
et 3,28 .

𝑥𝑖 𝑓 𝑥𝑖 𝑓 𝑥𝑖 , 𝑥𝑖+1 𝑓 𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 𝑓 𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 , 𝑥𝑖+3


0 1
1 2 1
2 9 7 3
3 28 19 6 1
Le polynôme est donc :

𝑃3 𝑥 = 1 + 1 𝑥 − 0 + 3 𝑥 − 0 𝑥 − 1 + 1 𝑥 − 0 𝑥 − 1 𝑥 − 2
Soit en développant l’expression de 𝑃3 dans la base canonique :

𝑃3 𝑥 = 𝑥 3 + 1
qui est le même que celui obtenu par la méthode de Lagrange.
Remarque.
Si on souhaite ajouter un point de collocation (d’interpolation) et calculer un polynôme de
degré 4, il n’est pas nécessaire de tout recommencer. Par exemple, si on veut déterminer le
polynôme d’interpolation 𝑃4 𝑥 de degré 4 qui passe par les points (0;1), (1;2), (2;9),(3;28) et
(5;54).
La table de différences divisées pour les points (0;1), (1;2), (2;9), (3;28) et (5;54) est :

𝑥𝑖 𝑓 𝑥𝑖 𝑓 𝑥𝑖 , 𝑥𝑖+1 𝑓 𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 𝑓 𝑥𝑖 , … , 𝑥𝑖+3 𝑓 𝑥𝑖 , … , 𝑥𝑖+4


0 1
1 2 1
2 9 7 3
3 28 19 6 1
5 54 13 -2 -2 -3/5

Le polynôme 𝑃4 𝑥 est donc donné par :

𝑃4 𝑥 = 𝑃3 𝑥 + (−3/5) 𝑥 − 0 𝑥 − 1 𝑥 − 2 𝑥 − 3
qui est tout simplement le polynôme de degré 3 déjà calculé auquel on a ajouté une correction
de degré 4.

V. Splines cubiques
La méthode d'interpolation par splines cubiques consiste à utiliser, dans chaque intervalle
𝑥𝑖−1 , 𝑥𝑖 un polynôme de degré 3 de la forme:
3 2
𝑝𝑖 𝑥 = 𝑎𝑖 𝑥 − 𝑥𝑖−1 + 𝑏𝑖 𝑥 − 𝑥𝑖−1 + 𝑐𝑖 𝑥 − 𝑥𝑖−1 + 𝑑𝑖 ; 𝑖 = 1, … , 𝑛
Sa dérivée première et seconde sont :

Méthodes Numériques A. RTIBI 8


𝑝𝑖 ′ 𝑥 = 3𝑎𝑖 𝑥 − 𝑥𝑖−1 2
+ 2𝑏𝑖 𝑥 − 𝑥𝑖−1 + 𝑐𝑖

𝑝𝑖 ′′ 𝑥 = 6𝑎𝑖 𝑥 − 𝑥𝑖−1 + 2𝑏𝑖


Le problème d'interpolation par splines cubiques revient ainsi à déterminer, dans chaque sous
intervalle, des coefficients 𝑎𝑖 , 𝑏𝑖 , 𝑐𝑖 𝑒𝑡 𝑑𝑖 et à relier les différents polynômes de façon que la
courbe soit deux fois différentiables.

Ainsi, si on dispose de 𝑛 + 1 points de collocation, on aura n intervalles 𝑥𝑖−1 , 𝑥𝑖 donc 4𝑛


coefficients 𝑎𝑖 , 𝑏𝑖 , 𝑐𝑖 𝑒𝑡 𝑑𝑖 avec 𝑖 = 1, … , 𝑛 à déterminer.
Une approche astucieuse du problème conduirait à un système linéaire tridiagonal de
dimension 𝑛 − 2.

Les contraintes imposées aux n polynômes de degré 3:

 Le polynôme 𝑝1 𝑥 passe par la première extrémité 𝑥0 , 𝑓(𝑥0 ) donc 𝑝1 𝑥0 = 𝑓(𝑥0 )


 Le polynôme 𝑝𝑛 𝑥 passe par la première extrémité 𝑥𝑛 , 𝑓(𝑥𝑛 ) donc 𝑝𝑛 𝑥𝑛 = 𝑓(𝑥𝑛 )
De ces deux contraintes aux bords, résultent 2 équations.

 Pour chaque nœud intérieur 𝑥𝑖 (𝑖 = 1, … , 𝑛 − 1) passent les deux polynômes 𝑝𝑖 𝑥 et


𝑝𝑖+1 𝑥 définis respectivement dans 𝑥𝑖−1 , 𝑥𝑖 et 𝑥𝑖 , 𝑥𝑖+1 . Ces deux polynômes
doivent passer par les points 𝑥𝑖 , 𝑓(𝑥𝑖 ) imposant ainsi les contraintes suivantes:
𝑝𝑖 𝑥𝑖 = 𝑓(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
𝑝𝑖+1 𝑥𝑖 = 𝑓(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
Ceci donne 2𝑛 − 2 é𝑞𝑢𝑎𝑡𝑖𝑜𝑛𝑠
 Pour assurer la régularité de la courbe, on impose l'égalité des dérivées premières et
secondes des polynômes 𝑝𝑖 𝑥 et 𝑝𝑖+1 𝑥 aux nœuds intérieurs:
𝑝𝑖′ 𝑥𝑖 = 𝑝𝑖+1

(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
′′ ′′
𝑝𝑖 𝑥𝑖 = 𝑝𝑖+1 𝑥𝑖 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
Ceci donne 2𝑛 − 2 é𝑞𝑢𝑎𝑡𝑖𝑜𝑛𝑠

Définissons la fonction 𝑀(𝑥) par :


𝑝𝑖′′ 𝑥
𝑀𝑖 (𝑥) = = 3𝑎𝑖 𝑥 − 𝑥𝑖−1 + 𝑏𝑖
2
Donc pour 𝑥 = 𝑥𝑖−1 on a : 𝑝𝑖 𝑥𝑖−1 = 𝑑𝑖 = 𝑝𝑖 𝑒𝑡 𝑀𝑖 𝑥𝑖−1 = 𝑀𝑖 = 𝑏𝑖 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛

Et pour 𝑥 = 𝑥𝑖 on a : 𝑀𝑖+1 𝑥𝑖 = 𝑀𝑖 𝑥𝑖 = 3𝑎𝑖 𝑥𝑖 − 𝑥𝑖−1 + 𝑀𝑖 = 𝑀𝑖+1


𝑀𝑖+1 − 𝑀𝑖 𝑀𝑖+1 − 𝑀𝑖
⇒ 𝑎𝑖 = = 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 𝑒𝑡 𝑕𝑖 = 𝑥𝑖 − 𝑥𝑖−1
3 𝑥𝑖 − 𝑥𝑖−1 3𝑕𝑖
3 2
Le polynôme en 𝑥𝑖 donne 𝑝𝑖+1 𝑥𝑖 = 𝑝𝑖+1 = 𝑎𝑖 𝑥𝑖 − 𝑥𝑖−1 + 𝑏𝑖 𝑥𝑖 − 𝑥𝑖−1 +
𝑐𝑖 𝑥𝑖 − 𝑥𝑖−1 + 𝑑𝑖
𝑀𝑖+1 − 𝑀𝑖 3
𝑝𝑖+1 = 𝑎𝑖 𝑕𝑖 3 + 𝑏𝑖 𝑕𝑖 2 + 𝑐𝑖 𝑕𝑖 + 𝑑𝑖 = 𝑕𝑖 + 𝑀𝑖 𝑕𝑖2 + 𝑐𝑖 𝑕𝑖 + 𝑝𝑖
3𝑕𝑖
𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
⇒ 𝑐𝑖 = − 𝑕𝑖 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛
𝑕𝑖 3

Méthodes Numériques A. RTIBI 9


En définitive, pour 𝑥 ∈ 𝑥𝑖−1 , 𝑥𝑖 on aura le polynôme, sa dérivé première et sa dérivée
deuxième recherché: 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛
𝑀𝑖+1 − 𝑀𝑖 3 2
𝑝𝑖 𝑥 = 𝑥 − 𝑥𝑖−1 + 𝑀𝑖 𝑥 − 𝑥𝑖−1
3𝑕𝑖
𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
+ − 𝑕𝑖 𝑥 − 𝑥𝑖−1 + 𝑝𝑖
𝑕𝑖 3
𝑀𝑖+1 − 𝑀𝑖
𝑝𝑖′ 𝑥 = 𝑥 − 𝑥𝑖−1 2
+ 2𝑀𝑖 𝑥 − 𝑥𝑖−1
𝑕𝑖
𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
+ − 𝑕𝑖
𝑕𝑖 3
𝑀𝑖+1 − 𝑀𝑖
𝑝𝑖′′ 𝑥 = 2 𝑥 − 𝑥𝑖−1 + 2𝑀𝑖
𝑕𝑖
La continuité des dérivées premières de 𝑝𝑖+1 𝑥 et 𝑝𝑖 𝑥 aux nœuds intérieurs 𝑥𝑖 implique

l'égalité: 𝑝𝑖+1 𝑥𝑖 = 𝑝𝑖′ 𝑥𝑖 pour 𝑖 = 1, … , 𝑛 − 1
𝑀𝑖+1 − 𝑀𝑖 2 𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
⇒ 𝑕𝑖 + 2𝑀𝑖 𝑕𝑖 + − 𝑕𝑖
𝑕𝑖 𝑕𝑖 3
𝑝𝑖+2 − 𝑝𝑖+1 𝑀𝑖+2 + 2𝑀𝑖+1
= − 𝑕𝑖+1
𝑕𝑖+1 3
Remarque
Les deux nœuds extrêmes sont exclus.

Dans l'équation précédente, les inconnus sont les 𝑀𝑖 . On arrangera l'écriture de cette équation
sous la forme:
𝑝𝑖+2 − 𝑝𝑖+1 𝑝𝑖+1 − 𝑝𝑖
𝑀𝑖 𝑕𝑖 + 2𝑀𝑖+1 𝑕𝑖 + 𝑕𝑖+1 + 𝑕𝑖+1 𝑀𝑖+2 = 3 − = 𝛼𝑖+1
𝑕𝑖+1 𝑕𝑖

𝑖 = 1, … , 𝑛 − 1
Cette équation est une écriture condensée d'un système de 𝑛 − 1 équations, elle peut être
réécrite sous la forme matricielle suivante:
𝑕1 2 𝑕1 + 𝑕2 𝑕2 0 . 0
𝑀1 𝛼2
0 𝑕2 2 𝑕2 + 𝑕3 𝑕3 . 0 𝑀2 𝛼3
. 0 0 0 . . ⋮ = ⋮
. . . . . . 𝑀𝑛 ⋮
. . . . . 0 𝑀𝑛+1 𝛼𝑛
0 0 0 𝑕𝑛−1 2 𝑕𝑛−1 + 𝑕𝑛 𝑕𝑛
On obtient ainsi un système de 𝑛 − 1 équations à 𝑛 + 1 inconnus. Deux conditions
supplémentaires sont nécessaires pour réduire le nombre d'inconnus à autant d'équations.
Plusieurs choix sont possibles. Ces choix restent en général sans grande influence sur la

Méthodes Numériques A. RTIBI 10


fonction d'interpolation; leur influence peut paraître au niveau des dérivées de la fonction aux
bords de l'intervalle.

- Splines naturelles
Ce choix consiste à imposer 𝑀1 = 𝑀𝑛 +1 = 0, on se ramène dans ce cas à la résolution d'un
système tridiagonal.

- Autre choix
𝑀1 = 𝑀2 et 𝑀𝑛+1 = 𝑀𝑛 Choix imposant une courbure constante dans le premier et le dernier
intervalles.
D'autres choix sont aussi possibles; ils permettent également de ramener le problème à un
système tridiagonal dont les avantages ne sont plus à démontrer.

Méthodes Numériques A. RTIBI 11


Travaux Pratiques (à rendre)
But
A partir de données expérimentales, numériques ou tabulaires restreintes (nombre réduit de
données), on désire élaborer un code numérique qui permet de générer un plus grand nombre
de points (pour avoir des courbes régulières) en utilisant la méthode d'interpolation par splines
cubiques.

Formulation
On dispose du tableau suivant montrant des valeurs expérimentales obtenues en mesurant la
vitesse (en km/h) d'un véhicule toutes les 5 secondes:

t(s) 0 5 10 15 20 25 30 35 40 45
v(km/h) 70 75 73 69 70 75 69 72 67 64

1. Montrer que, sur la base des données du tableau précédent, l'interpolation basée sur
l'utilisation du polynôme Lagrange (ou de Newton) conduirait à des erreurs
importantes aux temps t = 2.5s et 42.5s. Justifier votre réponse en déduisant les
valeurs de la vitesse à partir du polynôme de Lagrange de degré 9 (polynôme construit
à partir de 10 points de collocation).

Rappel
La forme générale du polynôme de Lagrange de degré 𝑛 est
𝑛

pn (x) = 𝑓(𝑥𝑖 )𝐿𝑖 𝑥


𝑖=0

où 𝑓(𝑥𝑖 ) est une fonction connue par ses valeurs aux nœuds de collocation et nulle part
ailleurs et les polynômes 𝐿𝑖 𝑥 sont donnés par:
𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑖−1 𝑥 − 𝑥𝑖+1 … 𝑥 − 𝑥𝑛
𝐿𝑖 𝑥 =
𝑥𝑖 − 𝑥0 𝑥𝑖 − 𝑥1 … 𝑥𝑖 − 𝑥𝑖−1 𝑥𝑖 − 𝑥𝑖+1 . . 𝑥𝑖 − 𝑥𝑛

𝑖 = 0,1 … … … , 𝑛
2. Développer un code numérique adéquat utilisant la méthode des splines cubiques et
générer, à partir du tableau précédent, 100 points ((xj, f(xj), avec j variant de 0 à 50).
3. Tracer la courbe de la vitesse en fonction du temps.
4. Déduire les valeurs de la vitesse aux temps t = 2.5s et 42.5s.
5. Conclure.

Méthodes Numériques A. RTIBI 12


Différentiation et Intégration

I. Introduction
On a vu que la méthode d’interpolation permet d’évaluer la valeur d’une fonction en un point
quelconque situé entre deux points de collocation, [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛]. Dans ce
chapitre, il s’agit plutôt d’évaluer les dérivées de cette fonction de même que son intégrale
𝑥𝑛

𝑓 𝑥 𝑒𝑡 𝑓 𝑥 𝑑𝑥
𝑥0

II. Différentiation numérique


L’interpolation polynomiale de 𝑓 𝑥 donne : 𝑓 𝑥 = 𝑝𝑛 𝑥 + 𝐸𝑛 (𝑥)

𝑝𝑛 𝑥 , désignant le polynôme d’interpolation et 𝐸𝑛 (𝑥) l’erreur associée à cette interpolation.

𝑓 ′ 𝑥 = 𝑝𝑛′ 𝑥 + 𝐸𝑛′ 𝑥 𝑒𝑡 𝑓 ′′ 𝑥 = 𝑝𝑛′′ 𝑥 + 𝐸𝑛′′ 𝑥


Remarque
On dépasse rarement des dérivées d’ordre 4 car la différentiation numérique est un procédé
numériquement instable.

1. dérivées d’ordre 1
L’approximation des dérivées d’ordre 1 est une évaluation de la pente de la fonction 𝑓(𝑥).
L’ordre et la précision dépendent du polynôme d’interpolation qui peut être de degré plus ou
moins élevé. En fait, on montre que si on utilise un polynôme d’interpolation de degré n, la
dérivée de ce polynôme, évaluée en 𝑥 = 𝑥𝑖 , est une approximation d’ordre 𝑛 pour 𝑓 ′ 𝑥𝑖 .

 En formulation de Newton avec un polynôme de degré 1 passant par


[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1]

𝑝1 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0

𝑓 ′ 𝑥 = 𝑝1′ 𝑥 + 𝐸1′ 𝑥 = 𝑓 𝑥0 , 𝑥1 + 𝐸1′ 𝑥


𝑓 𝑥 1 −𝑓 𝑥 0
𝑓 ′ 𝑥0 = 𝑓 𝑥0 , 𝑥1 + 𝐸1′ 𝑥0 et 𝑓 ′ 𝑥1 = 𝑓 𝑥0 , 𝑥1 + 𝐸1′ 𝑥1 avec 𝑓 𝑥0 , 𝑥1 = 𝑥 1 −𝑥 0

La dérivée de la fonction en 𝑥0 et en 𝑥1 est respectivement une différence avant et arrière


d’ordre 1 (l’information est respectivement cherchée vers l’avant et l’arrière).

Remarque
La même différence divisée est une approximation de la dérivée à la fois en 𝑥 = 𝑥0 et en
𝑥 = 𝑥1 avec des termes d’erreurs différents.

 En formulation de Newton avec un polynôme de degré 2 passant par


[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1,2]

𝑝2 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1

Méthodes Numériques A. RTIBI 13


𝑝2′ 𝑥 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 2𝑥 − 𝑥0 − 𝑥1
𝑓 𝑥 1 ,𝑥 2 −𝑓 𝑥 0 ,𝑥 1
Avec 𝑓 𝑥0 , 𝑥1 , 𝑥2 = =
𝑥 2 −𝑥 0

𝑓 ′ 𝑥0 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥0 − 𝑥1 + 𝐸2′ 𝑥0

𝑓 ′ 𝑥1 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥1 − 𝑥0 + 𝐸2′ 𝑥1

𝑓 ′ 𝑥2 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 2𝑥2 − 𝑥0 − 𝑥1 + 𝐸2′ 𝑥2
Si on pose 𝑥2 − 𝑥1 = 𝑥1 − 𝑥0 = 𝑕
−𝑓 𝑥2 + 4𝑓 𝑥1 − 3𝑓 𝑥0
𝑓 ′ 𝑥0 = + 𝐸2′ 𝑥0 (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑎𝑣𝑎𝑛𝑡 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2𝑕
𝑓 𝑥2 − 𝑓 𝑥0
𝑓 ′ 𝑥1 = + 𝐸2′ 𝑥1 (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2𝑕
3𝑓 𝑥2 − 4𝑓 𝑥1 + 𝑓 𝑥0
𝑓 ′ 𝑥2 = + 𝐸2′ 𝑥2 (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑎𝑟𝑟𝑖è𝑟𝑒 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2𝑕
2. dérivées d’ordre supérieur
Les dérivées d’ordre supérieur à un posent un problème au niveau de l’analyse de l’erreur
𝐸𝑛 (𝑥). On contourne la difficulté en utilisant une approche basée sur des développements de
Taylor.
Le polynôme de degré 2 qui interpole une fonction passant par 3 points est :
𝑓 𝑥2 − 2𝑓 𝑥1 + 𝑓 𝑥0
𝑝2′′ 𝑥 = 2𝑓 𝑥0 , 𝑥1 , 𝑥2 =
𝑕2
𝑓 𝑥2 − 2𝑓 𝑥1 + 𝑓 𝑥0
𝑓 ′′ 𝑥0 = 𝑓 ′′ 𝑥1 = 𝑓 ′′ 𝑥2 = 𝑒𝑡 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑥 ∈ 𝑥0 , 𝑥2
𝑕2
Discussion sur l’ordre de cette approximation
Procédant par un développement de Taylor pour trouver l’ordre de l’approximation de
𝑓 ′′ 𝑥0 , 𝑓 ′′ 𝑥1 𝑒𝑡 𝑓 ′′ 𝑥2
On a
1 1
𝑔 𝑦 ± 𝑚𝑕 = 𝑔 𝑦 ± 𝑚𝑕𝑔′ 𝑦 + 𝑚𝑕 2 𝑔′′ 𝑦 ± 𝑚𝑕 3 𝑔′′′ 𝑦 + 𝑂(𝑕4 )
2 6
 ordre de l’approximation en 𝑥0

𝑓 𝑥0 + 2𝑕 − 2𝑓 𝑥0 + 𝑕 + 𝑓 𝑥0 𝑕2 𝑓 ′′ 𝑥0 + 𝑕3 𝑓 ′′′ 𝑥0 + 𝑂(𝑕4 )
=
𝑕2 𝑕2
′′ ′′′ 2 ′′
= 𝑓 𝑥0 + 𝑕𝑓 𝑥0 + 𝑂 𝑕 = 𝑓 𝑥0 + 𝑂 𝑕
L’approximation est d’ordre 1 de la dérivée seconde en 𝑥0

 ordre de l’approximation en 𝑥1

Méthodes Numériques A. RTIBI 14


𝑓 𝑥1 + 𝑕 − 2𝑓 𝑥1 + 𝑓 𝑥1 − 𝑕
= 𝑓 ′′ 𝑥1 + 𝑂 𝑕2
𝑕2
L’approximation est d’ordre 2 de la dérivée seconde en 𝑥1

 ordre de l’approximation en 𝑥2
𝑓 𝑥2 − 2𝑓 𝑥2 − 𝑕 + 𝑓 𝑥2 − 2𝑕
= 𝑓 ′′ 𝑥2 + 𝑂 𝑕
𝑕2
L’approximation est d’ordre 1 de la dérivée seconde en 𝑥2

Remarque
La symétrie des différences centrées a permis de gagner un ordre de précision.

3. Extrapolation de Richardson
C’est une technique qui permet d’améliorer la précision d’une méthode d’approximation
Désignons par 𝑄ap (h) une approximation numérique d’une quantité exacte 𝑄ex inconnue.
Généralement, plus le pas 𝑕 est petit plus l’approximation est précise.

Admettons que l’approximation est d’ordre 𝑛, i.e. :

𝑄ex = 𝑄ap 𝑕 + 𝑂 𝑕𝑛 = 𝑄ap 𝑕 + cn 𝑕𝑛 + cn+1 𝑕𝑛+1 + ⋯

Où cn sont des constantes qui dépendent de la méthode numérique utilisée.


La technique d’extrapolation de Richardson consiste à obtenir, à partir de l’approximation qui
est d’ordre n, une nouvelle approximation d’ordre au moins égal à (n + 1). Il suffit de
remplacer 𝑕 par 𝑕/2 dans l’équation précédente ce qui donne :
𝑛 𝑛+1
𝑄ex = 𝑄ap 𝑕/2 + cn 𝑕/2 + cn+1 𝑕/2 +⋯

Généralement, l’approximation 𝑄ap 𝑕/2 est plus précise que 𝑄ap h .

L’idée consiste à combiner les deux équations de façon à faire disparaître le terme cn 𝑕𝑛 qui
est d’ordre 𝑛.

2𝑛 𝑄ex = 2𝑛 𝑄ap 𝑕/2 + cn 𝑕𝑛 + cn+1 𝑕/2 𝑛+1


+⋯

1
2𝑛 − 1 𝑄ex = 2𝑛 𝑄ap 𝑕/2 − 𝑄ap 𝑕 − cn+1 𝑕𝑛+1 + ⋯
2
2𝑛 𝑄ap 𝑕/2 − 𝑄ap 𝑕
𝑄ex = + 𝑂(𝑕𝑛+1 )
2𝑛 − 1
L’extrapolation de Richardson permet ainsi de gagner au moins un ordre de précision. Si
cn+1 = 0 (cas souvent observé lorsqu’on utilise des différences centrées), l’approximation
devient d’ordre (𝑛 + 2).

Exemple
𝑓 𝑥 = 𝑒 𝑥 on a 𝑓 ′ 0 = 1 (résultat analytique).

Méthodes Numériques A. RTIBI 15


𝑒 0+𝑕 −𝑒 0
𝑓′ 0 = qui est une différence avant d’ordre 1.
𝑕

𝑒 0.1 −𝑒 0
Pour 𝑕 = 0.1 : 𝑓 ′ 0 = = 1.05170918 = 𝑄ap 0.1
0.1

𝑒 0.05 −𝑒 0
Pour 𝑕 = 0.05 : 𝑓 ′ 0 = = 1.02542192 = 𝑄ap 0.05
0.05

21 𝑄ap 0.05 −𝑄ap 0.1


En utilisant l’extrapolation de Richardson 𝑓 ′ 0 = = 0.99913466 qui est
21 −1
une approximation d’ordre 2.
𝑒 𝑕 −𝑒 −𝑕
Utilisons maintenant une différence centrée 𝑓 ′ 0 = qui est d’ordre deux.
2𝑕

𝑒 0.05 −𝑒 −005
Pour 𝑕 = 0.05 : 𝑓 ′ 0 = = 1.000416719 = 𝑄ap 0.05
2×0.05

𝑒 0.025 −𝑒 −0025
Pour 𝑕 = 0.025 : 𝑓 ′ 0 = = 1.00010418 = 𝑄ap 0.025
2×0.05

L’utilisation de la formule d’extrapolation de Richardson avec 𝑛 = 2, donne :

22 𝑄ap 0.025 − 𝑄ap 0.05


𝑓′ 0 = = 0.000000007
22 − 1
qui est une approximation d’ordre 4.

III. Intégration numérique


𝑥𝑛 𝑥𝑛 𝑥𝑛
𝑓 𝑥 𝑑𝑥 = 𝑝𝑛 𝑥 )𝑑𝑥 + 𝐸𝑛 (𝑥)𝑑𝑥
𝑥0 𝑥0 𝑥0

En faisant varier n, on obtient les formules de Newton-Cotes. Les numériciens se limitent en


pratique à des valeurs de 𝑛 ≤ 5.

1. Formules de Newton-Cotes simples et composées


a. Méthode des trapèzes
𝑓(𝑥)
En utilisant le polynôme de Newton de degré 1, 𝑝1 𝑥 ) on aura :
𝑥1 𝑥1
𝑓 𝑥 𝑑𝑥 ≈ 𝑝1 𝑥 )𝑑𝑥
𝑥0 𝑥0

𝑥1
= 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 𝑑𝑥 𝑥0 𝑥1
𝑥0

𝑥 1 −𝑥 0
𝑓(𝑥)
= 𝑓 𝑥0 + 𝑓 𝑥1 C’est l’aire du trapèze
2

La précision peut être améliorée si on décompose, par exemple,


l’intervalle d’intégration 𝑥0 , 𝑥𝑛 = 𝑎, 𝑏 en sous-intervalles de

𝑥0 𝑥𝑖 𝑥𝑖+1 𝑥𝑛

Méthodes Numériques A. RTIBI 16


𝑎−𝑏
longueur 𝑕 chacun, avec 𝑕 = et appliquer la méthode de trapèze chaque sous-intervalle
𝑛
𝑥𝑖 , 𝑥𝑖+1 :
𝑛−1 𝑛−1
𝑥𝑛 𝑥 𝑖+1
𝑕
𝑓 𝑥 𝑑𝑥 = 𝑓 𝑥 𝑑𝑥 ≈ 𝑓 𝑥𝑖 + 𝑓 𝑥𝑖+1
𝑥0 𝑥𝑖 2
𝑖=0 𝑖=0

𝑕
= 𝑓 𝑥0 + 2 𝑓 𝑥1 + ⋯ 𝑓 𝑥𝑛−1 + 𝑓 𝑥𝑛
2
qui est la formule des trapèzes composée.
On montre que la précision est d’ordre 2 pour la méthode des trapèzes composée.

Exemple
𝜋 2
𝑠𝑖𝑛𝑥 𝑑𝑥 = 1 (𝑣𝑎𝑙𝑒𝑢𝑟 𝑎𝑛𝑎𝑙𝑦𝑡𝑖𝑞𝑢𝑒 𝑒𝑥𝑎𝑐𝑡𝑒)
0

 Numériquement par la méthode des trapèzes simple (un intervalle) :


𝜋 2
𝜋 2
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 𝑠𝑖𝑛0 + 𝑠𝑖𝑛 𝜋 2 = 0.785398163
0 2

 Numériquement par la méthode des trapèzes composée (4 intervalles) :


𝜋 2
𝜋 8
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 𝑠𝑖𝑛0 + 2 𝑠𝑖𝑛 𝜋 8 + 𝑠𝑖𝑛 𝜋 4 + 𝑠𝑖𝑛 3𝜋 8 + 𝑠𝑖𝑛 𝜋 2 = 0.9871158
0 2

Soit une erreur de 0.012884


Numériquement par la méthode des trapèzes composée (8 intervalles) :
𝜋 2
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 0.9967852
0

dont l’erreur est 0.0032148 qui est environ quatre fois plus petite que celle obtenue avec 4
sous intervalles ; ce qui justifie que la méthode des trapèzes est d’ordre 2.
Pour obtenir une précision au moins égale à 3, on utilise la formule de Richardson avec
𝑛 = 2:
𝜋 2
22 0.9967852 − 0.9871158
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ = 1.000008333
0 22 − 1

valeur très proche de la valeur exacte

Remarque

 La méthode des trapèzes composée est d’ordre 2. La méthode des trapèzes simple,
bien qu’elle soit d’ordre 3, est rarement utilisée car elle est imprécise (on montre que

Méthodes Numériques A. RTIBI 17


𝑓 ′′ (𝜂)
le terme d’erreur, pour la méthode des trapèzes simple, est donné par – 2 𝑕3 avec
𝜂𝜖[𝑥0 , 𝑥1 ]
 La méthode des trapèzes donne un résultat exact si la fonction 𝑓(𝑥) est un polynôme
de degré 1 car, dans ce cas, la dérivée seconde s’annule dans le terme d’erreur.
b. Formule de Simpson 1/3
On utilise dans ce cas un polynôme de degré 2 dont la courbe passe par les 3 points
[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1,2]

𝑝2 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1
𝑥2 𝑥2
𝑓 𝑥 𝑑𝑥 ≈ 𝑝2 𝑥 )𝑑𝑥
𝑥0 𝑥0

𝑥2
= 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1 𝑑𝑥
𝑥0

Pour 𝑕 = 𝑥1 − 𝑥0 = 𝑥2 − 𝑥1 on a :
𝑥2
𝑕
𝑓 𝑥 𝑑𝑥 ≈ 𝑓 𝑥0 + 4𝑓 𝑥1 + 𝑓(𝑥2 )
𝑥0 3

Exemple
𝜋 2
𝜋 4
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 𝑠𝑖𝑛0 + 4𝑠𝑖𝑛 𝜋 4 + 𝑠𝑖𝑛 𝜋 2 = 1.00227987
0 3

résultat plus précis que celui obtenu par la méthode des trapèzes simple. La précision de la
méthode de Simpson 1/3 peut être améliorée aussi par la décomposition de l’intervalle en sous
intervalles.( Simpson 1/3 composée)
Puisque la méthode de Simpson 1/3 requiert 2 intervalles, on divise l’intervalle d’intégration
[a, b] en 2n sous intervalles et on utilise la méthode Simpson 1/3 simple dans chaque paire de
sous intervalles. On obtient alors la méthode de Simpson 1/3 composée comme suit :
𝑛 𝑛
𝑥𝑛 𝑥 𝑖+1
𝑕
𝑓 𝑥 𝑑𝑥 = 𝑓 𝑥 𝑑𝑥 ≈ 𝑓 𝑥2𝑖 + 4𝑓 𝑥2𝑖+1 + 𝑓(𝑥2𝑖+2 )
𝑥0 𝑥𝑖 3
𝑖=0 𝑖=0

𝑕
= 𝑓 𝑥0 + 4𝑓 𝑥1 + 𝑓(𝑥2 ) + 𝑓 𝑥2 + 4𝑓 𝑥3 + 𝑓(𝑥4 )
3
+ ⋯ 𝑓 𝑥2𝑛−2 + 4𝑓 𝑥2𝑛−1 + 𝑓(𝑥2𝑛 )
𝑕
= 𝑓 𝑥0 + 4𝑓 𝑥1 + 𝑓(𝑥2 ) + 𝑓 𝑥2 + 4𝑓 𝑥3 + 𝑓(𝑥4 )
3
+ ⋯ 𝑓 𝑥2𝑛−2 + 4𝑓 𝑥2𝑛−1 + 𝑓(𝑥2𝑛 )
On remarque que tous les termes de rang pair / (impair) sont multipliés par 2 / (4) sauf le
premier et le dernier.

Exemple

Méthodes Numériques A. RTIBI 18


𝜋 2
𝑠𝑖𝑛𝑥 𝑑𝑥
0

Quatre sous intervalles de longueur 𝑕 = 𝜋 8


𝜋 2
𝜋 8
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 𝑠𝑖𝑛0 + 4𝑠𝑖𝑛 𝜋 8 + 2𝑠𝑖𝑛 𝜋 4 + 4𝑠𝑖𝑛 3𝜋 8 + 𝑠𝑖𝑛 𝜋 2 = 1.0001346
0 3
𝜋 2
Avec 8 sous intervalles, 𝑕 = 𝜋 16 , 0
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 1.000008296

En examinant les différences : 1 − 1.0001346 = 0.0001346 et 1 − 1.000008296 =


0.000008296
Ainsi, lorsqu’on passe de 4 à 8 intervalles, l’erreur est divisée par 16 ce qui confirme que la
méthode est précise d’ordre 4 qu’on peut encore améliorer en utilisant l’extrapolation de
Richardson :
En utilisant l’extrapolation de Richardson :
𝜋 2
24 1.000008296 − 1.0001346
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ = 0.999999876
0 24 − 1

résultat précis au moins à l’ordre 5

c. Formule de Simpson 3/8


Si on utilise un polynôme de degré 3 passant, dans l’intervalle [𝑥0 , 𝑥3 ] , par les points,
[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1,2] on obtient la formule de Simpson 3/8 qui est donnée par :
𝑛 𝑛
𝑥𝑛 𝑥 𝑖+3
3𝑕
𝑓 𝑥 𝑑𝑥 = 𝑓 𝑥 𝑑𝑥 ≈ 𝑓 𝑥3𝑖 + 3𝑓 𝑥3𝑖+1 + 3𝑓 𝑥3𝑖+2 + 𝑓 𝑥3𝑖+3
𝑥0 𝑥𝑖 8
𝑖=0 𝑖=0

3𝑕
= 𝑓 𝑥0 + 3𝑓 𝑥1 + 3𝑓 𝑥2 + 2𝑓 𝑥3 + 3𝑓 𝑥4 + ⋯ + 2𝑓 𝑥3𝑛−3 + 3𝑓 𝑥3𝑛−2
8
+ 3𝑓 𝑥3𝑛−1 + 𝑓 𝑥3𝑛
Remarque
La méthode de Simpson 3/8 est beaucoup moins utilisée que celle de Simpson 1/3.

Méthodes Numériques A. RTIBI 19


Travaux Pratiques (à rendre)

But

Mettre en application le contenu du chapitre pour évaluer numériquement l’intégrale d’une


fonction. Travail à exécuter

Evaluer numériquement :
1
𝑓 𝑥 𝑑𝑥
0

en utilisant les méthodes des trapèzes et de Simpson 1/3 composées en utilisant 9 nœuds et 17
nœuds. Utiliser l’extrapolation de Richardson pour les deux méthodes. Conclure.

On donne 𝑓 𝑥 = 4𝑥 3 + 3𝑥 2 + 2𝑥 + 1.

Méthodes Numériques A. RTIBI 20


Equations non linéaires

I. Introduction
Dans ce chapitre, on passera en revue les principales méthodes numériques utilisées pour
trouver une racine d’une équation non linéaire. On examinera les spécificités et le
comportement de chaque méthode. Il s’agit donc de décrire quelques méthodes pour résoudre
numériquement une équation de la forme :

𝑓 𝑥 =0
Les méthodes proposées sont itératives construisant une suite (𝑥𝑛 ) vérifiant à la fin
lim𝑛→∞ 𝑥𝑛 = 𝑟 . Le but consiste donc à chercher une valeur de 𝑥, notée 𝑟, racine ou zéro de
la fonction 𝑓(𝑥). En règle générale, lorsque plusieurs solutions sont possibles, il est difficile
de prévoir à l’avance vers quelle racine r une méthode itérative converge. Si on tombe sur une
racine non souhaitée, on doit recommencer l’algorithme avec un autre point de départ
(estimation initiale de la solution). Il est à noter que le recours aux méthodes numériques
devient une alternative incontournable en l’absence de solution analytique ou lorsque
l’obtention de cette dernière nécessite des développements mathématiques complexes.

II. Méthode des points fixes


L’un des avantages de cette méthode est le fait qu’elle s’applique pour la résolution d’un
système d’équations.

Définition : Un point fixe pour une fonction 𝑔(𝑥) est une valeur de 𝑥 invariante pour cette
fonction, i.e. toute solution de 𝑔 𝑥 = 𝑥 est un point fixe pour la fonction 𝑔(𝑥).

Exemple
Pour la fonction 𝑥 = 𝑥 3 , les valeurs 0, 1 et −1 sont des points fixes pour 𝑔. Pour établir un
algorithme permettant de déterminer les points fixes, on effectue les opérations de la forme
suivante :

- On se donne 𝑥0 et on construit l’algorithme 𝑥𝑛+1 = 𝑔 𝑥𝑛

Où 𝑥0 est une valeur estimée initialement ; elle est ‘quelconque’ à priori. L’algorithme
construit est général et son importance réside dans la relative facilité avec laquelle on analyse
la convergence.

 Algorithme des points fixes


1. Données : 𝜀 (critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0 est une
estimation initiale du point fixe.
2. On effectue 𝑥𝑛 +1 = 𝑔 𝑥𝑛
𝑥 −𝑥
3. 𝑛𝑥+1 𝑛 < 𝜀
𝑛 +1
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑛+1
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations

Méthodes Numériques A. RTIBI 21


Arrêt du programme
b. Non⇒ Retour à l’étape 2.

La résolution d’une équation non linéaire de la forme 𝑓 𝑥 = 0 nécessite sa transformation en


un problème équivalent de la forme 𝑔 𝑥 = 𝑥. Cette transformation n’est pas unique ; il existe
une infinité de façons différentes de faire cette transformation et toutes les transformations ne
conduisent pas nécessairement à la solution recherchée.

Exemple
Considérons l’équation 𝑓 𝑥 = 𝑥 3 + 𝑥 − 1 = 0 , Il existe plusieurs façons de transformer
𝑓(𝑥) sous la forme ) 𝑔 𝑥 = 𝑥. On propose à titre indicatif les transformations suivantes :
3 1
−𝑥 3 + 1 = 𝑥 1−𝑥 =𝑥 𝑥=
1 + 𝑥2
Toutes les transformations précédentes sont possibles (elles ne sont pas les seules) mais on
verra et on comprendra plus tard qu’elles ne sont pas équivalentes pour les performances de la
méthode des points fixes.

Remarque
Seuls certains choix conduisent à des algorithmes convergents. Ainsi, selon le choix de la
fonction itérative 𝑔(𝑥) et de la valeur initiale 𝑥0 , l’algorithme des points fixes peut converger
ou carrément diverger. D’où l’intérêt d’étudier les conditions de convergence de cette
méthode.

1. Convergence de la méthode des points fixes (MPF)


Considérons 𝑟 une racine de 𝑓 i.e. 𝑓 𝑟 = 0 et 𝑔 𝑟 = 𝑟 (condition supplémentaire vérifiée
par 𝑟). Ainsi, 𝑟 est solution de la fonction 𝑓(𝑥) et en même temps un point fixe de la fonction
𝑔(𝑥). A l’étape 𝑛, on définit l’erreur par :

𝑒𝑛 = 𝑥𝑛 − 𝑟
Question : Sous quelles conditions, l’algorithme des points fixes converge-t-il vers la racine ?
Si la convergence a lieu, l’erreur en va tendre vers 0 lorsque 𝑛 devient suffisamment grand.
Examinons comment évolue l’erreur.

𝑒𝑛+1 = 𝑥𝑛+1 − 𝑟 = 𝑔 𝑥𝑛 − 𝑔(𝑟)

Procédons à un développement en séries de Taylor de 𝑔(𝑥) autour de 𝑟 :


1 ′′ 1
𝑔 𝑒𝑛 + 𝑟 = 𝑔 𝑟 + 𝑔′ 𝑟 𝑒𝑛 + 𝑔 𝑟 𝑒𝑛2 + 𝑔′′′ 𝑟 𝑒𝑛3 + ⋯.
2! 3!
1 ′′ 1
𝑒𝑛+1 = 𝑔 𝑥𝑛 − 𝑔 𝑟 = 𝑔 𝑒𝑛 + 𝑟 − 𝑔 𝑟 = 𝑔′ 𝑟 𝑒𝑛 + 𝑔 𝑟 𝑒𝑛2 + 𝑔′′′ 𝑟 𝑒𝑛3 + ⋯.
2! 3!
Si 𝑔′ 𝑟 ≠ 0 alors au premier ordre on a : 𝑒𝑛+1 ≈ 𝑔′ 𝑟 𝑒𝑛

Cette relation renseigne sur la vitesse avec laquelle l’erreur diminue. En fait, plus 𝑔′ 𝑟 est
petit, plus la convergence est rapide.

Ainsi, à l’étape de calcul 𝑛 + 1 , l’erreur est directement proportionnelle à l’erreur


correspondant à l’étape 𝑛. Cette erreur diminue si 𝑔′ 𝑟 < 1. Cette condition est nécessaire

Méthodes Numériques A. RTIBI 22


pour la convergence d’une méthode de points fixes. De plus, si : −1 < 𝑔′ 𝑟 < 0 , l’erreur
va changer de signe à chaque itération et les valeurs de 𝑥𝑛 vont osciller de part et d’autre de 𝑟.

Définitions

 Le taux de convergence d’une méthode de points fixes est donné par 𝑔′ 𝑟 , Lorsqu’il
est nul l’erreur est proportionnelle à 𝑒𝑛2 dans le cas où 𝑔′′ 𝑟 ≠ 0
 Une méthode de points fixes converge à l’ordre 𝑝 si 𝑒𝑛+1 ≈ 𝑐 𝑒𝑛 𝑝 où 𝑐 est une
constante.

La convergence d’ordre 1 est dite linéaire, celle d’ordre 2 est dite quadratique.

Remarques

 Si 𝑔′ 𝑟 < 1 et 𝑔′ 𝑟 ≠ 0, la convergence de la MPF est dite d’ordre 1.


 Si 𝑔′ 𝑟 = 0 et 𝑔′′ 𝑟 ≠ 0,, la convergence sera dite quadratique.
 Si 𝑔′ 𝑟 = 𝑔′′ 𝑟 = 0 et 𝑔′′′ 𝑟 ≠ 0,, la convergence sera dite d’ordre 3
 La convergence d’une MPF dépend du choix de 𝑥0 (valeur initiale). En fait, un
mauvais choix de 𝑥0 peut conduire à un algorithme divergent même si la condition
𝑔′ 𝑟 < 1 est satisfaite.

Définitions

 Le bassin d’attraction de la racine 𝑟 pour la MPF 𝑥𝑛+1 = 𝑔 𝑥𝑛 est l’ensemble des


valeurs initiales 𝑥0 pour lesquelles 𝑥𝑛 tend vers 𝑟 lorsque 𝑛 → ∞

Le bassin d’attraction de la racine r comprend donc tous les points 𝑥0 pour lesquels la
méthode des points fixes converge vers la racine 𝑟.

On pourra avoir recours à une méthode graphique pour choisir 𝑥0 aussi près que possible de r.

 Un point fixe 𝑟 de la fonction 𝑔(𝑥) est dit attractif si 𝑔′ 𝑟 < 1 , répulsif si


𝑔′ 𝑟 > 1 et indéterminé si 𝑔′ 𝑟 = 1

Exemple
Considérons 𝑔 𝑥 = 𝑥 3 qui possède les trois points fixes 0, ±1. Or, les points fixes 𝑥 = ±1
sont répulsifs car 𝑔′ ±1 = 3 Le point fixe 𝑥 = 0 est plus intéressant car 𝑔′ 0 = 0 c’est
donc un point fixe attractif. La suite des valeurs engendrées par la MPF à partir de
𝑥0 , 𝑥0 3 , 𝑥0 9 , 𝑥0 27 , … .. Cette suite converge vers 0 si 𝑥0 ∈ −1, 1 Ainsi, l’intervalle est le
bassin d’attraction du point fixe 0 Un choix de 𝑥0 à l’extérieur de cet intervalle conduit à
une divergence de l’algorithme.

Remarques

 Le bassin d’attraction d’un point fixe répulsif se réduit à 𝑟 (un seul point qui est la
racine).
 Dans le cas où 𝑔′ 𝑟 = 1, s’il y a convergence, celle-ci serait extrêmement lente.

2. Extrapolation d’Aitken

Méthodes Numériques A. RTIBI 23


C’est une extrapolation qui permet d’améliorer la convergence d’une MPF. En effet, elle
permet, à partir d’une MPF convergente à l’ordre 1, d’obtenir une méthode convergente à
l’ordre 2.

Pour une convergence d’ordre 1, on a :


𝑒2 ≈ 𝑔′ 𝑟 𝑒1 𝑒2 𝑒1
′ ⇒ ≈
𝑒1 ≈ 𝑔 𝑟 𝑒0 𝑒1 𝑒0
C'est-à-dire
𝑥2 − 𝑟 𝑥1 − 𝑟

𝑥1 − 𝑟 𝑥0 − 𝑟

𝑥2 𝑥0 − 𝑥1 2
𝑟≈
𝑥2 − 2𝑥1 + 𝑥0
Cette formule a été trouvée numériquement instable. A la place, on utilise la formule
équivalente suivante :

𝑥2 − 𝑥0 2
𝑟 ≈ 𝑥0 −
𝑥2 − 2𝑥1 + 𝑥0
Cette formule est dite formule d’extrapolation d’Aitken. Elle permet d’avoir, à partir de 𝑥0 , 𝑥1
et 𝑥2 , une meilleure approximation du point fixe 𝑟. Il en résulte un algorithme qui accélère
efficacement la convergence d’une MPF : c’est l’algorithme de Steffenson.

Algorithme de Steffenson
1. Données : 𝜀 (critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0 est une
estimation initiale du point fixe.
2. On effectue 𝑥1 = 𝑔 𝑥0
𝑥2 = 𝑔 𝑥1
𝑥 2 −𝑥 0 2
𝑥𝑒 = 𝑥0 − 𝑥
2 −2𝑥 1 +𝑥 0
𝑥 𝑒 −𝑥 0
3. <𝜀
𝑥𝑒
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑒
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ passage à l’étape 5.
5. On effectue le changement 𝑥0 = 𝑥𝑒 et on retourne à l’étape 2.

III. Méthode de Newton


La méthode de Newton compte parmi les méthodes les plus utilisées pour la résolution des
équations non linéaires Soit 𝑓(𝑥) l’équation non linéaire à résoudre et considérons une
estimation initiale 𝑥0 de la solution, on cherche une correction 𝛿𝑥 telle que :

Méthodes Numériques A. RTIBI 24


𝑓 𝑥0 + 𝛿𝑥 = 0
Un développement de Taylor de f au voisinage de 𝑥0 permet d’écrire :
1 ′′ 1
0 = 𝑓 𝑥0 + 𝑓 ′ 𝑥0 𝛿𝑥 + 𝑓 𝑥0 𝛿𝑥 2 + 𝑓 ′′′ 𝑥0 𝛿𝑥 3 + ⋯.
2! 3!
En négligeant les termes d’ordre supérieur ou égal à 2 en 𝛿𝑥, on obtient :

0 ≈ 𝑓 𝑥0 + 𝑓 ′ 𝑥0 𝛿𝑥
En isolant la correction recherchée, on obtient :
𝑓 𝑥0
𝛿𝑥 = −
𝑓 ′ 𝑥0
En fait, 𝛿𝑥 est la correction qu’on devrait ajouter à 𝑥0 pour annuler exactement la fonction
𝑓(𝑥). Cette correction n’est pas parfaite puisque les termes d’ordre supérieur ou égal à 2 ont
été négligés. On pose alors 𝑥1 = 𝑥0 + 𝛿𝑥 et on recommencera le processus en cherchant à
corriger 𝑥1 d’une nouvelle quantité 𝛿𝑥. D’où l’algorithme suivant :

Algorithme de la méthode de Newton


1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0
𝑓 𝑥
2. On effectue 𝑥𝑛 +1 = 𝑥𝑛 − 𝑓 ′ 𝑥𝑛
𝑛
𝑥 𝑛 +1 −𝑥 𝑛
3. <𝜀
𝑥 𝑛 +1
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑛+1
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

Remarque
𝑓 𝑥
L’algorithme de la méthode de Newton est un cas particulier de la MPF où 𝑔(𝑥) = 𝑥 − 𝑓 ′ 𝑥

1. Interprétation géométrique
𝑓(𝑥)
La droite tangente à la courbe en 𝑥0 , 𝑓 𝑥0 admet pour
pente 𝑓 ′ 𝑥0 et son équation est 𝑦 = 𝑓 𝑥0 + 𝑓 ′ 𝑥0 (𝑥 − 𝑥0 )
; elle correspond donc à un développement de Taylor à
l’ordre 1 autour de 𝑥0 et coupe l’axe 𝑂𝑥 en 𝑥1 (valeur de 𝑥
𝑓 𝑥 𝑥𝑖+1 𝑥𝑖
qui annule 𝑦) , 𝑥1 = 𝑥0 − 𝑓 ′ 𝑥0
0

Ainsi, 𝑥1 devient la nouvelle valeur estimée de la solution. On procèdera de manière analogue


avec le point (𝑥1 , 𝑓(𝑥1 )) de la courbe et ainsi de suite jusqu’à l’atteinte de la convergence.

2. Analyse de la convergence

Méthodes Numériques A. RTIBI 25


Puisque la méthode de Newton est un cas particulier de la méthode des points fixes avec
𝑓 𝑥
(𝑥) = 𝑥 − 𝑓 ′ 𝑥 , la convergence dépend donc de 𝑔′ 𝑟 .

Evaluons la dérivée de g :


𝑓 𝑥 𝑓 ′′ 𝑥
𝑔 𝑥 = 2
𝑓′ 𝑥

De plus, 𝑔′ 𝑟 = 0 puisque 𝑓 𝑟 = 0 et la convergence est au moins quadratique.

Remarque
Dans le cas où 𝑓 ′ 𝑟 est également nul, 𝑔′ 𝑟 pourrait être différent de zéro. Pour s’assurer de
la convergence quadratique (en général) de la méthode de Newton, il suffit de calculer 𝑔′′ 𝑟 .
2 2
𝑓′ 𝑥 𝑓 ′ 𝑥 𝑓 ′′ 𝑥 + 𝑓 𝑥 𝑓 ′′′ 𝑥 − 2𝑓 𝑥 𝑓 ′ (𝑥) 𝑓 ′′ 𝑥
𝑔′′ 𝑥 = 4
𝑓′ 𝑥

En tenant compte du fait que 𝑓(𝑟) = 0, on obtient :


𝑓 ′′ 𝑟
𝑔′′ 𝑟 =
𝑓′ 𝑟
Ce rapport n’a, à priori, aucune raison d’être nul en général.

Calculons l’erreur à l’itération 𝑛 + 1 :


𝑔′′ 𝑟 2 𝑓 ′′ 𝑟 2
𝑒𝑛+1 = 𝑒𝑛 = ′ 𝑒
2 2𝑓 𝑟 𝑛
qui montre bien que la convergence est au moins quadratique si 𝑓 ′ 𝑟 ≠ 0.

Remarque
Un mauvais choix de la valeur de 𝑥0 peut provoquer la divergence de la méthode de Newton.

3. Cas des racines multiples


Lorsque la convergence est lente, la raison est souvent due à la multiplicité d’une solution.

Définition
Une racine 𝑟 de 𝑓(𝑥) est dite de multiplicité m si la fonction 𝑓(𝑥) peut s’écrire sous la forme :
𝑚
𝑓 𝑥 = 𝑥−𝑟 𝑕 𝑥 𝑎𝑣𝑒𝑐 𝑕 𝑥 ≠ 0
Théorème
Une racine 𝑟 est de multiplicité 𝑚, 𝑚 ∈ ℕ∗ si et seulement si :

𝑓 ′ 𝑟 = 𝑓 ′ 𝑟 = 𝑓 ′ 𝑟 = ⋯ . = 𝑓 𝑚 −1 𝑟 = 0 𝑒𝑡 𝑓 𝑚 𝑟 ≠ 0
Démonstration

Méthodes Numériques A. RTIBI 26


Il suffit d’effectuer un développement de 𝑓(𝑥) autour de 𝑟.

Que se passe-t-il si on applique la méthode de Newton dans le cas d’une fonction 𝑓 admettant
une racine multiple ?
𝑓 𝑥 𝑓 ′′ 𝑥
Pour cela calculons : 𝑔′ 𝑥 = 2
𝑓′ 𝑥

𝑚
De plus, en présence d’une racine de multiplicité m, on a : 𝑓 𝑥 = 𝑥 − 𝑟 𝑕 𝑥

𝑓′ 𝑥 = 𝑚 𝑥 − 𝑟 𝑚 −1
𝑕 𝑥 + 𝑥−𝑟 𝑚 ′
𝑕 𝑥

𝑓 ′′ 𝑥 = 𝑚 𝑚 − 1 𝑥 − 𝑟 𝑚 −2
𝑕 𝑥 + 2𝑚 𝑥 − 𝑟 𝑚 −1 ′
𝑕 𝑥 + 𝑥−𝑟 𝑚 ′′
𝑕 𝑥

𝑕 𝑥 𝑚 𝑚 − 1 𝑕 𝑥 + 2𝑚 𝑥 − 𝑟 𝑕′ 𝑥 + 𝑥 − 𝑟 2 𝑕′′ 𝑥
𝑔′ 𝑥 = 2
𝑚𝑕 𝑥 + (𝑥 − 𝑟)𝑕′ 𝑥

𝑕 𝑟 𝑚 𝑚−1 𝑕 𝑟
𝑔′ 𝑟 = 2
𝑚𝑕 𝑟

Interprétation

 Si 𝑚 = 1(cas d’une racine simple) alors 𝑔′ 𝑟 = 0, i.e. la convergence est quadratique


1
 Si 𝑚 ≠ 1, la convergence est linéaire avec un taux de convergence égal à 1 − 𝑚 .
 Plus 𝑚 est grand, plus la convergence est lente (𝑔′ 𝑟 s’approche de plus en plus de 1
qui représente un cas indéterminé).
Dans le cas d’une solution multiple, il existe un moyen pour récupérer la convergence
quadratique. Il suffit de transformer le problème posé en un problème équivalent admettant
les mêmes racines mais dont la multiplicité est égale à 1.
𝑓 𝑥
𝑢 𝑥 =
𝑓′ 𝑥
La fonction 𝑢(𝑥) peut s’écrire également sous la forme:
𝑥 − 𝑟 𝑚𝑕 𝑥 𝑥−𝑟 𝑕 𝑥
𝑢 𝑥 = =
𝑚 𝑥 − 𝑟 𝑚 −1 𝑕 𝑥 + 𝑥 − 𝑟 𝑚 𝑕′ 𝑥 𝑚𝑕 𝑥 + 𝑥 − 𝑟 𝑕′ 𝑥
Les fonctions 𝑓(𝑥) et 𝑢(𝑥) admettent les mêmes racines mais r est une racine simple pour
1
𝑢(𝑥). Comme 𝑕 𝑟 ≠ 0 on a 𝑢 𝑟 = 0 et 𝑢′ 𝑟 = 𝑚 .

Ainsi, l’algorithme de Newton, appliqué à la fonction 𝑢(𝑥), conduit à la relation :


𝑢 𝑥𝑛 𝑓 𝑥𝑛 𝑓 ′ 𝑥𝑛
𝑥𝑛+1 = 𝑥𝑛 − = 𝑥𝑛+1 = 𝑥𝑛 − 2
𝑢′ 𝑥𝑛 𝑓 ′ 𝑥𝑛 − 𝑓 𝑥𝑛 𝑓 ′′ 𝑥𝑛

dont l’utilisation requiert la connaissance de 𝑓(𝑥), 𝑓 ′ 𝑥 et 𝑓 ′′ 𝑥

Remarque

Méthodes Numériques A. RTIBI 27


La convergence quadratique de la méthode de Newton, exige de connaître à l’avance la
multiplicité m de la racine recherchée ce qui n’est pas évident en pratique.

IV. Méthode de la sécante


Lorsque la dérivée 𝑓 ′ 𝑥 est difficile à évaluer ou lorsqu’elle conduit à une expression
complexe, on peut contourner la difficulté en remplaçant le calcul de la pente 𝑓 ′ 𝑥𝑛 de la
droite tangente à la courbe par l’expression :
𝑓 𝑥𝑛 − 𝑓 𝑥𝑛−1
𝑓 ′ 𝑥𝑛 ≈
𝑥𝑛 − 𝑥𝑛 −1
Interprétation géométrique de la méthode de la sécante (voir figure au tableau). La droite
sécante passant par les points 𝑥𝑛 , 𝑓 𝑥𝑛 et 𝑥𝑛−1 , 𝑓 𝑥𝑛−1 est utilisée au lieu de la droite
tangente passant par 𝑥𝑛 , 𝑓 𝑥𝑛 .

Algorithme de la méthode de la sécante


1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations), 𝑥0 et 𝑥1 .
𝑓 𝑥 𝑥 −𝑥
2. On effectue 𝑥𝑛 +1 = 𝑥𝑛 − 𝑓 𝑥𝑛 −𝑓𝑛 𝑥 𝑛 −1
𝑛 𝑛 −1
𝑥 𝑛 +1 −𝑥 𝑛
3. <𝜀
𝑥 𝑛 +1
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑛+1
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

Remarque

 La dérivée de 𝑓(𝑥) n’apparaît plus dans l’algorithme.


 Deux valeurs initiales sont indispensables pour cette méthode (algorithme à deux pas).
 La convergence est plus que linéaire et moins que quadratique. On montre que
1.618
𝑒𝑛+1 ≈ 𝑐 𝑒𝑛
V. Méthode de la bissection ou Dichotomie
Cette méthode repose sur l’idée suivante :

Puisque 𝑓 𝑟 = 0 et si 𝑥1 , 𝑥2 sont tels que 𝑥1 < 𝑟 < 𝑥2 , alors 𝑓 1 . 𝑓 𝑥2 < 0. Ceci signifie

que 𝑓(𝑥) change de signe dans l’intervalle [𝑥1 , 𝑥2 ]. On pose,


𝑥1 + 𝑥2
𝑥𝑚 =
2
Entre les intervalles [𝑥1 , 𝑥𝑚 ] et [𝑥𝑚 , 𝑥2 ] on choisit celui dans lequel la fonction 𝑓(𝑥) change
de signe ; la racine 𝑟 s’y trouve nécessairement. Si, par exemple, la fonction change de signe

Méthodes Numériques A. RTIBI 28


dans l’intervalle [𝑥1 , 𝑥𝑚 ], on fait le changement 𝑥𝑚 = 𝑥2 , on considère le nouveau intervalle
[𝑥1 , 𝑥2 ] et on reprend le processus.

Algorithme de la méthode de la bissection


1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations), 𝑥1 , 𝑥2 pour lequel la
fonction 𝑓(𝑥) change de signe.
𝑥 +𝑥
2. On effectue 𝑥𝑚 = 1 2 2
𝑥 1 −𝑥 2
3. <𝜀
2 𝑥𝑚
a. oui⇒ Convergence atteinte
Écriture de la racine 𝑥𝑚
Écriture de 𝑓(𝑥𝑚 )
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. Ecriture de 𝑥1 , 𝑥2 , 𝑥𝑚 , 𝑓(𝑥1 ), 𝑓(𝑥2 ), 𝑓(𝑥𝑚 )
5. Si 𝑓(𝑥1 ). 𝑓(𝑥𝑚 ) < 0 alors 𝑥2 = 𝑥𝑚
6. Si 𝑓(𝑥2 ). 𝑓(𝑥𝑚 ) < 0 alors 𝑥1 = 𝑥𝑚
7. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

Remarque

 La longueur de l’intervalle entourant la racine est divisée par deux à chaque itération.
Cette observation va permettre d’estimer à l’avance le nombre d’itérations nécessaires
pour obtenir une erreur absolue △ 𝑟 sur la racine 𝑟.

Soit 𝑥1 − 𝑥2 la longueur de l’intervalle de départ. Après 𝑛 itérations, cette longueur se


réduit à
𝑥1 − 𝑥2
2𝑛
𝑥 −𝑥
𝑥 1 −𝑥 2 ( 1 2)
ln ⁡
Le nombre n d’itérations nécessaires pour avoir <△ 𝑟 tel que 𝑛 > △𝑟
. En
2𝑛 ln ⁡
(2)
pratique, on considère la plus petite valeur de n vérifiant cette condition.

 Si la fonction 𝑓(𝑥) s’annule et ne change pas de signe, la méthode de la bissection ne


s’applique pas.
 Si le nombre de racines est pair dans l’intervalle, il n’y a pas de changement de signe
de la fonction.
 Si l’intervalle contient un nombre impair de racines, l’algorithme peut rencontrer des
difficultés pour converger vers une des racines.

Méthodes Numériques A. RTIBI 29


Travaux Pratiques (à rendre)
But
Trouver numériquement la solution d’une équation différentielle non linéaire par une des
techniques enseignées dans le cours.

Formulation
Soit la fonction 𝑓 𝑥 = 𝑒 −𝑥 − 𝑥 = 0.

 En transformant cette équation en un problème de points fixes défini par 𝑥 =


𝑒 −𝑥 = 𝑔(𝑥), chercher numériquement la racine de 𝑓(𝑥) en utilisant la méthode
des points fixes et l’algorithme de Steffenson. On démarre les calculs à partir de
𝑥0 = 0.
 Conclure.
 Essayer d’autres valeurs de 𝑥0 .
 Trouver numériquement la racine de 𝑓 en utilisant les méthodes de la bissection
et de la sécante.

Méthodes Numériques A. RTIBI 30


Systèmes d’équations algébriques

I. Introduction

Un système d’équations linéaires est un ensemble d’équations portant sur les mêmes
inconnues. En général, un système de n équations linéaires à n inconnues peut être écrit sous
la forme suivante :

𝑎11 𝑥1 𝑎12 𝑥2 … 𝑎1𝑛 𝑥𝑛 = 𝑏1


𝑎21 𝑥1 𝑎22 𝑥2 … 𝑎2𝑛 𝑥𝑛 = 𝑏2
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑥1 𝑎𝑛2 𝑥2 … 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛

On peut utiliser la notation matricielle, qui est beaucoup plus pratique et surtout plus
compacte. On écrit alors le système sous la forme matricielle : 𝐴𝑥 = 𝑏

Les méthodes de résolution des systèmes linéaires se groupent dans deux grandes catégories :

 Les méthodes directes : une méthode est dite directe si elle permet d’obtenir la
solution exacte du système en un nombre fini d’opérations élémentaires ×, +, −,÷ .
 Les méthodes itératives : une méthode est dite itérative si elle permet de construire une
suite 𝑥𝑛 qui converge vers la solution 𝑥 du système.

Ce chapitre se limitera à la première catégorie.

II. Méthode de résolution pour les systèmes triangulaires inférieurs et supérieurs

𝑎11 0 … 0 𝑎11 𝑎21 … 𝑎𝑛1


𝑎21 𝑎22 … 0 0 𝑎22 … 𝑎𝑛2
⋮ ⋮ ⋮ ⋮ ⋮ 0 ⋮ ⋮
⋮ ⋮ ⋮ 0 ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 0 0 … 𝑎𝑛𝑛

Matrice triangulaire inférieure Matrice triangulaire supérieure


𝑛
Si une matrice A est triangulaire alors det 𝐴 = 𝑖=1 𝑎𝑖𝑖 . On en déduit que A est inversible si
et seulement si 𝑎𝑖𝑖 ≠ 0 𝑝𝑜𝑢 𝑡𝑜𝑢𝑡 𝑖 = 1, … , 𝑛

Dans ce cas la solution du système est :

𝑥1 = 𝑏1 𝑎11 𝑥𝑛 = 𝑏𝑛 𝑎𝑛𝑛
𝑖−1 𝑛
𝑗 =1 𝑎𝑖𝑗 𝑥𝑗 𝑗 =𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 = 𝑏𝑖 − 𝑥𝑖 = 𝑏𝑖 −
𝑎𝑖𝑖 𝑎𝑖𝑖

Matrice triangulaire inférieure Matrice triangulaire supérieure

résolution par descente (résolution par remontée)

Méthodes Numériques A. RTIBI 31


Remarque

Dans le cas d’une matrice diagonale 𝐷 = (𝑑𝑖𝑖 ), 𝑥𝑖 = 𝑏𝑖 𝑑𝑖𝑖

III. Méthode d’élimination de Gauss

Cette méthode consiste à utiliser des opérations élémentaires sur le système pour rendre la
matrice 𝑎𝑖𝑗 triangulaire supérieure.

𝑎11 𝑎12 … 𝑎12 𝑏1


𝑎21 𝑎22 … 𝑎2𝑛 𝑏2
On appelle matrice augmentée la matrice ⋮ ⋮ ⋮ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 𝑏𝑛

Toute les opérations qui seront effectuer sur la ma matrice 𝑎𝑖𝑗 affecteront la matrice
unicolonne (𝑏𝑖 )

Exemple

2 1 2 𝑥1 10
6 4 0 𝑥2 = 26 𝐴𝑥 = 𝑏
8 5 1 𝑥3 35
2 1 2 10
La matrice augmentée est : 6 4 0 26 = (𝐴, 𝑏)
8 5 1 35
𝑎11 = 2 ≠ 0, s’appelle premier pivot de l’élimination de Gauss. On effectue alors pour toute
ligne 𝐿𝑖 𝑝𝑜𝑢𝑟 𝑖 ≥ 2 :
𝑎𝑖1
𝐿𝑖 ⟵ 𝐿𝑖 − 𝐿
𝑎11 1

𝑚𝑖1 = 𝑎𝑖1 𝑎11 ∶ 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑒𝑢𝑟 , il sert pour éliminer l’inconnu 𝑥1 des lignes 𝑖 ≥ 2 en leur
retranchant 𝑚𝑖1 fois la première ligne. 𝑚21 = 3 et 𝑚31 = 4

2 1 2 10
On obtient : 0 1 −6 −4
0 1 −7 −5
Le deuxième pivot est 1. On effectue la transformation :

1
𝐿3 ⟵ 𝐿3 − 𝐿2 𝑚32 = 1
1
2 1 2 10
0 1 −6 −4 = (𝑈, 𝑏𝑚 )
0 0 −1 −1

Méthodes Numériques A. RTIBI 32


𝑥1 = 3
La solution est donc : 𝑥2 = 2
𝑥3 = 1

Remarque

Si 𝑎11 = 0 on permute les lignes dans A de façon à avoir 𝑎11 ≠ 0

IV. Méthode de décomposition LU

Le principe de la méthode est de se ramener à deux systèmes triangulaires. On cherche à


décomposer la matrice 𝐴 en deux matrices 𝐿 (triangulaire inférieure) et 𝑈 (triangulaire
supérieure) telles que le produit 𝐿𝑈 soit égal à 𝐴.

Si la matrice 𝐴 peut s’écrire sous la forme 𝐴 = 𝐿𝑈, où 𝐿 et 𝑈 sont des matrices triangulaires
inférieure et supérieure respectivement, alors le système 𝐴𝑥 = 𝑏 peut se décomposer en deux
sous-systèmes 𝐿𝑦 = 𝑏 et 𝑈𝑥 = 𝑦.

Les matrices 𝐿 et 𝑈 étant triangulaires, la résolution de chacun de ces deux sous-systèmes est
immédiate :

𝐿𝑦 = 𝑏 : on calcule 𝑦𝑖 (Algorithme de descente), 𝑈𝑥 = 𝑦 : on calcule 𝑥𝑖 (Algorithme de


remontée).

Exemple :

La matrice de l’exemple précédent a nécessitée 3 transformations pour la triangulariser.

1 0 0 1 0 0 1 0 0
𝑇1 = −3 1 0 𝑇2 = 0 1 0 𝑇3 = 0 1 0
0 0 1 −4 0 1 0 −1 1
𝑈 = 𝑇3 𝑇2 𝑇1 𝐴 𝑒𝑡 𝐴 = 𝑇1−1 𝑇2−1 𝑇3−1 𝑈

1 0 0 1 0 0 1 0 0
𝑇1−1 = 3 1 0 𝑇2−1 = 0 1 0 𝑇3−1 = 0 1 0
0 0 1 4 0 1 0 1 1
1 0 0
𝑇1−1 𝑇2−1 𝑇3−1 = 𝐿 = 3 1 0
4 1 1
1 0 0 2 1 2
𝐴= 3 1 0 0 1 −6 = 𝐿𝑈
4 1 1 0 0 −1
1. Décomposition de Crout

Cet exemple de décomposition consiste à prendre des valeurs unités sur la diagonale de la
matrice 𝑈. Raisonnons sur une matrice 4 × 4 comme exemple en supposant au préalable que
les pivots 𝑙𝑖𝑖 ≠ 0

Méthodes Numériques A. RTIBI 33


𝑎11 𝑎12 𝑎13 𝑎14 𝑙11 0 0 0 1 𝑢12 𝑢13 𝑢14
𝑎21 𝑎22 𝑎23 𝑎24 𝑙21 𝑙22 0 0 0 1 𝑢23 𝑢24
𝐴= 𝑎31 𝑎32 𝑎33 𝑎34 = 𝐿𝑈 =
𝑙31 𝑙32 𝑙33 0 0 0 1 𝑢34
𝑎41 𝑎42 𝑎43 𝑎44 𝑙41 𝑙42 𝑙43 𝑙44 0 0 0 1

𝑙11 𝑢12 𝑢13 𝑢14


𝑙 𝑙22 𝑢23 𝑢24
En notation compacte 𝐿𝑈 est représentée par : 21 =𝐿+𝑈−𝟙
𝑙31 𝑙32 𝑙33 𝑢34
𝑙41 𝑙42 𝑙43 𝑙44

Cherchons ces 16 composantes:

 Première colonne de 𝐿. On fait le produit de 𝐿 par la première colonne de 𝑈.

𝑙11 = 𝑎11 𝑙21 = 𝑎21 𝑙31 = 𝑎31 𝑙41 = 𝑎41

𝑙𝑖1 = 𝑎𝑖1 𝑖≥1

 Première ligne de U. On fait le produit de la première ligne de 𝐿 par 𝑈. (pour 𝑎11 ≠ 0)

𝑙11 𝑢12 = 𝑎12 𝑙11 𝑢13 = 𝑎13 𝑙11 𝑢14 = 𝑎14

𝑢1𝑖 = 𝑎1𝑖 𝑙11 𝑖>1

 2ieme 3ieme et 4ieme colonne de 𝐿. On fait le produit de 𝐿 respectivement par 2ieme, 3ieme
et 4ieme colonne de 𝑈.

𝑙22 = 𝑎22 − 𝑙21 𝑢12 𝑙32 = 𝑎32 − 𝑙31 𝑢12 𝑙42 = 𝑎42 − 𝑙41 𝑢12

𝑙33 = 𝑎33 − 𝑙31 𝑢13 − 𝑙32 𝑢23 𝑙43 = 𝑎43 − 𝑙41 𝑢13 − 𝑙42 𝑢23

𝑙44 = 𝑎44 − 𝑙41 𝑢14 − 𝑙42 𝑢24 − 𝑙43 𝑢34


𝑗 −1

𝑙𝑖𝑗 = 𝑎𝑖𝑗 − 𝑙𝑖𝑘 𝑢𝑘𝑗 𝐶𝑎𝑙𝑐𝑢𝑙 𝑑𝑒 𝑙𝑎 𝑗 𝑖è𝑚𝑒 𝑐𝑜𝑙𝑜𝑛𝑛𝑒 𝑑𝑒 𝐿


𝑘=1

 2ieme 3ieme ligne de 𝑈. On fait respectivement le produit de la 2ieme, 3ieme ligne de 𝐿


par 𝑈.

𝑢23 = 𝑎23 − 𝑙21 𝑢13 𝑙22 𝑢24 = 𝑎24 − 𝑙21 𝑢14 𝑙22

𝑢34 = 𝑎34 − 𝑙31 𝑢14 − 𝑙32 𝑢24 𝑙33


𝑖−1
𝑎𝑖𝑗 − 𝑘=1 𝑙𝑖𝑘 𝑢𝑘𝑗
𝑢𝑖𝑗 = 𝐶𝑎𝑙𝑐𝑢𝑙 𝑑𝑒 𝑙𝑎 𝑖 𝑖è𝑚𝑒 𝑙𝑖𝑔𝑛𝑒 𝑑𝑒 𝑈
𝑙𝑖𝑖

Résolution du système

Descente triangulaire pour résoudre 𝐿𝑦 = 𝑏

Méthodes Numériques A. RTIBI 34


𝑖−1
𝑦1 = 𝑏1 𝑙11 𝑒𝑡 𝑦𝑖 = 𝑏𝑖 − 𝑘=1 𝑙𝑖𝑘 𝑦𝑘 𝑙𝑖𝑖 𝑝𝑜𝑢𝑟 𝑖 ≥ 2

Remontée triangulaire pour résoudre 𝑈𝑥 = 𝑦


𝑛
𝑥𝑛 = 𝑦𝑛 𝑒𝑡 𝑥𝑖 = 𝑦𝑖 − 𝑘=𝑖+1 𝑢𝑖𝑘 𝑥𝑘

Exemple

1 −1 2 𝑥1 5
3 1 2 𝑥2 = 11
1 2 1 𝑥3 8
Solution :

1 −1 2 1 0 0 1 −1 2
3 1 2 = 3 4 0 0 1 −1
1 2 1 1 3 2 0 0 1
𝑥1 1
𝑥2 = 2
𝑥3 3
1. Décomposition 𝑳𝑼 avec permutation de lignes

Quand un pivot 𝑙𝑖𝑖 = 0 on fait une permutation de ligne pour retrouver un pivot non nul et
cette permutation doit affecter aussi la matrice colonne 𝑏 . Pour mémoriser toutes les
1
2
permutations on associe un vecteur permutation 𝑝 = au système.

3
Exemple

0 2 1 𝑥1 −1 1
1 0 0 𝑥2 = 2 𝑝= 2
3 0 1 𝑥3 7 3
0 2 1 1
1 0 0 𝑝= 2
3 0 1 3
𝟎 2 1
 1re colonne de 𝐿 : 𝟏 0 0
𝟑 0 1
On effectue une permutation 𝐿1 ⟵ 𝐿3 , ligne ayant le plus grand pivot.

3 0 1 3
1 0 0 𝑝= 2
0 2 1 1

Méthodes Numériques A. RTIBI 35


𝟑 𝟎 𝟏 𝟑 3
 1re ligne de 𝑈 : 𝟏 0 0 𝑝= 2
𝟎 2 1 1
 2 iéme
colonne de 𝐿 : 𝑙22 = 𝑎22 − 𝑙21 𝑢12 = 0 − 1 × 0 = 0 et 𝑙32 = 2 − 0 × 0 = 2

𝟑 𝟎 𝟏 𝟑 3
𝟏 0 0 𝑝= 2
𝟎 2 1 1
Encore un pivot nul

3
𝐿2 ⟵ 𝐿3 ⇒ 𝑝 = 1
2
𝟑 𝟎 𝟏 𝟑 3
𝟎 2 1 𝑝= 1
𝟏 0 0 2

 Calcul de 𝑢23 : 𝑢23 = 𝑎23 − 𝑙21 𝑢13 𝑙22 = 1 2

La matrice compacte devient

𝟑 𝟎 𝟏 𝟑 3
𝟎 2 𝟏 𝟐 𝑝= 1
𝟏 0 0 2

 Calcul de 𝑙33 : 𝑙33 = −1 3

La décomposition 𝐿𝑈 est :

𝟑 𝟎 𝟏 𝟑 3
𝟎 𝟐 𝟏 𝟐 𝑝= 1
𝟏 𝟎 −𝟏 𝟑 2

𝟑 𝟎 𝟎 𝟏 𝟎 𝟏 𝟑 𝟑 𝟎 𝟏
Et le produit 𝐿𝑈 = 𝟎 𝟐 𝟎 𝟎 𝟏 𝟏 𝟐 = 𝟎 𝟐 𝟏
𝟏 𝟎 −𝟏 𝟑 𝟎 𝟎 𝟏 𝟏 𝟎 𝟎

On obtient la matrice initiale permutée suivant 𝑝

7
𝑏𝑝 = −1
2

𝐿𝑦 = 𝑏𝑝 ⟹ 𝑦1 = 7 3 𝑦2 = −1 2 𝑦3 = 1

𝑈𝑥 = 𝑦 ⟹ 𝑥1 = 2 𝑥2 = −1 𝑥3 = 1

Méthodes Numériques A. RTIBI 36


V. Système d’équation non linéaire
1. But
 Définir deux méthodes itératives permettant de résoudre un système d’équations non
linéaires.
 Elaborer un programme numérique sur la base de deux méthodes.
 Comparer la performance de ces deux méthodes.

2. Formulation du problème

𝑓1 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
𝑓2 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
( 1)

𝑓𝑛 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0

Où 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 sont des inconnus réels

Soit 𝑋 0 = (𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0 )𝑡 suffisamment voisin de la solution exacte 𝑋 𝑒 = (𝑥1𝑒 , 𝑥2𝑒 , ⋯ , 𝑥𝑛𝑒 )𝑡 .
On procède par un développement de Taylor :
𝑛 𝑛 𝑛
𝜕𝑓𝑖 0 1 𝜕 2 𝑓𝑖
𝑓𝑖 𝑋 𝑒
= 𝑓𝑖 𝑋 0
+ 𝑥𝑗𝑒 − 𝑥𝑗0 𝑋 + 𝑥𝑗𝑒 − 𝑥𝑗0 𝑥𝑘𝑒 − 𝑥𝑘0 𝑋0
𝜕𝑥𝑗 2! 𝜕𝑥𝑗 𝜕𝑥𝑘
𝑗 =1 𝑗 =1 𝑘=1
+⋯ ( 2)

En négligeant les termes supérieurs à 1,


𝑛
𝜕𝑓𝑖 0
𝑓𝑖 𝑋 𝑒
≈ 𝑓𝑖 𝑋 0
+ 𝑥𝑗𝑒 − 𝑥𝑗0 𝑋 ( 3)
𝜕𝑥𝑗
𝑗 =1

Qu’on peut mettre sous la forme d’un système :

𝜕𝑓10 0 𝜕𝑓10 0 𝜕𝑓10 0


∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓10
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
𝜕𝑓20 0 𝜕𝑓20 0 𝜕𝑓20 0
∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓20 (4)
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
0
𝜕𝑓𝑛 𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 0
∆𝑥 0 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓𝑛0
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛

𝜕𝑓𝑖0 𝜕𝑓
Avec : = 𝜕𝑥 𝑖 𝑋 0 , 𝑓10 = 𝑓𝑖 𝑋 0 et ∆𝑥𝑖0 = 𝑥𝑖1 − 𝑥𝑖0
𝜕𝑥 𝑗 𝑗

L’écriture compacte de ce système est :

𝐽0 ∆0 = −𝐹 0 (5)

Méthodes Numériques A. RTIBI 37


𝜕𝑓10 𝜕𝑓10 𝜕𝑓10

𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛
𝜕𝑓20 𝜕𝑓20 𝜕𝑓20

𝐽0 = 𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛 (6)
⋮ 0 ⋮ ⋮
⋮ ⋮ ⋮ ⋮
𝜕𝑓𝑛0 𝜕𝑓𝑛0 𝜕𝑓𝑛0

𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛

𝑥11 − 𝑥10 𝑓10 𝑓1 𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0


1 0 0 0 0 0
∆0 = 𝑋1 − 𝑋 0 = 𝑥2 − 𝑥2 7 𝐹 0 = 𝑓2 = 𝑓2 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 (8)
⋮ ⋮ ⋮
𝑥𝑛1 − 𝑥𝑛0 𝑓𝑛0 𝑓𝑛 𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0

3. Methode de Newton

En faisant une estimation 𝑋 0 on obtient 𝐽0 𝑒𝑡 𝐹 0 à partir des équations (6) et (8)


respectivement. La résolution de (5) donne ∆0 et la nouvelle estimation est déduite de l’égalité
𝑋 1 = 𝑋 0 + ∆0 .

Si 𝑋 0 est suffisamment voisin de 𝑋 𝑒 alors 𝑋1 serait une meilleure approximation que 𝑋 0 .

Le processus itératif peut s’écrire sous la forme contractée suivante :

𝐽𝑘 ∆𝑘 = −𝐹 𝑘 (9)

𝑋 𝑘+1 = 𝑋 𝑘 + ∆𝑘 (10)

Si les éléments de 𝐽 sont continus au voisinage de 𝑋 𝑖 et det⁡


(𝐽) ≠ 0 et si 𝑋 0 est voisin de 𝑋 𝑒 ,
la suite 𝑋 𝑘 est convergente et on a lim𝑘→∞ 𝑋 𝑘 = 𝑋 𝑒 .

Remarque

Les risques de divergences sont fréquents, il est indispensable de prévoir l’arrêt du processus
itératif après un nombre d’itérations 𝑘𝑚𝑎𝑥 fixé à l’avance.

4. Méthode de Picard

On reprend l’écriture du système (4).

𝜕𝑓10 0 𝜕𝑓10 0 𝜕𝑓10 0


∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓10
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
𝜕𝑓20 0 𝜕𝑓20 0 𝜕𝑓20 0
∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓20 (11)
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
0
𝜕𝑓𝑛 𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 0
∆𝑥 0 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓𝑛0
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛

Méthodes Numériques A. RTIBI 38


Lorsque la jacobienne est diagonalement dominante, il est avantageux de la rendre
tridiagonale en basculant vers le membre de droite tous les termes qui ne font pas parti de la
tridiagonale avec leurs coefficients. Ainsi on aura :
𝑛
𝜕𝑓10 0 𝜕𝑓10 0 𝜕𝑓10 𝑖𝑛𝑖𝑡
∆𝑥 + ∆𝑥 . . = −𝑓10 − ∆𝑥
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑗 𝑗
𝑗 =3
𝑛
𝜕𝑓20 0 𝜕𝑓20 0 𝜕𝑓30 0 𝜕𝑓20 𝑖𝑛𝑖𝑡
∆𝑥 + ∆𝑥 + ∆𝑥 . = −𝑓20 − ∆𝑥
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥3 3 𝜕𝑥𝑗 𝑗 (12)
𝑗 =4
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
0 𝑛 −2
𝜕𝑓𝑛−1 𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 𝑖𝑛𝑖𝑡
. . + ∆𝑥 0 + ∆𝑥 = −𝑓𝑛0 − ∆𝑥
𝜕𝑥𝑛 −1 𝑛−1 𝜕𝑥𝑛 𝑛 𝜕𝑥𝑗 𝑗
𝑗 =1

Pour démarrer on prendre tous les ∆𝑥𝑗𝑖𝑛𝑖𝑡 = 0.

La résolution de (12) donne 𝑋1 comme nouvelle approximation à de laquelle le processus est


ensuite itéré : 𝑋1 = 𝑋 0 + ∆0 , 𝑋 2 = 𝑋1 + ∆1 , ⋯

5. Critère d’arrêt des itérations

Exemple de quelques critères d’arrêt


𝑛
 Critère d’erreur absolue : 𝑖=1 𝑥𝑖𝑘+1 − 𝑥𝑖𝑘 ≤ 𝜀𝑎 ou 𝑚𝑎𝑥 𝑥𝑖𝑘+1 − 𝑥𝑖𝑘 ≤ 𝜀𝑎
𝑖 = 1,2, … , 𝑛
𝑥 𝑖𝑘+1 −𝑥 𝑖𝑘
 Critère d’erreur relative : 𝑚𝑎𝑥 ≤ 𝜀𝑟 𝑖 = 1,2, … , 𝑛
𝑥 𝑖𝑘 +1

Remarque

Il est à noter qu’une fois satisfait, ces critères ne signifient pas toujours que le vecteur 𝑋 𝑘 est
une bonne approximation du vecteur 𝑋 𝑒 et ne fournit aucune précision sur l’estimation.

Méthodes Numériques A. RTIBI 39


Travaux Pratiques

On considère le système non linéaire définie par :

𝑓1 𝑥1 , 𝑥2 , 𝑥3 = 𝑥15 + 𝑥23 𝑥34 + 1 = 0


𝑓2 𝑥1 , 𝑥2 , 𝑥3 = 𝑥12 𝑥2 𝑥3 = 0
𝑓𝑛 𝑥1 , 𝑥2 , 𝑥3 = 𝑥34 − 1 = 0

 Chercher la solution analytique de ce système.


 Développer en code numérique adéquat en utilisant les méthodes de Newton et Picard
pour le résoudre.
 Comparer les performances de ces méthodes
 Conclure.

Méthodes Numériques A. RTIBI 40


Equations différentielles

I. Introduction

On considère la forme générale d’une équation différentielle du premier ordre avec condition
initiale. On cherchera une fonction 𝑦(𝑡) solution de l’équation :

𝑦 ′ 𝑡 = 𝑓 𝑡, 𝑦(𝑡) 𝑦 𝑡0 = 𝑦0 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛 𝑖𝑛𝑖𝑡𝑖𝑎𝑙𝑒

Ici t est la variable indépendante et 𝑦(𝑡) est la variable dépendante et f est une fonction
quelconque de deux variables supposée suffisamment différentiable. Le but de l’étude est
d’obtenir numériquement une approximation de 𝑦(𝑡) pour tout 𝑡 ≥ 𝑡0 .

Définition

Une méthode numérique est dite à un pas si elle est de la forme :

𝑦𝑛+1 = 𝑦𝑛 + 𝑕𝜙(𝑡𝑛 , 𝑦𝑛 )

𝜙 désigne une fonction quelconque.

La méthode est dite à un pas si, pour obtenir la solution à 𝑡 = 𝑡𝑛+1 , on doit utiliser la solution
numérique au temps 𝑡𝑛 seulement. Les méthodes à pas multiples sont des méthodes qui
exigent également la connaissance de la solution numérique aux temps 𝑡𝑛−1 , 𝑡𝑛−2 ,….

II. Méthode de Runge-Kutta

Ces méthodes permettent d’obtenir des ordres de précision élevés tout en évitant les
inconvénients d’autres méthodes (comme la méthode de Taylor par exemple) qui nécessitent
l’évaluation des dérivées partielles de la fonction 𝑓(𝑡, 𝑦).

1. Méthode de Runge-Kutta d’ordre 2

On procède à des développements en séries de Taylor :

𝑕2 ′′
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑕 = 𝑦 𝑡𝑛 + 𝑕𝑦 ′ 𝑡𝑛 + 𝑦 𝑦 𝑡𝑛 + 𝑂(𝑕3 )
2
𝑕2
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑕 = 𝑦 𝑡𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦(𝑡𝑛 ) + 𝑓′ 𝑡𝑛 , 𝑦(𝑡𝑛 ) + 𝑂(𝑕3 )
2

𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑂𝑟 𝑓′ 𝑡, 𝑦 𝑡 = + 𝑓 𝑡, 𝑦 𝑡
𝜕𝑡 𝜕𝑦

𝑕2 𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦(𝑡𝑛 ) + + 𝑓 𝑡, 𝑦 𝑡 + 𝑂(𝑕3 )
2 𝜕𝑡 𝜕𝑦

Le but consiste à remplacer l’équation précédente par une expression équivalente possédant le
même ordre de précision 𝑂(𝑕3 ).

Méthodes Numériques A. RTIBI 41


On propose la forme suivante :

𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑎1 𝑕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎2 𝑕𝑓 𝑡𝑛 + 𝑎3 𝑕, 𝑦 𝑡𝑛 + 𝑎4 𝑕

Les paramètres 𝑎𝑖 sont des inconnus à déterminer de telle sorte que les expressions
précédentes aient toutes deux une erreur en 𝑂(𝑕3 ). L’expression (4) est avantageuse par le fait
qu’elle ne présente aucune dérivation.

Des développements en séries de Taylor en deux variables autour du point 𝑡𝑛 , 𝑦 𝑡𝑛


conduisent aux égalités :

𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑓 𝑡𝑛 + 𝑎3 𝑕, 𝑦 𝑡𝑛 + 𝑎4 𝑕 = 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎3 𝑕 + 𝑎4 𝑕 + 𝑂(𝑕2 )
𝜕𝑡 𝜕𝑦

𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑎1 + 𝑎2 𝑕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎2 𝑎3 𝑕 2 + 𝑎2 𝑎4 𝑕 2
𝜕𝑡 𝜕𝑦
+ 𝑂(𝑕3 )

Par identification des deux développements puisqu’ils ont le même ordre de grandeur on
détermine les 𝑎𝑖 .

𝑕 = 𝑎1 + 𝑎2 𝑕 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
𝑕2 𝜕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
= 𝑎2 𝑎3 𝑕 2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒
2 𝜕𝑡
2
𝑕 𝜕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 = 𝑎2 𝑎4 𝑕2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒
2 𝜕𝑦
𝑎1 + 𝑎2 = 1
1
𝑎2 𝑎3 =
⇒ 2
𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
𝑎2 𝑎4 =
2
On obtient ainsi un système non linéaire de 3 équations à 4 inconnus, la solution n’est pas
unique. Cette multiplicité des solutions conduit à plusieurs variantes de Runge-Kutta. La
variante la plus fréquemment utilisée est la méthode d’Euler modifiée qui consiste à prendre
𝑎2 = 𝑎1 = 1 2, 𝑎3 = 1 et 𝑎4 = 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 .

Enfin
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑎1 𝑕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎2 𝑕𝑓 𝑡𝑛 + 𝑎3 𝑕, 𝑦 𝑡𝑛 + 𝑎4 𝑕
𝑕 𝑕
= 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 + 𝑕, 𝑦 𝑡𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
2 2
𝑕
= 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 + 𝑕, 𝑦 𝑡𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
2
𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 + 𝑕, 𝑦 𝑡𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
= 𝑦 𝑡𝑛 + 𝑕
2
= 𝑦𝑛 + 𝑕𝜙(𝑡𝑛 , 𝑦𝑛 )

Méthodes Numériques A. RTIBI 42


Algorithme de la méthode d’Euler modifiée :

i. Données : un pas de temps 𝑕, une condition initiale (𝑡0 , 𝑦0 ) et un nombre maximum


d’itérations, 𝑁.
ii. Pour 0 ≤ 𝑛 ≤ 𝑁 ⇒ 𝑦 ∗ = 𝑦𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦𝑛
𝑕
⇒ 𝑦𝑛+1 = 𝑦𝑛 + 𝑓 𝑡𝑛 , 𝑦𝑛 + 𝑓 𝑡𝑛+1 , 𝑦 ∗
2
⇒ 𝑡𝑛+1 = 𝑡𝑛 + 𝑕
iii. Arrêt du programme

Remarque

 L’évaluation de 𝑦𝑛+1 a été scindée en deux étapes pour faciliter les calculs avec 𝑦 ∗
apparaissant comme une variable temporaire et correspond à une itération de la
méthode d’Euler 𝑦𝑛+1 = 𝑦𝑛 + 𝑕𝑓 𝑡𝑛 , 𝑦𝑛 . En fait, 𝑦 ∗ est une prédiction de la solution
en 𝑡𝑛 +1 , corrigée et améliorée à la deuxième étape de l’algorithme : c’est une méthode
de prédiction correction.
 Il existe d’autres variantes de Runge-Kutta d’ordre deux comme la méthode du point
milieu qui correspond à 𝑎1 = 0, 𝑎2 = 1, 𝑎3 = 1 2 et 𝑎4 = 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 2

2. Méthode de Runge-Kutta d’ordre 4

En reprenant le développement de Taylor de la fonction f jusqu’à l’ordre 5 et en suivant un


raisonnement similaire à celui qui a conduit aux méthodes de Runge-Kutta d’ordre 2, on
aboutit à un système de 8 équations non linéaires à 10 inconnus. Le résultat final est la
méthode de Runge-Kutta d’ordre 4.

Alogorithme de la méthode de Runge-Kutta d’ordre 4

i. Données : un pas de temps 𝑕, une condition initiale (𝑡0 , 𝑦0 ) et un nombre maximum


d’itérations, 𝑁.
ii. Pour 0 ≤ 𝑛 ≤ 𝑁 ⇒ 𝑘1 = 𝑕𝑓 𝑡𝑛 , 𝑦𝑛
𝑕 𝑘1
𝑘2 = 𝑕𝑓 𝑡𝑛 + , 𝑦𝑛 +
2 2
𝑕 𝑘2
𝑘3 = 𝑕𝑓 𝑡𝑛 + , 𝑦𝑛 +
2 2
𝑘4 = 𝑕𝑓 𝑡𝑛 + 𝑕, 𝑦𝑛 + 𝑘3
1
⇒ 𝑦𝑛+1 = 𝑦𝑛 + 𝑘 + 2𝑘2 + 2𝑘3 + 𝑘4
6 1
⇒ 𝑡𝑛+1 = 𝑡𝑛 + 𝑕
iii. Arrêt du programme

Remarque

Méthodes Numériques A. RTIBI 43


 La méthode de Runge-Kutta d’ordre 4 nécessite à peu près 4 fois plus de temps de
calcul que la méthode d’Euler qui est d’ordre 1 et 2 fois plus de temps de calcul que la
méthode d’Euler modifiée qui est d’ordre 2.
 - La précision ne peut pas être rattrapée par simple division du pas.

III. Méthode à pas multiples

𝑦 ′ 𝑡 = 𝑓 𝑡, 𝑦(𝑡) 𝑦 𝑡0 = 𝑦0 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛 𝑖𝑛𝑖𝑡𝑖𝑎𝑙𝑒

Pour obtenir 𝑦𝑛+1 on procède par intégrer cet équation dans l’intervalle 𝑡𝑛 , 𝑡𝑛 +1
𝑡 𝑛 +1 𝑡 𝑛 +1 𝑡 𝑛 +1
𝑦 ′ 𝑡 𝑑𝑡 = 𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡 ⇒ 𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡
𝑡𝑛 𝑡𝑛 𝑡𝑛

𝑡 𝑛 +1
𝑦𝑛 +1 = 𝑦𝑛 + 𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡 𝑒𝑛 é𝑐𝑟𝑖𝑡𝑢𝑟𝑒 𝑎𝑙𝑔𝑜𝑟𝑖𝑡𝑕𝑚𝑒
𝑡𝑛

𝑡 𝑛 +1
𝑡𝑛
𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡 peut être calculer en utilisant une interpolation polynomiale de Newton
pour 𝑓 𝑡, 𝑦(𝑡) sur ses valeurs calculées aux itérations précédentes.

𝑝𝑚 𝑡 = 𝑓 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑡𝑛−1 𝑡 − 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑡𝑛−1 , 𝑡𝑛−2 𝑡 − 𝑡𝑛 𝑡 − 𝑡𝑛−1 + ⋯

On obtient ainsi différentes formules par augmentation du degré du polynôme d’interpolation.


Ces formules sont appelées formules d’Adams-Bashforth :

 𝑦𝑛+1 = 𝑦𝑛 + 𝑕𝑓𝑛 𝑜𝑟𝑑𝑟𝑒 1 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝0 𝑡


𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 2 3𝑓𝑛 − 𝑓𝑛−1 𝑜𝑟𝑑𝑟𝑒 2 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝1 𝑡
𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 12 23𝑓𝑛 − 16𝑓𝑛−1 + 5𝑓𝑛−2
𝑜𝑟𝑑𝑟𝑒 3 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝2 𝑡
𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 24 55𝑓𝑛 − 59𝑓𝑛−1 + 37𝑓𝑛 −2 − 9𝑓𝑛−3
𝑜𝑟𝑑𝑟𝑒 4 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝3 𝑡
 Etc…

C’est donc une méthode à (n + 1) pas si le polynôme d’interpolation est de degré n.

Au lieu de prendre comme polynôme d’approximation de 𝑓 𝑡, 𝑦(𝑡) le polynôme précédent


𝑝𝑚 𝑡 on peut prendre

𝑝𝑚 𝑡 = 𝑓 𝑡𝑛+1 + 𝑓 𝑡𝑛+1 , 𝑡𝑛 𝑡 − 𝑡𝑛+1 + 𝑓 𝑡𝑛+1 , 𝑡𝑛 , 𝑡𝑛−1 𝑡 − 𝑡𝑛+1 𝑡 − 𝑡𝑛 + ⋯

On obtient ainsi différentes formules par augmentation du degré du polynôme d’interpolation.


Ces formules sont appelées formules d’Adams-Moulton :

 𝑦𝑛+1 = 𝑦𝑛 + 𝑕𝑓𝑛+1 𝑜𝑟𝑑𝑟𝑒 1 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝0∗ 𝑡

Méthodes Numériques A. RTIBI 44


𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 2 3𝑓𝑛 +1 − 𝑓𝑛 𝑜𝑟𝑑𝑟𝑒 2 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝1∗ 𝑡
𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 12 23𝑓𝑛 +1 − 16𝑓𝑛 + 5𝑓𝑛−1
𝑜𝑟𝑑𝑟𝑒 3 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝2∗ 𝑡
𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 24 55𝑓𝑛 +1 − 59𝑓𝑛 + 37𝑓𝑛 −2 − 9𝑓𝑛−2
𝑜𝑟𝑑𝑟𝑒 4 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝3∗ 𝑡
 Etc…

Les formules d’Adams-Moulton sont dites implicites dans le sens où l’évaluation de 𝑦𝑛 +1


dépend de 𝑦𝑛+1 lui même. Cette difficulté est contournée en combinant les formules
d’Adams-Bashforth et d’Adams-Moulton en schémas dits prédicteur-correcteur.

Ainsi, on utilise les formules d’Adams-Bashforth pour obtenir une première approximation
𝑝
𝑦𝑛+1 de 𝑦𝑛 +1 au cours d’une étape dite de prédiction. Ensuite, on utilise les formules
d’Adams-Moulton pour corriger et, éventuellement, améliorer cette approximation.

𝑓𝑛+1 ≈ 𝑓𝑛𝑝+1 = 𝑓(𝑡𝑛+1 , 𝑦𝑛+1


𝑝
)

D’où les schémas de prédiction correction :


𝑝
 𝑦𝑛+1 = 𝑦𝑛 + 𝑕𝑓𝑛
𝑦𝑛+1 = 𝑦𝑛 + 𝑕𝑓𝑛𝑝+1 𝑜𝑟𝑑𝑟𝑒 1
𝑝 𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 2 3𝑓𝑛 − 𝑓𝑛−1
𝑕 𝑝
𝑦𝑛+1 = 𝑦𝑛 + 𝑓 + 𝑓𝑛 𝑜𝑟𝑑𝑟𝑒 2
2 𝑛+1
𝑝 𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 12 23 𝑓𝑛 − 16𝑓𝑛 −1 + 5𝑓𝑛−2
𝑕
𝑦𝑛+1 = 𝑦𝑛 + 5 𝑓𝑛𝑝+1 + 8𝑓𝑛 − 𝑓𝑛 −1 𝑜𝑟𝑑𝑟𝑒 3
12
𝑝 𝑕
 𝑦𝑛+1 = 𝑦𝑛 + 24 55𝑓𝑛 − 59𝑓𝑛 −1 + 37𝑓𝑛 −2 − 9𝑓𝑛 −3
𝑕
𝑦𝑛+1 = 𝑦𝑛 + 9𝑓𝑛𝑝+1 + 19𝑓𝑛 − 5𝑓𝑛−1 + 𝑓𝑛 −2 𝑜𝑟𝑑𝑟𝑒 4
24
Remarque

 Les méthodes de prédiction-correction ne sont pas auto-démarrables ; leur démarrage


nécessite l’utilisation d’une méthode à un pas ( Runge-Kutta par exemple).
 Pour un schéma d’ordre 3 par exemple, 𝑛 doit être ≥ 2. La condition initiale 𝑦0 étant
connue, les valeurs de 𝑦1 et 𝑦2 doivent être calculées par une méthode à un pas.

IV. Méthode de tir

Pour utiliser la méthode de Runge-Kutta ou celle de prédicteur-correcteur, il faut que le


problème soit à valeurs initiales. Lorsqu’il s’agit d’un problème à valeurs aux frontières, il
faut le transformer en un problème correspondant à valeurs initiales.

Méthodes Numériques A. RTIBI 45


Exemple

Considérons l’équation différentielle suivante :

3 2
𝑦 ′′ 𝑡 = 𝑦 𝑎𝑣𝑒𝑐 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛𝑠 𝑎𝑢𝑥 𝑓𝑟𝑜𝑛𝑡𝑖è𝑟𝑒𝑠 𝑦 0 = 4, 𝑦 1 =1
2
Le problème est à valeurs aux frontières, il lui correspond le problème à valeurs initiales 𝐶𝐼
suivant :

𝑦′ = 𝑓 𝑎𝑣𝑒𝑐 𝐶𝐼 𝑦 0 =4
3
𝑓 ′ = 𝑦 2 𝑎𝑣𝑒𝑐 𝐶𝐼 𝑓 0 =𝛼
2
La valeur de 𝛼 n’est pas connue ; elle doit être telle que la condition 𝑦 1 = 1 soit vérifiée
moyennant une certaine précision fixée à l’avance. La méthode de tir permet de résoudre les
équations du dernier système de manière itérative.

La méthode du tir est basée sur l’estimation de la pente en 𝑡 = 0et comprend les étapes
suivantes :

i. On estime deux valeurs de la pente en 𝑡 = 0 : 𝑦1′ 0 = 𝑓1 0 = 𝛼1 et 𝑦2′ 0 = 𝑓2 0 =


𝛼2 .
ii. On intègre les deux équations du système par une méthode numérique (Runge-Kutta
ou prédicteur-correcteur) de 𝑡 = 0 à 𝑡 = 1 .
iii. On s’assure que les valeurs 𝑦1 1 = 𝛽1 et 𝑦2 1 = 𝛽2 correspondant respectivement à
𝛼1 et 𝛼2 encadrent 𝑦 1 = 1
iv. On améliore itérativement la valeur de la pente par une interpolation linéaire :
𝛽𝑖 − 𝛽
𝛼𝑖+1 = 𝛼𝑖 − 𝛼𝑖 − 𝛼𝑖−1 𝑖 = 3,4, …
𝛽𝑖 − 𝛽𝑖−1
Où 𝛽𝑖 est la valeur de 𝑦 1 correspondant à 𝛼𝑖 .

Méthodes Numériques A. RTIBI 46


Résolution d'une équation différentielle du second ordre par une méthode aux
différences finies

I. But

Il s'agit de résoudre numériquement une équation différentielle linéaire du second ordre à


l'aide d'une méthode aux différences finies en utilisant un schéma précis d'ordre deux et un
schéma compact (schéma d'ordre 4).

II. Formulation

On considère une équation différentielle de la forme:

𝑦 ′′ (𝑥) + 𝑝 𝑥 𝑦 ′ (𝑥) + 𝑞 𝑥 𝑦(𝑥) = 𝑟(𝑥)

Pour 𝑥𝜖 𝑎, 𝑏 et 𝑥 , 𝑞 𝑥 , 𝑟(𝑥) sont des fonctions connues de la variable 𝑥.

Conditions aux limites:

𝑦 𝑎 = 𝑐1 𝑦′ 𝑎 = 𝑐1′
𝑡𝑦𝑝𝑒 𝐷𝑖𝑟𝑒𝑐𝑕𝑙𝑒𝑡 𝑡𝑦𝑝𝑒 𝑁𝑒𝑤𝑚𝑎𝑛𝑛
𝑦 𝑏 = 𝑐2 𝑦′ 𝑏 = 𝑐2′

𝑦′ 𝑎 = 𝑐1′ 𝑦 𝑎 = 𝑐1
𝑜𝑢 𝑡𝑦𝑝𝑒 𝑚𝑖𝑥𝑡𝑒𝑠
𝑦 𝑏 = 𝑐2 𝑦′ 𝑏 = 𝑐2′

1. -Schéma aux différences finies précis d'ordre 2

La méthode des différences finies est basée sur des développements en séries de Taylor. Le
problème différentiel est remplacé par un problème algébrique discret et la solution est alors
recherchée en un certain nombre de nœuds. On procède ainsi à la division de l'intervalle [𝑎, 𝑏]
en 𝑛 nœuds ou (𝑛 − 1) sous intervalles. Cette subdivision peut être régulière (espacement
entre les nœuds constant) ou irrégulière (espacement entre les nœuds variable). Dans le cas
d'une division régulière, on aura:

𝑏−𝑎
𝑥𝑖 = 𝑎 + 𝑖 − 1 𝑖 = 1,2, … , 𝑛
𝑛−1

La solution sera 𝑦1 , 𝑦2 , … , 𝑦𝑛 , c'est-à-dire une série de valeurs associées aux nœuds


𝑥1 , 𝑥2 , … , 𝑥𝑛 .

Procédons à des développements en série de Taylor autour de 𝑥𝑖 , on obtient:

Δ𝑥 2
𝑦 𝑥𝑖 ± Δ𝑥 = 𝑦𝑖+1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ + O Δ𝑥 3 Δ𝑥 = 𝑥𝑖+1 − 𝑥𝑖
2!
𝑦𝑖+1 − 𝑦𝑖−1 𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1
𝑦𝑖′ = + O Δ𝑥 2 𝑦𝑖′′ = + O Δ𝑥 2
2Δ𝑥 Δ𝑥 2

Méthodes Numériques A. RTIBI 47


Par substitution dans l’équation différentielle conduit, en chaque nœud 𝑖 , à l'équation
algébrique suivante:

𝑦𝑖−1 2 − Δ𝑥 𝑝(𝑥𝑖 ) + 𝑦𝑖 −4 + 2Δ𝑥 2 𝑞(𝑥𝑖 ) + 𝑦𝑖+1 2 + Δ𝑥 𝑝(𝑥𝑖 ) = 2Δ𝑥 2 𝑟(𝑥𝑖 )

Sous forme condensée :

𝑎𝑖 𝑦𝑖−1 + 𝑏𝑖 𝑦𝑖 + 𝑐𝑖 𝑦𝑖+1 = 𝑑𝑖

On obtient ainsi un système de (𝑛 − 2) équations à n inconnus 𝑦𝑖 , 𝑖 = 1,2, … , 𝑛 Pour


compléter la formulation, il faut spécifier les conditions aux bords de l'intervalle.

𝑦 𝑎 = 𝑦1
 Pour des conditions aux frontière de type Direchlet : ,
𝑦 𝑏 = 𝑦𝑛
La matrice sera sous la forme :

𝑏2 𝑐2 0 . . 0
𝑦2 𝑑2 − 𝑎2 𝑦1
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . .
⋮ = ⋮
. . . . . .
𝑦𝑛−2 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−1 𝑑𝑛 −1 − 𝑐𝑛−1 𝑦𝑛
0 . 0 0 𝑎𝑛−1 𝑏𝑛−1

C'est une matrice tridiagonale qui fait appel à un sous programme de quelques lignes
pour donner les 𝑦𝑖 , 𝑖 = 2, … , 𝑛 − 1
𝑦′ 𝑎 = 𝐴
 Pour des conditions aux frontière de type Newmann : ,
𝑦′ 𝑏 = 𝐵
Développement de Taylor au voisinage de 𝑦1 et 𝑦𝑛 toujours à l’ordre 2 donne :
Δ𝑥 2
𝑦 𝑥𝑖 ± Δ𝑥 = 𝑦𝑖+1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ + O Δ𝑥 3
2!
4𝑦2 − 𝑦3 − 2Δ𝑥𝐴 4𝑦𝑛−1 − 𝑦𝑛−2 + 2Δ𝑥𝐴
𝑦1 = + O Δ𝑥 2 𝑦𝑛 = + O Δ𝑥 2
3 3
4𝑎2 𝑦2 𝑎2 𝑦3 2𝑎2 Δ𝑥𝐴
⇒ 𝑎2 𝑦1 = − −
3 3 3
4𝑐𝑛−1 𝑦𝑛−1 𝑐𝑛−1 𝑦𝑛−2 2𝑐𝑛−1 Δ𝑥𝐵
𝑒𝑡 𝑐𝑛−1 𝑦𝑛 = − +
3 3 3
Après introduction des conditions aux limites, la matrice prend la forme suivante:
𝑏2′ 𝑐2′ 0 . . 0
𝑦2 𝑑2′
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . .
⋮ = ⋮
. . . . . .
𝑦 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−2 ′
′ ′ 𝑛−1 𝑑𝑛−1
0 . 0 0 𝑎𝑛−1 𝑏𝑛−1
4 1 4
𝑏2′ = 𝑏2 + 𝑎2 𝑐2′ = 𝑐2 − 𝑎2 ′
𝑎𝑛−1 = 𝑎𝑛−1 + 𝑐𝑛−1
3 3 3

𝑐𝑛−1 2𝑎 2 Δ𝑥𝐴 2𝑐𝑛−1 Δ𝑥𝐵
𝑏𝑛−1 = 𝑏𝑛−1 − 𝑑2′ = 𝑑2 + ′
𝑑𝑛−1 = 𝑑𝑛−1 −
3 3 3

Méthodes Numériques A. RTIBI 48


2. -Schéma compact

C'est un schéma qui permet d'améliorer la précision à l'ordre 4 ; il conduit à des résultats plus
précis que celui d’ordre 2 décrit précédemment.

Posons les approximations d’ordre 2 respectivement de la dérivée seconde et de la dérivée


première de 𝑦 en 𝑥𝑖 . :

𝑦𝑖+1 − 𝑦𝑖−1 𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1


𝛿𝑦𝑖 = 𝛿 2 𝑦𝑖 =
2Δ𝑥 Δ𝑥 2
Mathématiquement, en chaque nœud 𝑖, ∃! 𝛼𝑖 , 𝛽𝑖 𝜖ℝ2 tel que :

𝑦𝑖′′ = 𝛼𝑖 𝛿 2 𝑦𝑖 𝑒𝑡 𝑦𝑖′ = 𝛽𝑖 𝛿𝑦𝑖

Les valeurs de 𝑦𝑖′′ et 𝑦𝑖′ sont calculées par des approximations d'ordre supérieur à 2 (ordre 4
par exemple).

Δ𝑥 2 Δ𝑥 3 Δ𝑥 4
𝑦𝑖±1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ ± 𝑦𝑖′′′ + 𝑦𝑖′′′′ + O Δ𝑥 5
2! 3! 4!
4Δ𝑥 2 8Δ𝑥 3 16Δ𝑥 4
𝑦𝑖±2 = 𝑦𝑖 ± 2𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ ′′′
± 𝑦𝑖 ′′′′
+ 𝑦𝑖 + O Δ𝑥 5
2! 3! 4!
Par élimination des dérivées d'ordres non désirés, on obtient:

8𝑦𝑖+1 − 8𝑦𝑖−1 − 𝑦𝑖+2 + 𝑦𝑖−2


𝑦𝑖′ = + O Δ𝑥 4 ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
12Δ𝑥
16𝑦𝑖+1 − 16𝑦𝑖−1 − 30𝑦𝑖 − 𝑦𝑖+2 − 𝑦𝑖−2
𝑦𝑖′′ = 2
+ O Δ𝑥 4 ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
12Δ𝑥
Les expressions approchées de 𝛼𝑖 , 𝛽𝑖 sont :

16𝑦𝑖+1 − 16𝑦𝑖−1 − 30𝑦𝑖 − 𝑦𝑖+2 − 𝑦𝑖−2


𝛼𝑖 ≈ ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
12(𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1 )

8𝑦𝑖+1 − 8𝑦𝑖−1 − 𝑦𝑖+2 + 𝑦𝑖−2


𝛽𝑖 ≈ ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
6(𝑦𝑖+1 − 𝑦𝑖−1 )

Pour les nœuds 2 𝑒𝑡 (𝑛 − 1) on cherchera d'autres approximations pour garder le même ordre
de précision (ordre 4). On procèdera à des développements en séries de Taylor:

Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′


𝑦6 = 𝑦2 + 4Δ𝑥𝑦2′ + 16 𝑦 + 64 𝑦 + 256 𝑦 + 1024 𝑦 + O Δ𝑥 6
2! 2 3! 2 4! 2 5! 2
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦5 = 𝑦2 + 3Δ𝑥𝑦2′ + 9 𝑦2 + 27 𝑦2 + 81 𝑦2 + 243 𝑦 + O Δ𝑥 6
2! 3! 4! 5! 2
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦4 = 𝑦2 + 2Δ𝑥𝑦2′ + 4 𝑦2 + 8 𝑦2 + 16 𝑦2 + 32 𝑦 + O Δ𝑥 6
2! 3! 4! 5! 2

Méthodes Numériques A. RTIBI 49


Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦3 = 𝑦2 + Δ𝑥𝑦2′ + 𝑦2 + 𝑦2 + 𝑦2 + 𝑦 + O Δ𝑥 6
2! 3! 4! 5! 2
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦1 = 𝑦2 − Δ𝑥𝑦2′ + 𝑦 − 𝑦 + 𝑦 − 𝑦 + O Δ𝑥 6
2! 2 3! 2 4! 2 5! 2
On cherchera une combinaison de la forme 𝑎𝑦6 + 𝑏𝑦5 + 𝑐𝑦4 + 𝑑𝑦3 + 𝑒𝑦1 de façon à éliminer
les dérivées de y d'ordres 1, 3, 4 et 5. On obtient:

1024𝑎 + 243𝑏 + 32𝑐 + 𝑑 – 𝑒 = 0 (pour éliminer 𝑦2′′′′′

256𝑎 + 81𝑏 + 16𝑐 + 𝑑 + 𝑒 = 0 (pour éliminer 𝑦2′′′′

64𝑎 + 27𝑏 + 8𝑐 + 𝑑 – 𝑒 = 0 (pour éliminer 𝑦2′′′

4𝑎 + 3𝑏 + 2𝑐 + 𝑑 – 𝑒 = 0 (pour éliminer 𝑦2′

On obtient ainsi un système de 4 équations à 5 inconnus. On prendra a = 1 ce qui conduit à :

𝑏 = −6 𝑐 = 14 𝑑 = −4 𝑒 = 10

On déduit ainsi les approximations d'ordre 4 pour 𝑦2′′ , 𝑦𝑛−1


′′
comme suit:

1
𝑦2′′ = 𝑦 − 6𝑦5 + 14𝑦4 − 4𝑦3 − 15𝑦2 + 10𝑦1 + O Δ𝑥 4
12Δ𝑥 2 6
1
𝑦𝑛′′ −1 = 𝑦 − 6𝑦𝑛−4 + 14𝑦𝑛−3 − 4𝑦𝑛−2 − 15𝑦𝑛−1 + 10𝑦𝑛 + O Δ𝑥 4
12Δ𝑥 2 𝑛−5
D'où:

𝑦6 − 6𝑦5 + 14𝑦4 − 4𝑦3 − 15𝑦2 + 10𝑦1


𝛼2 ≈
12(𝑦3 − 2𝑦2 + 𝑦1 )

𝑦𝑛−5 − 6𝑦𝑛−4 + 14𝑦𝑛−3 − 4𝑦𝑛−2 − 15𝑦𝑛 −1 + 10𝑦𝑛


𝛼𝑛−1 ≈
12(𝑦𝑛 +𝑦𝑛−2 −2𝑦𝑛−1 )

Une démarche similaire conduit à:

𝑦5 − 6𝑦4 + 18𝑦3 − 10𝑦2 − 3𝑦1


𝛽2 ≈
6(𝑦3 − 𝑦1 )

−𝑦𝑛−4 + 6𝑦𝑛−3 − 18𝑦𝑛 −2 + 10𝑦𝑛 −1 + 3𝑦𝑛


𝛽𝑛−1 ≈
6(𝑦𝑛 −𝑦𝑛−2 )

On retourne à l'équation différentielle du départ et, on obtient, pour chaque nœud 𝑖, une
équation de la forme:

𝑦𝑖+1 +𝑦𝑖−1 −2𝑦𝑖 𝑦𝑖+1 −𝑦𝑖−1


𝛼𝑖 = 2
+ 𝑝 𝑥𝑖 𝛽𝑖 + 𝑞 𝑥𝑖 𝑦𝑖 = 𝑟 𝑥𝑖 ( 2 ≤ 𝑖 ≤ 𝑛 − 1)
Δ𝑥 2Δ𝑥

Méthodes Numériques A. RTIBI 50


Sous forme condensée, on peut écrire:

𝑎𝑖 𝑦𝑖−1 + 𝑏𝑖 𝑦𝑖 + 𝑐𝑖 𝑦𝑖+1 = 𝑑𝑖 ( 2 ≤ 𝑖 ≤ 𝑛 − 1)

Avec : 𝑎𝑖 = 2𝛼𝑖 − Δ𝑥𝛽𝑖 𝑝 𝑥𝑖 𝑐𝑖 = 2𝛼𝑖 + Δ𝑥𝛽𝑖 𝑝 𝑥𝑖

𝑏𝑖 = −4𝛼𝑖 + 2Δ𝑥 2 𝑞 𝑥𝑖 𝑑𝑖 = 2Δ𝑥 2 𝑟 𝑥𝑖

𝑦 𝑎 = 𝑦1
Si par exemple les conditions aux limites sont de type Dirichlet:
𝑦 𝑏 = 𝑦𝑛

On se ramène encore une fois à la résolution d'un système de (𝑛 − 2) équations à autant


d'inconnus qu'on peut arranger sous la forme:

𝑏2 𝑐2 0 . . 0
𝑦2 𝑑2 − 𝑎2 𝑦1
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . .
⋮ = ⋮
. . . . . .
𝑦𝑛−2 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−1 𝑑𝑛 −1 − 𝑐𝑛−1 𝑦𝑛
0 . 0 0 𝑎𝑛−1 𝑏𝑛−1

La matrice résultante est tridiagonale. Elle le restera également si les conditions aux limites
sont de type Newman ou mixtes. Dans ce cas, il faut prendre soin de procéder à une correction
des termes figurant dans la première ligne et la dernière ligne de la matrice tridiagonale et du
second membre.

Calcul des erreurs

𝑦𝑑 𝑖 − 𝑦𝑒 𝑖
𝜀𝑑 𝑖 = 𝑐𝑎𝑠 𝑠𝑕é𝑚𝑎 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒2
𝑦𝑒 𝑖

𝑦𝑐 𝑖 − 𝑦𝑒 𝑖
𝜀𝑐 𝑖 = 𝑐𝑎𝑠 𝑠𝑕é𝑚𝑎 𝑐𝑜𝑚𝑝𝑎𝑐𝑡
𝑦𝑒 𝑖

Quelques indications utiles concernant le calcul numérique des 𝜶𝒊 et 𝜷𝒊

1. Comme le calcul des 𝛼𝑖 et des 𝛽𝑖 est régi par un processus itératif, on fixera à l'avance
le nombre maximum d'itérations (précaution utile dans les processus itératifs).
2. On initialise les 𝛼𝑖 et les𝛽𝑖 à 1 (bonne estimation initiale) pour démarrer le processus
itératif ( 2 ≤ 𝑖 ≤ 𝑛 − 1)
3. On appelle le sous programme qui permet d'inverser la matrice tridiagonale ⇒ 𝑦𝑖 ( 2 ≤
𝑖 ≤ 𝑛 − 1).
4. On utilise les valeurs de 𝑦𝑖 obtenues en 3) pour évaluer les 𝛼𝑖 et les 𝛽𝑖 à l'aide des
expressions établies précédemment.
5. S'il s'agit d'une première évaluation de 𝛼𝑖 et 𝛽𝑖 on retourne à l'étape 3). Dans le cas
contraire, on compare les nouvelles et les anciennes valeurs de 𝑦𝑖 en calculant le
résidu:

Méthodes Numériques A. RTIBI 51


𝑛−1 0.5
𝑦𝑐𝑛𝑣 (𝑖) − 𝑦𝑐𝑎𝑛 (𝑖) 2
𝑅𝑒𝑠 𝑛𝑣 =
𝑦𝑐𝑎𝑛 (𝑖) 2
𝑖=2

 Si 𝑅𝑒𝑠 𝑛𝑣 − 𝑅𝑒𝑠 𝑎𝑛 ≤ 10−5 ⇒ convergence atteinte.


 Si 𝑅𝑒𝑠 𝑛𝑣 − 𝑅𝑒𝑠 𝑎𝑛 > 10−5 ⇒ on vérifie si le nombre d'itérations est inférieur au
nombre maximum d'itérations fixé :
* Oui alors retour à l'étape 3).
* Non alors on donne au programme l'instruction d'imprimer les
résultats de la dernière itération et d'arrêter.

Méthodes Numériques A. RTIBI 52


Travaux Pratiques (à rendre)

But
Mettre en application le contenu du présent chapitre et comparer les précisions de la
méthode aux différences finies d'ordre 2 et du schéma compact.
Formulation
On considère l'équation différentielle suivante:
𝑦 0 =1
′′ ′ 1
𝑦 + 3𝑦 + 2𝑦 = 2𝑥 + 3 𝑥 𝜖 0, 1 𝐶𝐿:
𝑦 1 = 1+
𝑒
L'équation différentielle proposée admet une solution analytique simple à déterminer.
La solution analytique sera considérée comme une référence pour des fins de
comparaison avec les solutions numériques.
 Déterminer la solution analytique de l'équation différentielle proposée avec les
conditions aux limites associées.
 Utiliser un échantillonnage régulier permettant la subdivision de l'intervalle
[0, 1] en (𝑛 − 1) sous intervalles identiques (n nœuds). On prendra 𝑛 =
7, 15 𝑒𝑡 21.
 Elaborer un code numérique adéquat permettant de déterminer 𝑦𝑖 ( 1 ≤ 𝑖 ≤ 𝑛)
en utilisant un schéma aux différences finies précis au second ordre et un
schéma compact.
 Présenter les résultats sous la forme du tableau suivant:
Nombre de nœuds égal: 𝑛 =
𝑥 𝑦𝑒 𝑦𝑑 𝑦𝑐 𝜀𝑑 𝜀𝑐
0
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
1
 Représenter graphiquement, pour les deux méthodes numériques, l'évolution
de l'erreur relative en fonction de x pour les trois valeurs de n proposés.
 Conclure.

Méthodes Numériques A. RTIBI 53


Equations aux dérivées partielles

I. Introduction

Les simulations numériques sont utilisées dans un but de reproduire, par le calcul, le
comportement d'un système décrit par un modèle, très souvent constitué d'équations aux
dérivées partielles (traduction mathématique de lois scientifiques).

On peut retenir que le but d'une simulation numérique est de prédire par le calcul le
comportement d'un système décrit par un modèle mathématique.

II. Equation de la chaleur à une dimension

C'est une équation différentielle partielle du second ordre parabolique, à une dimension, elle
s'écrit:

𝜕𝑇 𝜕2𝑇
=𝛼 2 𝛼 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝜕𝑡 𝜕𝑥
1. Exemples de méthodes explicites
a. Méthode FTCS (Forward Time-Central Space Method)

L'équation de la chaleur est discrétisée comme suit:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
Δ𝑡 Δ𝑥 2
On peut déduire directement:

𝛼Δ𝑡 𝑛 𝛼Δ𝑡
𝑇𝑖𝑛+1 = 𝑇𝑖𝑛 + 𝑛
𝑇 + 𝑇𝑖−1 − 2𝑇𝑖𝑛 = 𝑇𝑖𝑛 1 − 2𝑟 + 𝑟 𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1 ; =𝑟
Δ𝑥 2 𝑖+1 Δ𝑥 2
qui est de l'ordre de Δ𝑡, Δ𝑥 2 .

Stabilité de ce schéma ?

Introduisons une perturbation infinitésimale au nœud 𝑖 à 𝑡 = 0, 𝑇𝑖0 = 𝜀, 𝑇𝑖+1


0 0
= 𝑇𝑖−1 = 0 et
suivons l'évolution de cette perturbation dans le temps, on obtient:

𝑇𝑖1 = 𝑇𝑖0 1 − 2𝑟 ; 𝑇𝑖2 = 𝑇𝑖1 1 − 2𝑟 = 𝜀 1 − 2𝑟 2 ; ⋯ ; 𝑇𝑖𝑛 = 𝜀 1 − 2𝑟 𝑛

𝛼Δ𝑡 1
Ainsi, la perturbation introduite va s'atténuer avec le temps si 0 ≤ 1 − 2𝑟 ≤ 1 𝑐. à. 𝑑 ≤2
Δ𝑥 2

On pourra vérifier que le schéma est consistant.

b. Méthode de Richardson

C'est une méthode précise à l'ordre 2 dans le temps et dans l'espace.

Méthodes Numériques A. RTIBI 54


𝑇𝑖𝑛+1 − 𝑇𝑖𝑛−1 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
2Δ𝑡 Δ𝑥 2
On déduit:

𝛼Δ𝑡 𝑛 𝛼Δ𝑡 𝑛
𝑇𝑖𝑛+1 = 𝑇𝑖𝑛−1 − 4 2
𝑇𝑖 + 2 2
𝑛
𝑇𝑖+1 + 𝑇𝑖−1 = 𝑇𝑖𝑛−1 − 4𝑟𝑇𝑖𝑛 + 2𝑟 𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1
Δ𝑥 Δ𝑥

On introduit une perturbation initiale 𝑇𝑖0 = 𝜀, 𝑇𝑖1 = 0

𝑇𝑖2 = 𝜀; 𝑇𝑖3 = 𝑇𝑖1 − 4𝑟𝑇𝑖2 = 4𝑟𝜀; 𝑇𝑖4 = 𝜀 1 + 16𝑟 2 ; 𝑇𝑖5 = −𝜀 8𝑟 + 64𝑟 3

Donc le second membre va en augmentant et par conséquent, ce schéma d'ordre 2 dans le


temps et dans l'espace est inconditionnellement instable.

c. Schéma de Frankel-Dufort

C'est le schéma de Richardson modifié par introduction d'un terme de viscosité numérique
pour amortir les erreurs.

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 −1 𝛼 𝑛 𝑛 𝑇𝑖𝑛+1 + 𝑇𝑖𝑛−1


= 2 𝑇𝑖+1 + 𝑇𝑖−1 − 2
2Δ𝑡 Δ𝑥 2

On obtient:

1 − 2𝑟 𝑛−1 2𝑟
𝑇𝑖𝑛+1 = 𝑇𝑖 + 𝑇 𝑛 + 𝑇𝑖−1
𝑛
1 + 2r 1 + 2r 𝑖+1
C'est une méthode explicite qui a l'avantage d'être inconditionnellement stable mais non auto
démarrable. On peut la démarrer par exemple par la méthode FTCS.

Question : Vérifier la consistance et la stabilité de ce schéma.

2. Exemples de méthodes implicites

Un schéma est dit implicite lorsque l'équation aux différences finies contient plus d'une
inconnue. Les méthodes implicites offrent davantage de garantie concernant la stabilité et la
plupart d'entre elles sont inconditionnellement stables.

a. Schéma de Laasonen

La discrétisation fait apparaître plusieurs inconnues par équation:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛+1


𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1
=𝛼
2Δ𝑡 Δ𝑥 2
𝑛+1
𝑟𝑇𝑖+1 − 1 + 2𝑟 𝑇𝑖𝑛+1 + 𝑟𝑇𝑖−1
𝑛+1
= −𝑇𝑖𝑛

Stabilité du schéma ?

Perturbons comme suit: 𝑇𝑖0 = 𝜀

Méthodes Numériques A. RTIBI 55


1 1
𝑇𝑖1 = 𝜀 ; ⋯ ; 𝑇𝑖𝑛 = 𝑛
𝜀
1 + 2𝑟 1 + 2𝑟

b. Schéma de Crank Nicolson

C'est un schéma précis d'ordre deux dans le temps et dans l'espace.

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝛼 𝑇𝑖+1


𝑛+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1 𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
= +
Δ𝑡 2 Δ𝑥 2 Δ𝑥 2
𝜕𝑇
Le terme de gauche est perçue comme étant une différence centrée de , en un point A situé à
𝜕𝑡
Δ𝑡
mi-chemin entre les niveaux de temps 𝑛 et 𝑛 + 1 et de pas égal à . Quant au terme de droite
2
du schéma de Crank Nicolson, il représente une moyenne du terme de diffusion au même
point A. La méthode de Crank –Nicolson peut être perçue comme étant la somme de deux
schémas: un explicite et l'autre implicite.

Schéma explicite:

𝑇𝑖𝑛+1 2 − 𝑇𝑖𝑛 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
Δ𝑡 2 Δ𝑥 2

Schéma implicite:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛+1 2 𝑛 +1
𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1
=𝛼
Δ𝑡 2 Δ𝑥 2

Cette méthode implicite est inconditionnellement stable. En effet, si on introduit une


perturbation 𝑇𝑖0 = 𝜀, celle-ci se propage comme suit:
2 𝑛
1−𝑟 1−𝑟 1−𝑟
𝑇𝑖1 = 𝜀 ; 𝑇𝑖2 = 𝜀 ;⋯ ; 𝑇𝑖𝑛 = 𝜀
1+𝑟 1+𝑟 1+𝑟
3. Formule bêta ou formulation implicite généralisée

C'est une forme générale de discrétisation:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛+1


𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼 𝛽 + 1 − 𝛽
Δ𝑡 Δ𝑥 2 Δ𝑥 2

Pour des valeurs particulières de 𝛽, la formulation bêta permet de retrouver les schémas
précédents. Ainsi:

𝛽 = 1 : on retrouve le schéma de Laasonen (méthode implicite)

𝛽 = 0 : on retrouve la méthode FTCS (méthode explicite).

𝛽 = 1 2 : on retrouve le schéma de Crank-Nicolson (méthode implicite).

Méthodes Numériques A. RTIBI 56


Il est à noter que la formulation bêta est inconditionnellement stable pour 1 2 ≤ 𝛽 ≤ 1 et
conditionnellement stable pour 0 ≤ 𝛽 ≤ 1 2.

III. Résolution de l’équation de la chaleur à 2-D par la méthode ADI

Le principe général de résolution de cette équation reste le même indépendamment du


système de coordonnées (sphériques, cylindriques ou cartésiennes). L’équation de la chaleur
bidimensionnelle et transitoire, dans un système de coordonnées cartésiennes, s’écrit comme
suit :

𝜕𝑇 𝜕2𝑇 𝜕2𝑇
=𝛼 + 𝛼 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝜕𝑡 𝜕𝑋 2 𝜕𝑌 2

On va procéder à une adimensionnalisation de l’équation de la chaleur pour procurer un


caractère plus universel à la solution obtenue. L’examen de l’équation de la chaleur montre
qu’on a besoin d’introduire des facteurs d’échelle appropriés pour les coordonnées spatiales
( 𝐷 : longueur ou largeur), la température 𝑇𝐶 − 𝑇𝐹 et le temps 𝐷2 𝛼 . On aura 𝑥, 𝑦 =
𝑋 𝑌 𝑇−𝑇𝐹 𝑡
, ,𝜃 = 𝑇 et 𝜏 = 𝐷 2 𝛼 . L’équation de la chaleur, sous forme adimensionnelle, s’écrit :
𝐷 𝐷 𝐶 −𝑇𝐹

𝜕𝜃 𝜕2𝜃 𝜕2𝜃
=𝛼 +
𝜕𝜏 𝜕𝑥 2 𝜕𝑦 2

La méthode ADI, méthode implicite aux directions alternées, a été introduite par Peaceman et
Rochefort (1955) et elle a été extensivement utilisée depuis pour la résolution de problèmes
transitoires bidimensionnels car, en général, elle conduit à des matrices tridiagonales dans les
deux directions du balayage. De plus, le schéma de calcul est très efficace car stable et
consistant. La méthode ADI utilise deux équations aux différences finies, l’une implicite par
rapport à la première coordonnée et l’autre implicite par rapport à la deuxième coordonnée.
La solution pour chaque étape de temps est obtenue en balayant le domaine horizontalement
ou verticalement (ou l’inverse) en utilisant, dans chaque balayage, une formulation implicite.
On utilise des dérivations centrées, précises à l’ordre 2, pour les dérivations en x et y. Les
deux équations discrétisées, pour faire avancer la solution de 𝜏 = 𝑛Δ𝜏 à 𝜏 + Δ𝜏 = 𝑛 + 1 Δ𝜏,
sont les suivantes :

Température implicite en x :

𝜃𝑖𝑗𝑛 +1 2
− 𝜃𝑖𝑗𝑛 𝑛 +1
𝜃𝑖+1𝑗 2
− 2𝜃𝑖𝑗𝑛+1 2 𝑛 +1
+ 𝜃𝑖−1𝑗 2
𝜃𝑖𝑗𝑛 +1 − 2𝜃𝑖𝑗𝑛 + 𝜃𝑖𝑗𝑛 −1
= +
Δ𝜏 2 Δ𝑥 2 Δ𝑦 2

Pour chaque nœud intérieur au domaine, on aura une équation de la forme :


𝑛+1 2
𝐴1𝑖𝑗 𝜃𝑖+1𝑗 + 𝐵𝑖𝑗1 𝜃𝑖𝑗𝑛+1 2 𝑛+1
+ 𝐶𝑖𝑗1 𝜃𝑖−1𝑗 2
= 𝐷𝑖𝑗1

Les coefficients connus 𝐴1𝑖𝑗 , 𝐵𝑖𝑗1 , 𝐶𝑖𝑗1 𝑒𝑡 𝐷𝑖𝑗1 peuvent être obtenus par identification avec
l’équation précédente. En tenant compte de l’ensemble des nœuds d’une ligne, on obtient un
système d’équations de la forme 𝐴𝑥 = 𝑏, où 𝐴 est une matrice tridiagonale.

Méthodes Numériques A. RTIBI 57


Température implicite en y :

𝜃𝑖𝑗𝑛+1 2
− 𝜃𝑖𝑗𝑛 𝑛+1
𝜃𝑖+1𝑗 2
− 2𝜃𝑖𝑗𝑛 +1 2 𝑛+1
+ 𝜃𝑖−1𝑗 2
𝜃𝑖𝑗𝑛+1 𝑛 +1
+1 − 2𝜃𝑖𝑗 + 𝜃𝑖𝑗𝑛+1
−1
= +
Δ𝜏 2 Δ𝑥 2 Δ𝑦 2

De manière similaire, pour un nœud (i, j) donné, cet équation peut être écrite sous la forme
condensée suivante :

𝐴2𝑖𝑗 𝜃𝑖𝑗𝑛+1 2 𝑛+1


−1 + 𝐵𝑖𝑗 𝜃𝑖𝑗 + 𝐶𝑖𝑗2 𝜃𝑖𝑗𝑛+1 2
+1 = 𝐷𝑖𝑗

En tenant compte de l’ensemble des colonnes et des conditions aux limites associées, on
obtient à nouveau un système linéaire de la forme 𝐴𝑥 = 𝑏 où A est une matrice tridiagonale.

Pour introduire les conditions aux limites, on va prendre un exemple concret d’un domaine
rectangulaire de largeur L et de hauteur 𝐻(𝐻 = 2𝐿) initialement en équilibre à la température
𝑇𝐹 . A l’instant 𝑡 = 0𝑠, on porte la température d’une paroi verticale à 𝑇𝐶 (𝑇𝐶 > 𝑇𝐹 ) et on
maintient les parois horizontales adiabatiques. Le gradient de température étant imposé dans
la direction de la largeur, on prendra L comme étant une longueur caractéristique. Ainsi, les
conditions aux limites adimensionnlles associées au problème sont telles que 𝜃 = 1 pour
𝑥 = 0 et 𝜃 = 0 pour 𝑥 = 1.
𝜕𝜃 𝜕𝜃
Sur les parois horizontales on aura : = 0 et =0
𝜕𝑦 𝑦=0 𝜕𝑦 𝑦=2

L’introduction des conditions aux frontières nécessite la correction de certains termes. Ainsi,
𝑛+1 2
pour un balayage implicite en 𝑥, on a 𝜃1𝑗 = 1 en 𝑥 = 0 ⇒ 𝐴12𝑗 doit être balancé dans le
1 1
second membre pour s’ajouter à 𝐷2𝑗 . Par contre, comme 𝜃 = 0 en 𝑥 = 1, le terme 𝐷𝑀−1𝑗 ne
nécessite pas d’être corrigé (𝑀 étant le nombre de nœuds dans la direction de la largeur,
située sur la paroi froide).
𝜕𝜃 𝑛 +1 𝑛+1 𝑛+1
Pour un balayage implicite en y, on a = 0 ⇒ −3𝜃𝑖1 + 4𝜃𝑖2 −𝜃𝑖3 = 0 et
𝜕𝑦 𝑦 =0
𝑛 +1 𝑛 +1
𝑛+1 4𝜃𝑖2 −𝜃𝑖3
𝜃𝑖1 = 3

Pour j = 2 :

2
4 𝑛 +1 1 𝑛 +1
𝐵𝑖2 + 𝐴2𝑖2 𝜃𝑖2 2
+ 𝐶𝑖2 − 𝐴2𝑖2 𝜃𝑖3 2
= 𝐷𝑖2
3 3
𝑛 +1 𝑛 +1
𝜕𝜃 𝑛+1 𝑛+1 𝑛+1 𝑛+1 4𝜃𝑖𝑁 −1 −𝜃𝑖𝑁 −2
De même, 𝜕𝑦 = 0 ⇒ 3𝜃𝑖𝑁 − 4𝜃𝑖𝑁−1 +𝜃𝑖𝑁−2 = 0 et 𝜃𝑖𝑁 =
𝑦=2 3

Pour 𝑗 = 𝑁 − 1 :

2
4 2 𝑛+1 1 2 𝑛+1
𝐵𝑖𝑁−1 + 𝐶𝑖𝑁−1 𝜃𝑖𝑁−1 + 𝐴2𝑖𝑁−1 − 𝐶𝑖𝑁−1 𝜃𝑖𝑁−2 2
= 𝐷𝑖𝑁−1
3 3

Méthodes Numériques A. RTIBI 58


En définitive, une fois les conditions aux frontières sont prises en compte, la matrice
résultante est une matrice tridiagonale.

Méthodes Numériques A. RTIBI 59

Vous aimerez peut-être aussi