Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Dans la nature, les systèmes et phénomènes physiques les plus intéressants sont aussi les plus
complexes à étudier. Ils sont souvent régis par un grand nombre de paramètres non-linéaires
interagissant entre eux ( météorologie, turbulence des fluides...).
Pour analyser les paramètres et grandeurs d’un système naturel il faut recourir à une série
d'expériences. Mais les essais peuvent s'avérer très coûteux (essais en vol, essais avec
matériaux rares, instrumentations très chères...) et ils peuvent être très dangereux (essais
nucléaires, environnement spatial...). Enfin il peut être difficile de mesurer tous les
paramètres: échelles du problème trop petites (chimie du vivant, couche limite en fluide...) ou
trop grandes (astrophysique, météorologie, géophysique...).
Les modèles mathématiques utilisent très souvent des systèmes d'équations aux dérivées
partielles (EDP) non-linéaires dont on ne connait pas de solutions analytiques en général. Il
faut alors résoudre le problème numériquement en transformant les équations continues de la
physique en un problème discret sur un certain domaine de calcul (le maillage). Dans certains
cas il s'agit de la seule alternative (nucléaire, astrophysique, spatial...). Dans d'autres cas, les
simulations numériques sont menées en parallèle avec des expérimentations.
I. Introduction
A partir d'une fonction 𝑓(𝑥) connue en (𝑛 + 1) points de la forme [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 =
0, 1, … , 𝑛], peut-on construire une approximation de 𝑓(𝑥) pour tout 𝑥 ?
Les points [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛] sont appelés points de collocation ou points
d'interpolation. Ils peuvent provenir essentiellement de données expérimentales ou
numériques. Le problème d'interpolation se ramène en fait à la construction d'un polynôme de
degré élevé dont la courbe passe par tous les points de collocation et capable de restituer
toutes les valeurs entre les nœuds. En d'autres termes, il s'agit de trouver un modèle
mathématique afin de réduire toute information en une expression mathématique facilement
exploitable. De ce fait, le recours aux techniques d'interpolation permet d'avoir des courbes
régulières (lisses) passant par un nombre de points élevé (génération de nœuds
supplémentaires).
Théorème
Un polynôme de degré 𝑛 de forme générale 𝑝𝑛 𝑥 = 𝑎0 + 𝑎1 𝑥 + ⋯ + 𝑎𝑛 𝑥 𝑛 𝑎𝑛 ≠ 0,
possède exactement 𝑛 racines qui peuvent être réelles ou complexes conjuguées.
Corollaire
Par (𝑛 + 1) points de collocation [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛], on ne peut faire passer
qu'un et un seul polynôme de degré 𝑛.
Démonstration
Admettons l'existence de deux polynômes de degrés 𝑛 chacun, notés 𝑝𝑛 𝑥 et 𝑔𝑛 𝑥 , passant
par les (𝑛 + 1) points de collocation.
𝑝𝑛 𝑥𝑖 = 𝑓 𝑥𝑖 ; ∀ 𝑖 = 0,1, … , 𝑛
ou encore:
𝑎0 + 𝑎1 𝑥𝑖 + ⋯ + 𝑎𝑛 𝑥𝑖𝑛 = 𝑓 𝑥𝑖 ; ∀ 𝑖 = 0,1, … , 𝑛
1 𝑥0 𝑥02 ⋯ 𝑥0𝑛 𝑎0 𝑓 𝑥0
𝑥1𝑛 𝑎1
= 𝑓 𝑥1
⋮ ⋱
⋮ ⋮ ⋮
1 𝑥𝑛 𝑥𝑛2 ⋯ 𝑥𝑛𝑛 𝑎𝑛 𝑓 𝑥𝑛
Exercice
Trouver un polynôme qui interpole le nuage de points (0,1), (1,2), (2,9) 𝑒𝑡 (3,28). Le nuage
contient 4 points distincts, le polynôme cherché est donc de degré 3. Ses coefficients 𝑎𝑖 sont
solution de :
0 0 0 1 𝑎3 1
1 1 1 1 𝑎2 2
8 4 2 1 𝑎1 = 9
27 9 3 1 𝑎0 28
dont la solution est 1,0,0,1 𝑡 . Le polynôme recherché est donc : 𝑝3 𝑥 = 𝑥 3 + 1
On remarque 𝐿𝑖 𝑥𝑗 = 𝛿𝑖𝑗
Généralisation
Soit 𝑓 une fonction réelle d’une variable réelle définie sur [𝑎, 𝑏] qui contient les points
[𝑥𝑖 , 𝑖 = 0, 1, … , 𝑛] distincts tel que 𝑓 𝑥𝑖 = 𝑓𝑖 , 𝑖 = 0, 1, … , 𝑛:
Théorème
Il existe un polynôme 𝑃𝑛 unique de degré au plus égal à 𝑛 tel que :
∀ 𝑖 = 0, 1, … , 𝑛 𝑃𝑛 𝑥𝑖 = 𝑓𝑖
Démonstration.
Propriétés :
𝐿𝑖 𝑥𝑖 = 1 ∀𝑖; 𝐿𝑖 𝑥𝑗 = 0 ∀ 𝑗 ≠ 𝑖; 𝑑°𝐿𝑖 = 𝑛
On prend :
𝑛
𝑃𝑛 𝑥 = 𝑓𝑖 𝐿𝑖 𝑥
𝑖=0
On a
𝑃𝑛 𝑥𝑖 = 𝑓𝑖
unicité :
On pose 𝑅 = 𝑃𝑛 − 𝑄𝑛 , 𝑑0 ≤ 𝑛
𝑅 𝑥𝑖 = 0 ∀ 𝑖 = 0, 1, … , 𝑛 ⇒ 𝑅 𝑎𝑑𝑚𝑒𝑡 𝑛 + 1 𝑟𝑎𝑐𝑖𝑛𝑒𝑠
Donc 𝑅 = 0
Définition
Le polynôme 𝑃𝑛 s’appelle le polynôme d’interpolation de Lagrange de la fonction 𝑓
relativement aux points (𝑥𝑖 , 𝑓 𝑥𝑖 , 𝑖 = 0, 1, … , 𝑛].
𝑃3 𝑥 = 𝑦0 𝐿0 𝑥 + 𝑦1 𝐿1 𝑥 + 𝑦2 𝐿2 𝑥 + 𝑦3 𝐿3 𝑥
𝑥 − 𝑥1 𝑥 − 𝑥2 𝑥 − 𝑥3 𝑥 − 𝑥0 𝑥 − 𝑥2 𝑥 − 𝑥3
= 𝑦0 + 𝑦1
𝑥0 − 𝑥1 𝑥0 − 𝑥2 𝑥0 − 𝑥3 𝑥1 − 𝑥0 𝑥1 − 𝑥2 𝑥1 − 𝑥3
𝑥 − 𝑥0 𝑥 − 𝑥1 𝑥 − 𝑥3 𝑥 − 𝑥0 𝑥 − 𝑥1 𝑥 − 𝑥2
+ 𝑦2 + 𝑦3
𝑥2 − 𝑥0 𝑥2 − 𝑥1 𝑥2 − 𝑥3 𝑥3 − 𝑥0 𝑥3 − 𝑥1 𝑥3 − 𝑥2
𝑝3 𝑥 = 𝑥 3 + 1
Remarque
La méthode d’interpolation de Lagrange présente un inconvénient majeur : elle n’est pas
récursive. En effet, si on souhaite passer d’un polynôme de degré n à un polynôme de degré
(𝑛 + 1) (en ajoutant un point d’interpolation), on doit reprendre tout le processus à zéro. Dans
l’exemple précédent, si on souhaite obtenir le polynôme de degré 4 correspondant aux points
(0; 1), (1; 2), (2; 9), (3; 28) et (5; 54), on ne peut d’aucune façon récupérer le polynôme de
degré 3 déjà calculé et de le modifier simplement pour obtenir 𝑃4 𝑥 . C’est en revanche ce
que permet la méthode d’interpolation de Newton
𝑓 𝑥𝑖 = 𝑓 𝑥𝑖
On appelle différence divisée d’ordre 1 :
𝑓 𝑥𝑖 − 𝑓 𝑥𝑗
𝑓 𝑥𝑖 , 𝑥𝑗 = , 𝑖≠𝑗
𝑥𝑖 − 𝑥𝑗
𝑓 𝑥𝑖 , 𝑥𝑗 − 𝑓 𝑥𝑗 , 𝑥𝑘
𝑓 𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 = , 𝑖 ≠ 𝑗, 𝑖 ≠ 𝑘 𝑒𝑡 𝑗 ≠ 𝑘
𝑥𝑖 − 𝑥𝑘
On appelle différence divisée d’ordre n :
𝑓 𝑥0 , 𝑥1 , … , 𝑥𝑛 −1 − 𝑓 𝑥1 , … , 𝑥𝑛
𝑓 𝑥0 , 𝑥1 , … , 𝑥𝑛 = ,
𝑥0 − 𝑥𝑛
𝑃𝑛 𝑥 = 𝑥 − 𝑥0 𝑃𝑛−1 𝑥 + 𝑓 𝑥0
𝑃𝑛 𝑥 − 𝑓 𝑥0
𝑃𝑛 −1 𝑥 =
𝑥 − 𝑥0
𝑃𝑛 𝑥𝑖 − 𝑓 𝑥0 𝑓 𝑥𝑖 − 𝑓 𝑥0
𝑃𝑛−1 𝑥𝑖 = = = 𝑓 𝑥0 , 𝑥𝑖 ∀𝑖 ≥1
𝑥𝑖 − 𝑥0 𝑥𝑖 − 𝑥0
Divisons 𝑃𝑛−1 par 𝑥 − 𝑥1 , on aura :
𝑃𝑛 −1 𝑥 = 𝑥 − 𝑥1 𝑃𝑛−2 𝑥 + 𝑃𝑛 −1 𝑥1
𝑃𝑛−1 𝑥 − 𝑃𝑛 −1 𝑥1
𝑃𝑛 −2 𝑥 =
𝑥 − 𝑥1
𝑃𝑛 −1 𝑥𝑖 − 𝑃𝑛−1 𝑥1 𝑓 𝑥0 , 𝑥𝑖 − 𝑓 𝑥0 , 𝑥1
𝑃𝑛−2 𝑥𝑖 = = = 𝑓 𝑥0 , 𝑥1 , 𝑥𝑖 ∀𝑖 ≥2
𝑥𝑖 − 𝑥1 𝑥𝑖 − 𝑥1
De proche en proche on aura : formule de Newton
𝑃𝑛 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1
+ ⋯ 𝑓 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑛 𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑛−1
La formule de Newton (ou polynôme de Newton) est une autre forme d’écriture du polynôme
d’interpolation de Lagrange.
L’intérêt du polynôme de Newton est qu’il est plus maniable et moins coûteux et peut être
calculé de manière récursive.
Pour 𝑚 = 0,1, … , 𝑛 , on définit 𝑃𝑚 par les formules de récurrence suivantes :
𝑃0 𝑥 = 𝑓 𝑥0
𝑃𝑚 +1 𝑥 = 𝑃𝑚 𝑥 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑚 +1 𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑚
Les différences divisées 𝑓 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑘 sont calculées à l’aide d’une table triangulaire, dite
table des différences divisées de la façon suivante :
𝑃3 𝑥 = 1 + 1 𝑥 − 0 + 3 𝑥 − 0 𝑥 − 1 + 1 𝑥 − 0 𝑥 − 1 𝑥 − 2
Soit en développant l’expression de 𝑃3 dans la base canonique :
𝑃3 𝑥 = 𝑥 3 + 1
qui est le même que celui obtenu par la méthode de Lagrange.
Remarque.
Si on souhaite ajouter un point de collocation (d’interpolation) et calculer un polynôme de
degré 4, il n’est pas nécessaire de tout recommencer. Par exemple, si on veut déterminer le
polynôme d’interpolation 𝑃4 𝑥 de degré 4 qui passe par les points (0;1), (1;2), (2;9),(3;28) et
(5;54).
La table de différences divisées pour les points (0;1), (1;2), (2;9), (3;28) et (5;54) est :
𝑃4 𝑥 = 𝑃3 𝑥 + (−3/5) 𝑥 − 0 𝑥 − 1 𝑥 − 2 𝑥 − 3
qui est tout simplement le polynôme de degré 3 déjà calculé auquel on a ajouté une correction
de degré 4.
V. Splines cubiques
La méthode d'interpolation par splines cubiques consiste à utiliser, dans chaque intervalle
𝑥𝑖−1 , 𝑥𝑖 un polynôme de degré 3 de la forme:
3 2
𝑝𝑖 𝑥 = 𝑎𝑖 𝑥 − 𝑥𝑖−1 + 𝑏𝑖 𝑥 − 𝑥𝑖−1 + 𝑐𝑖 𝑥 − 𝑥𝑖−1 + 𝑑𝑖 ; 𝑖 = 1, … , 𝑛
Sa dérivée première et seconde sont :
Dans l'équation précédente, les inconnus sont les 𝑀𝑖 . On arrangera l'écriture de cette équation
sous la forme:
𝑝𝑖+2 − 𝑝𝑖+1 𝑝𝑖+1 − 𝑝𝑖
𝑀𝑖 𝑖 + 2𝑀𝑖+1 𝑖 + 𝑖+1 + 𝑖+1 𝑀𝑖+2 = 3 − = 𝛼𝑖+1
𝑖+1 𝑖
𝑖 = 1, … , 𝑛 − 1
Cette équation est une écriture condensée d'un système de 𝑛 − 1 équations, elle peut être
réécrite sous la forme matricielle suivante:
1 2 1 + 2 2 0 . 0
𝑀1 𝛼2
0 2 2 2 + 3 3 . 0 𝑀2 𝛼3
. 0 0 0 . . ⋮ = ⋮
. . . . . . 𝑀𝑛 ⋮
. . . . . 0 𝑀𝑛+1 𝛼𝑛
0 0 0 𝑛−1 2 𝑛−1 + 𝑛 𝑛
On obtient ainsi un système de 𝑛 − 1 équations à 𝑛 + 1 inconnus. Deux conditions
supplémentaires sont nécessaires pour réduire le nombre d'inconnus à autant d'équations.
Plusieurs choix sont possibles. Ces choix restent en général sans grande influence sur la
- Splines naturelles
Ce choix consiste à imposer 𝑀1 = 𝑀𝑛 +1 = 0, on se ramène dans ce cas à la résolution d'un
système tridiagonal.
- Autre choix
𝑀1 = 𝑀2 et 𝑀𝑛+1 = 𝑀𝑛 Choix imposant une courbure constante dans le premier et le dernier
intervalles.
D'autres choix sont aussi possibles; ils permettent également de ramener le problème à un
système tridiagonal dont les avantages ne sont plus à démontrer.
Formulation
On dispose du tableau suivant montrant des valeurs expérimentales obtenues en mesurant la
vitesse (en km/h) d'un véhicule toutes les 5 secondes:
t(s) 0 5 10 15 20 25 30 35 40 45
v(km/h) 70 75 73 69 70 75 69 72 67 64
1. Montrer que, sur la base des données du tableau précédent, l'interpolation basée sur
l'utilisation du polynôme Lagrange (ou de Newton) conduirait à des erreurs
importantes aux temps t = 2.5s et 42.5s. Justifier votre réponse en déduisant les
valeurs de la vitesse à partir du polynôme de Lagrange de degré 9 (polynôme construit
à partir de 10 points de collocation).
Rappel
La forme générale du polynôme de Lagrange de degré 𝑛 est
𝑛
où 𝑓(𝑥𝑖 ) est une fonction connue par ses valeurs aux nœuds de collocation et nulle part
ailleurs et les polynômes 𝐿𝑖 𝑥 sont donnés par:
𝑥 − 𝑥0 𝑥 − 𝑥1 … 𝑥 − 𝑥𝑖−1 𝑥 − 𝑥𝑖+1 … 𝑥 − 𝑥𝑛
𝐿𝑖 𝑥 =
𝑥𝑖 − 𝑥0 𝑥𝑖 − 𝑥1 … 𝑥𝑖 − 𝑥𝑖−1 𝑥𝑖 − 𝑥𝑖+1 . . 𝑥𝑖 − 𝑥𝑛
𝑖 = 0,1 … … … , 𝑛
2. Développer un code numérique adéquat utilisant la méthode des splines cubiques et
générer, à partir du tableau précédent, 100 points ((xj, f(xj), avec j variant de 0 à 50).
3. Tracer la courbe de la vitesse en fonction du temps.
4. Déduire les valeurs de la vitesse aux temps t = 2.5s et 42.5s.
5. Conclure.
I. Introduction
On a vu que la méthode d’interpolation permet d’évaluer la valeur d’une fonction en un point
quelconque situé entre deux points de collocation, [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛]. Dans ce
chapitre, il s’agit plutôt d’évaluer les dérivées de cette fonction de même que son intégrale
𝑥𝑛
′
𝑓 𝑥 𝑒𝑡 𝑓 𝑥 𝑑𝑥
𝑥0
1. dérivées d’ordre 1
L’approximation des dérivées d’ordre 1 est une évaluation de la pente de la fonction 𝑓(𝑥).
L’ordre et la précision dépendent du polynôme d’interpolation qui peut être de degré plus ou
moins élevé. En fait, on montre que si on utilise un polynôme d’interpolation de degré n, la
dérivée de ce polynôme, évaluée en 𝑥 = 𝑥𝑖 , est une approximation d’ordre 𝑛 pour 𝑓 ′ 𝑥𝑖 .
𝑝1 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0
Remarque
La même différence divisée est une approximation de la dérivée à la fois en 𝑥 = 𝑥0 et en
𝑥 = 𝑥1 avec des termes d’erreurs différents.
𝑝2 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1
𝑓 ′ 𝑥0 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥0 − 𝑥1 + 𝐸2′ 𝑥0
𝑓 ′ 𝑥1 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥1 − 𝑥0 + 𝐸2′ 𝑥1
𝑓 ′ 𝑥2 = 𝑓 𝑥0 , 𝑥1 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 2𝑥2 − 𝑥0 − 𝑥1 + 𝐸2′ 𝑥2
Si on pose 𝑥2 − 𝑥1 = 𝑥1 − 𝑥0 =
−𝑓 𝑥2 + 4𝑓 𝑥1 − 3𝑓 𝑥0
𝑓 ′ 𝑥0 = + 𝐸2′ 𝑥0 (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑎𝑣𝑎𝑛𝑡 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2
𝑓 𝑥2 − 𝑓 𝑥0
𝑓 ′ 𝑥1 = + 𝐸2′ 𝑥1 (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2
3𝑓 𝑥2 − 4𝑓 𝑥1 + 𝑓 𝑥0
𝑓 ′ 𝑥2 = + 𝐸2′ 𝑥2 (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑎𝑟𝑟𝑖è𝑟𝑒 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2
2. dérivées d’ordre supérieur
Les dérivées d’ordre supérieur à un posent un problème au niveau de l’analyse de l’erreur
𝐸𝑛 (𝑥). On contourne la difficulté en utilisant une approche basée sur des développements de
Taylor.
Le polynôme de degré 2 qui interpole une fonction passant par 3 points est :
𝑓 𝑥2 − 2𝑓 𝑥1 + 𝑓 𝑥0
𝑝2′′ 𝑥 = 2𝑓 𝑥0 , 𝑥1 , 𝑥2 =
2
𝑓 𝑥2 − 2𝑓 𝑥1 + 𝑓 𝑥0
𝑓 ′′ 𝑥0 = 𝑓 ′′ 𝑥1 = 𝑓 ′′ 𝑥2 = 𝑒𝑡 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑥 ∈ 𝑥0 , 𝑥2
2
Discussion sur l’ordre de cette approximation
Procédant par un développement de Taylor pour trouver l’ordre de l’approximation de
𝑓 ′′ 𝑥0 , 𝑓 ′′ 𝑥1 𝑒𝑡 𝑓 ′′ 𝑥2
On a
1 1
𝑔 𝑦 ± 𝑚 = 𝑔 𝑦 ± 𝑚𝑔′ 𝑦 + 𝑚 2 𝑔′′ 𝑦 ± 𝑚 3 𝑔′′′ 𝑦 + 𝑂(4 )
2 6
ordre de l’approximation en 𝑥0
𝑓 𝑥0 + 2 − 2𝑓 𝑥0 + + 𝑓 𝑥0 2 𝑓 ′′ 𝑥0 + 3 𝑓 ′′′ 𝑥0 + 𝑂(4 )
=
2 2
′′ ′′′ 2 ′′
= 𝑓 𝑥0 + 𝑓 𝑥0 + 𝑂 = 𝑓 𝑥0 + 𝑂
L’approximation est d’ordre 1 de la dérivée seconde en 𝑥0
ordre de l’approximation en 𝑥1
ordre de l’approximation en 𝑥2
𝑓 𝑥2 − 2𝑓 𝑥2 − + 𝑓 𝑥2 − 2
= 𝑓 ′′ 𝑥2 + 𝑂
2
L’approximation est d’ordre 1 de la dérivée seconde en 𝑥2
Remarque
La symétrie des différences centrées a permis de gagner un ordre de précision.
3. Extrapolation de Richardson
C’est une technique qui permet d’améliorer la précision d’une méthode d’approximation
Désignons par 𝑄ap (h) une approximation numérique d’une quantité exacte 𝑄ex inconnue.
Généralement, plus le pas est petit plus l’approximation est précise.
L’idée consiste à combiner les deux équations de façon à faire disparaître le terme cn 𝑛 qui
est d’ordre 𝑛.
1
2𝑛 − 1 𝑄ex = 2𝑛 𝑄ap /2 − 𝑄ap − cn+1 𝑛+1 + ⋯
2
2𝑛 𝑄ap /2 − 𝑄ap
𝑄ex = + 𝑂(𝑛+1 )
2𝑛 − 1
L’extrapolation de Richardson permet ainsi de gagner au moins un ordre de précision. Si
cn+1 = 0 (cas souvent observé lorsqu’on utilise des différences centrées), l’approximation
devient d’ordre (𝑛 + 2).
Exemple
𝑓 𝑥 = 𝑒 𝑥 on a 𝑓 ′ 0 = 1 (résultat analytique).
𝑒 0.1 −𝑒 0
Pour = 0.1 : 𝑓 ′ 0 = = 1.05170918 = 𝑄ap 0.1
0.1
𝑒 0.05 −𝑒 0
Pour = 0.05 : 𝑓 ′ 0 = = 1.02542192 = 𝑄ap 0.05
0.05
𝑒 0.05 −𝑒 −005
Pour = 0.05 : 𝑓 ′ 0 = = 1.000416719 = 𝑄ap 0.05
2×0.05
𝑒 0.025 −𝑒 −0025
Pour = 0.025 : 𝑓 ′ 0 = = 1.00010418 = 𝑄ap 0.025
2×0.05
𝑥1
= 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 𝑑𝑥 𝑥0 𝑥1
𝑥0
𝑥 1 −𝑥 0
𝑓(𝑥)
= 𝑓 𝑥0 + 𝑓 𝑥1 C’est l’aire du trapèze
2
𝑥0 𝑥𝑖 𝑥𝑖+1 𝑥𝑛
= 𝑓 𝑥0 + 2 𝑓 𝑥1 + ⋯ 𝑓 𝑥𝑛−1 + 𝑓 𝑥𝑛
2
qui est la formule des trapèzes composée.
On montre que la précision est d’ordre 2 pour la méthode des trapèzes composée.
Exemple
𝜋 2
𝑠𝑖𝑛𝑥 𝑑𝑥 = 1 (𝑣𝑎𝑙𝑒𝑢𝑟 𝑎𝑛𝑎𝑙𝑦𝑡𝑖𝑞𝑢𝑒 𝑒𝑥𝑎𝑐𝑡𝑒)
0
dont l’erreur est 0.0032148 qui est environ quatre fois plus petite que celle obtenue avec 4
sous intervalles ; ce qui justifie que la méthode des trapèzes est d’ordre 2.
Pour obtenir une précision au moins égale à 3, on utilise la formule de Richardson avec
𝑛 = 2:
𝜋 2
22 0.9967852 − 0.9871158
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ = 1.000008333
0 22 − 1
Remarque
La méthode des trapèzes composée est d’ordre 2. La méthode des trapèzes simple,
bien qu’elle soit d’ordre 3, est rarement utilisée car elle est imprécise (on montre que
𝑝2 𝑥 = 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1
𝑥2 𝑥2
𝑓 𝑥 𝑑𝑥 ≈ 𝑝2 𝑥 )𝑑𝑥
𝑥0 𝑥0
𝑥2
= 𝑓 𝑥0 + 𝑓 𝑥0 , 𝑥1 𝑥 − 𝑥0 + 𝑓 𝑥0 , 𝑥1 , 𝑥2 𝑥 − 𝑥0 𝑥 − 𝑥1 𝑑𝑥
𝑥0
Pour = 𝑥1 − 𝑥0 = 𝑥2 − 𝑥1 on a :
𝑥2
𝑓 𝑥 𝑑𝑥 ≈ 𝑓 𝑥0 + 4𝑓 𝑥1 + 𝑓(𝑥2 )
𝑥0 3
Exemple
𝜋 2
𝜋 4
𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 𝑠𝑖𝑛0 + 4𝑠𝑖𝑛 𝜋 4 + 𝑠𝑖𝑛 𝜋 2 = 1.00227987
0 3
résultat plus précis que celui obtenu par la méthode des trapèzes simple. La précision de la
méthode de Simpson 1/3 peut être améliorée aussi par la décomposition de l’intervalle en sous
intervalles.( Simpson 1/3 composée)
Puisque la méthode de Simpson 1/3 requiert 2 intervalles, on divise l’intervalle d’intégration
[a, b] en 2n sous intervalles et on utilise la méthode Simpson 1/3 simple dans chaque paire de
sous intervalles. On obtient alors la méthode de Simpson 1/3 composée comme suit :
𝑛 𝑛
𝑥𝑛 𝑥 𝑖+1
𝑓 𝑥 𝑑𝑥 = 𝑓 𝑥 𝑑𝑥 ≈ 𝑓 𝑥2𝑖 + 4𝑓 𝑥2𝑖+1 + 𝑓(𝑥2𝑖+2 )
𝑥0 𝑥𝑖 3
𝑖=0 𝑖=0
= 𝑓 𝑥0 + 4𝑓 𝑥1 + 𝑓(𝑥2 ) + 𝑓 𝑥2 + 4𝑓 𝑥3 + 𝑓(𝑥4 )
3
+ ⋯ 𝑓 𝑥2𝑛−2 + 4𝑓 𝑥2𝑛−1 + 𝑓(𝑥2𝑛 )
= 𝑓 𝑥0 + 4𝑓 𝑥1 + 𝑓(𝑥2 ) + 𝑓 𝑥2 + 4𝑓 𝑥3 + 𝑓(𝑥4 )
3
+ ⋯ 𝑓 𝑥2𝑛−2 + 4𝑓 𝑥2𝑛−1 + 𝑓(𝑥2𝑛 )
On remarque que tous les termes de rang pair / (impair) sont multipliés par 2 / (4) sauf le
premier et le dernier.
Exemple
3
= 𝑓 𝑥0 + 3𝑓 𝑥1 + 3𝑓 𝑥2 + 2𝑓 𝑥3 + 3𝑓 𝑥4 + ⋯ + 2𝑓 𝑥3𝑛−3 + 3𝑓 𝑥3𝑛−2
8
+ 3𝑓 𝑥3𝑛−1 + 𝑓 𝑥3𝑛
Remarque
La méthode de Simpson 3/8 est beaucoup moins utilisée que celle de Simpson 1/3.
But
Evaluer numériquement :
1
𝑓 𝑥 𝑑𝑥
0
en utilisant les méthodes des trapèzes et de Simpson 1/3 composées en utilisant 9 nœuds et 17
nœuds. Utiliser l’extrapolation de Richardson pour les deux méthodes. Conclure.
On donne 𝑓 𝑥 = 4𝑥 3 + 3𝑥 2 + 2𝑥 + 1.
I. Introduction
Dans ce chapitre, on passera en revue les principales méthodes numériques utilisées pour
trouver une racine d’une équation non linéaire. On examinera les spécificités et le
comportement de chaque méthode. Il s’agit donc de décrire quelques méthodes pour résoudre
numériquement une équation de la forme :
𝑓 𝑥 =0
Les méthodes proposées sont itératives construisant une suite (𝑥𝑛 ) vérifiant à la fin
lim𝑛→∞ 𝑥𝑛 = 𝑟 . Le but consiste donc à chercher une valeur de 𝑥, notée 𝑟, racine ou zéro de
la fonction 𝑓(𝑥). En règle générale, lorsque plusieurs solutions sont possibles, il est difficile
de prévoir à l’avance vers quelle racine r une méthode itérative converge. Si on tombe sur une
racine non souhaitée, on doit recommencer l’algorithme avec un autre point de départ
(estimation initiale de la solution). Il est à noter que le recours aux méthodes numériques
devient une alternative incontournable en l’absence de solution analytique ou lorsque
l’obtention de cette dernière nécessite des développements mathématiques complexes.
Définition : Un point fixe pour une fonction 𝑔(𝑥) est une valeur de 𝑥 invariante pour cette
fonction, i.e. toute solution de 𝑔 𝑥 = 𝑥 est un point fixe pour la fonction 𝑔(𝑥).
Exemple
Pour la fonction 𝑥 = 𝑥 3 , les valeurs 0, 1 et −1 sont des points fixes pour 𝑔. Pour établir un
algorithme permettant de déterminer les points fixes, on effectue les opérations de la forme
suivante :
Où 𝑥0 est une valeur estimée initialement ; elle est ‘quelconque’ à priori. L’algorithme
construit est général et son importance réside dans la relative facilité avec laquelle on analyse
la convergence.
Exemple
Considérons l’équation 𝑓 𝑥 = 𝑥 3 + 𝑥 − 1 = 0 , Il existe plusieurs façons de transformer
𝑓(𝑥) sous la forme ) 𝑔 𝑥 = 𝑥. On propose à titre indicatif les transformations suivantes :
3 1
−𝑥 3 + 1 = 𝑥 1−𝑥 =𝑥 𝑥=
1 + 𝑥2
Toutes les transformations précédentes sont possibles (elles ne sont pas les seules) mais on
verra et on comprendra plus tard qu’elles ne sont pas équivalentes pour les performances de la
méthode des points fixes.
Remarque
Seuls certains choix conduisent à des algorithmes convergents. Ainsi, selon le choix de la
fonction itérative 𝑔(𝑥) et de la valeur initiale 𝑥0 , l’algorithme des points fixes peut converger
ou carrément diverger. D’où l’intérêt d’étudier les conditions de convergence de cette
méthode.
𝑒𝑛 = 𝑥𝑛 − 𝑟
Question : Sous quelles conditions, l’algorithme des points fixes converge-t-il vers la racine ?
Si la convergence a lieu, l’erreur en va tendre vers 0 lorsque 𝑛 devient suffisamment grand.
Examinons comment évolue l’erreur.
Cette relation renseigne sur la vitesse avec laquelle l’erreur diminue. En fait, plus 𝑔′ 𝑟 est
petit, plus la convergence est rapide.
Définitions
Le taux de convergence d’une méthode de points fixes est donné par 𝑔′ 𝑟 , Lorsqu’il
est nul l’erreur est proportionnelle à 𝑒𝑛2 dans le cas où 𝑔′′ 𝑟 ≠ 0
Une méthode de points fixes converge à l’ordre 𝑝 si 𝑒𝑛+1 ≈ 𝑐 𝑒𝑛 𝑝 où 𝑐 est une
constante.
La convergence d’ordre 1 est dite linéaire, celle d’ordre 2 est dite quadratique.
Remarques
Définitions
Le bassin d’attraction de la racine r comprend donc tous les points 𝑥0 pour lesquels la
méthode des points fixes converge vers la racine 𝑟.
On pourra avoir recours à une méthode graphique pour choisir 𝑥0 aussi près que possible de r.
Exemple
Considérons 𝑔 𝑥 = 𝑥 3 qui possède les trois points fixes 0, ±1. Or, les points fixes 𝑥 = ±1
sont répulsifs car 𝑔′ ±1 = 3 Le point fixe 𝑥 = 0 est plus intéressant car 𝑔′ 0 = 0 c’est
donc un point fixe attractif. La suite des valeurs engendrées par la MPF à partir de
𝑥0 , 𝑥0 3 , 𝑥0 9 , 𝑥0 27 , … .. Cette suite converge vers 0 si 𝑥0 ∈ −1, 1 Ainsi, l’intervalle est le
bassin d’attraction du point fixe 0 Un choix de 𝑥0 à l’extérieur de cet intervalle conduit à
une divergence de l’algorithme.
Remarques
Le bassin d’attraction d’un point fixe répulsif se réduit à 𝑟 (un seul point qui est la
racine).
Dans le cas où 𝑔′ 𝑟 = 1, s’il y a convergence, celle-ci serait extrêmement lente.
2. Extrapolation d’Aitken
𝑥2 𝑥0 − 𝑥1 2
𝑟≈
𝑥2 − 2𝑥1 + 𝑥0
Cette formule a été trouvée numériquement instable. A la place, on utilise la formule
équivalente suivante :
𝑥2 − 𝑥0 2
𝑟 ≈ 𝑥0 −
𝑥2 − 2𝑥1 + 𝑥0
Cette formule est dite formule d’extrapolation d’Aitken. Elle permet d’avoir, à partir de 𝑥0 , 𝑥1
et 𝑥2 , une meilleure approximation du point fixe 𝑟. Il en résulte un algorithme qui accélère
efficacement la convergence d’une MPF : c’est l’algorithme de Steffenson.
Algorithme de Steffenson
1. Données : 𝜀 (critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0 est une
estimation initiale du point fixe.
2. On effectue 𝑥1 = 𝑔 𝑥0
𝑥2 = 𝑔 𝑥1
𝑥 2 −𝑥 0 2
𝑥𝑒 = 𝑥0 − 𝑥
2 −2𝑥 1 +𝑥 0
𝑥 𝑒 −𝑥 0
3. <𝜀
𝑥𝑒
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑒
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ passage à l’étape 5.
5. On effectue le changement 𝑥0 = 𝑥𝑒 et on retourne à l’étape 2.
0 ≈ 𝑓 𝑥0 + 𝑓 ′ 𝑥0 𝛿𝑥
En isolant la correction recherchée, on obtient :
𝑓 𝑥0
𝛿𝑥 = −
𝑓 ′ 𝑥0
En fait, 𝛿𝑥 est la correction qu’on devrait ajouter à 𝑥0 pour annuler exactement la fonction
𝑓(𝑥). Cette correction n’est pas parfaite puisque les termes d’ordre supérieur ou égal à 2 ont
été négligés. On pose alors 𝑥1 = 𝑥0 + 𝛿𝑥 et on recommencera le processus en cherchant à
corriger 𝑥1 d’une nouvelle quantité 𝛿𝑥. D’où l’algorithme suivant :
Remarque
𝑓 𝑥
L’algorithme de la méthode de Newton est un cas particulier de la MPF où 𝑔(𝑥) = 𝑥 − 𝑓 ′ 𝑥
1. Interprétation géométrique
𝑓(𝑥)
La droite tangente à la courbe en 𝑥0 , 𝑓 𝑥0 admet pour
pente 𝑓 ′ 𝑥0 et son équation est 𝑦 = 𝑓 𝑥0 + 𝑓 ′ 𝑥0 (𝑥 − 𝑥0 )
; elle correspond donc à un développement de Taylor à
l’ordre 1 autour de 𝑥0 et coupe l’axe 𝑂𝑥 en 𝑥1 (valeur de 𝑥
𝑓 𝑥 𝑥𝑖+1 𝑥𝑖
qui annule 𝑦) , 𝑥1 = 𝑥0 − 𝑓 ′ 𝑥0
0
2. Analyse de la convergence
Evaluons la dérivée de g :
′
𝑓 𝑥 𝑓 ′′ 𝑥
𝑔 𝑥 = 2
𝑓′ 𝑥
Remarque
Dans le cas où 𝑓 ′ 𝑟 est également nul, 𝑔′ 𝑟 pourrait être différent de zéro. Pour s’assurer de
la convergence quadratique (en général) de la méthode de Newton, il suffit de calculer 𝑔′′ 𝑟 .
2 2
𝑓′ 𝑥 𝑓 ′ 𝑥 𝑓 ′′ 𝑥 + 𝑓 𝑥 𝑓 ′′′ 𝑥 − 2𝑓 𝑥 𝑓 ′ (𝑥) 𝑓 ′′ 𝑥
𝑔′′ 𝑥 = 4
𝑓′ 𝑥
Remarque
Un mauvais choix de la valeur de 𝑥0 peut provoquer la divergence de la méthode de Newton.
Définition
Une racine 𝑟 de 𝑓(𝑥) est dite de multiplicité m si la fonction 𝑓(𝑥) peut s’écrire sous la forme :
𝑚
𝑓 𝑥 = 𝑥−𝑟 𝑥 𝑎𝑣𝑒𝑐 𝑥 ≠ 0
Théorème
Une racine 𝑟 est de multiplicité 𝑚, 𝑚 ∈ ℕ∗ si et seulement si :
𝑓 ′ 𝑟 = 𝑓 ′ 𝑟 = 𝑓 ′ 𝑟 = ⋯ . = 𝑓 𝑚 −1 𝑟 = 0 𝑒𝑡 𝑓 𝑚 𝑟 ≠ 0
Démonstration
Que se passe-t-il si on applique la méthode de Newton dans le cas d’une fonction 𝑓 admettant
une racine multiple ?
𝑓 𝑥 𝑓 ′′ 𝑥
Pour cela calculons : 𝑔′ 𝑥 = 2
𝑓′ 𝑥
𝑚
De plus, en présence d’une racine de multiplicité m, on a : 𝑓 𝑥 = 𝑥 − 𝑟 𝑥
𝑓′ 𝑥 = 𝑚 𝑥 − 𝑟 𝑚 −1
𝑥 + 𝑥−𝑟 𝑚 ′
𝑥
𝑓 ′′ 𝑥 = 𝑚 𝑚 − 1 𝑥 − 𝑟 𝑚 −2
𝑥 + 2𝑚 𝑥 − 𝑟 𝑚 −1 ′
𝑥 + 𝑥−𝑟 𝑚 ′′
𝑥
𝑥 𝑚 𝑚 − 1 𝑥 + 2𝑚 𝑥 − 𝑟 ′ 𝑥 + 𝑥 − 𝑟 2 ′′ 𝑥
𝑔′ 𝑥 = 2
𝑚 𝑥 + (𝑥 − 𝑟)′ 𝑥
𝑟 𝑚 𝑚−1 𝑟
𝑔′ 𝑟 = 2
𝑚 𝑟
Interprétation
Remarque
Remarque
Puisque 𝑓 𝑟 = 0 et si 𝑥1 , 𝑥2 sont tels que 𝑥1 < 𝑟 < 𝑥2 , alors 𝑓 1 . 𝑓 𝑥2 < 0. Ceci signifie
Remarque
La longueur de l’intervalle entourant la racine est divisée par deux à chaque itération.
Cette observation va permettre d’estimer à l’avance le nombre d’itérations nécessaires
pour obtenir une erreur absolue △ 𝑟 sur la racine 𝑟.
Formulation
Soit la fonction 𝑓 𝑥 = 𝑒 −𝑥 − 𝑥 = 0.
I. Introduction
Un système d’équations linéaires est un ensemble d’équations portant sur les mêmes
inconnues. En général, un système de n équations linéaires à n inconnues peut être écrit sous
la forme suivante :
On peut utiliser la notation matricielle, qui est beaucoup plus pratique et surtout plus
compacte. On écrit alors le système sous la forme matricielle : 𝐴𝑥 = 𝑏
Les méthodes de résolution des systèmes linéaires se groupent dans deux grandes catégories :
Les méthodes directes : une méthode est dite directe si elle permet d’obtenir la
solution exacte du système en un nombre fini d’opérations élémentaires ×, +, −,÷ .
Les méthodes itératives : une méthode est dite itérative si elle permet de construire une
suite 𝑥𝑛 qui converge vers la solution 𝑥 du système.
𝑥1 = 𝑏1 𝑎11 𝑥𝑛 = 𝑏𝑛 𝑎𝑛𝑛
𝑖−1 𝑛
𝑗 =1 𝑎𝑖𝑗 𝑥𝑗 𝑗 =𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 = 𝑏𝑖 − 𝑥𝑖 = 𝑏𝑖 −
𝑎𝑖𝑖 𝑎𝑖𝑖
Cette méthode consiste à utiliser des opérations élémentaires sur le système pour rendre la
matrice 𝑎𝑖𝑗 triangulaire supérieure.
Toute les opérations qui seront effectuer sur la ma matrice 𝑎𝑖𝑗 affecteront la matrice
unicolonne (𝑏𝑖 )
Exemple
2 1 2 𝑥1 10
6 4 0 𝑥2 = 26 𝐴𝑥 = 𝑏
8 5 1 𝑥3 35
2 1 2 10
La matrice augmentée est : 6 4 0 26 = (𝐴, 𝑏)
8 5 1 35
𝑎11 = 2 ≠ 0, s’appelle premier pivot de l’élimination de Gauss. On effectue alors pour toute
ligne 𝐿𝑖 𝑝𝑜𝑢𝑟 𝑖 ≥ 2 :
𝑎𝑖1
𝐿𝑖 ⟵ 𝐿𝑖 − 𝐿
𝑎11 1
𝑚𝑖1 = 𝑎𝑖1 𝑎11 ∶ 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑒𝑢𝑟 , il sert pour éliminer l’inconnu 𝑥1 des lignes 𝑖 ≥ 2 en leur
retranchant 𝑚𝑖1 fois la première ligne. 𝑚21 = 3 et 𝑚31 = 4
2 1 2 10
On obtient : 0 1 −6 −4
0 1 −7 −5
Le deuxième pivot est 1. On effectue la transformation :
1
𝐿3 ⟵ 𝐿3 − 𝐿2 𝑚32 = 1
1
2 1 2 10
0 1 −6 −4 = (𝑈, 𝑏𝑚 )
0 0 −1 −1
Remarque
Si la matrice 𝐴 peut s’écrire sous la forme 𝐴 = 𝐿𝑈, où 𝐿 et 𝑈 sont des matrices triangulaires
inférieure et supérieure respectivement, alors le système 𝐴𝑥 = 𝑏 peut se décomposer en deux
sous-systèmes 𝐿𝑦 = 𝑏 et 𝑈𝑥 = 𝑦.
Les matrices 𝐿 et 𝑈 étant triangulaires, la résolution de chacun de ces deux sous-systèmes est
immédiate :
Exemple :
1 0 0 1 0 0 1 0 0
𝑇1 = −3 1 0 𝑇2 = 0 1 0 𝑇3 = 0 1 0
0 0 1 −4 0 1 0 −1 1
𝑈 = 𝑇3 𝑇2 𝑇1 𝐴 𝑒𝑡 𝐴 = 𝑇1−1 𝑇2−1 𝑇3−1 𝑈
1 0 0 1 0 0 1 0 0
𝑇1−1 = 3 1 0 𝑇2−1 = 0 1 0 𝑇3−1 = 0 1 0
0 0 1 4 0 1 0 1 1
1 0 0
𝑇1−1 𝑇2−1 𝑇3−1 = 𝐿 = 3 1 0
4 1 1
1 0 0 2 1 2
𝐴= 3 1 0 0 1 −6 = 𝐿𝑈
4 1 1 0 0 −1
1. Décomposition de Crout
Cet exemple de décomposition consiste à prendre des valeurs unités sur la diagonale de la
matrice 𝑈. Raisonnons sur une matrice 4 × 4 comme exemple en supposant au préalable que
les pivots 𝑙𝑖𝑖 ≠ 0
2ieme 3ieme et 4ieme colonne de 𝐿. On fait le produit de 𝐿 respectivement par 2ieme, 3ieme
et 4ieme colonne de 𝑈.
𝑙22 = 𝑎22 − 𝑙21 𝑢12 𝑙32 = 𝑎32 − 𝑙31 𝑢12 𝑙42 = 𝑎42 − 𝑙41 𝑢12
𝑙33 = 𝑎33 − 𝑙31 𝑢13 − 𝑙32 𝑢23 𝑙43 = 𝑎43 − 𝑙41 𝑢13 − 𝑙42 𝑢23
𝑢23 = 𝑎23 − 𝑙21 𝑢13 𝑙22 𝑢24 = 𝑎24 − 𝑙21 𝑢14 𝑙22
Résolution du système
Exemple
1 −1 2 𝑥1 5
3 1 2 𝑥2 = 11
1 2 1 𝑥3 8
Solution :
1 −1 2 1 0 0 1 −1 2
3 1 2 = 3 4 0 0 1 −1
1 2 1 1 3 2 0 0 1
𝑥1 1
𝑥2 = 2
𝑥3 3
1. Décomposition 𝑳𝑼 avec permutation de lignes
Quand un pivot 𝑙𝑖𝑖 = 0 on fait une permutation de ligne pour retrouver un pivot non nul et
cette permutation doit affecter aussi la matrice colonne 𝑏 . Pour mémoriser toutes les
1
2
permutations on associe un vecteur permutation 𝑝 = au système.
⋮
3
Exemple
0 2 1 𝑥1 −1 1
1 0 0 𝑥2 = 2 𝑝= 2
3 0 1 𝑥3 7 3
0 2 1 1
1 0 0 𝑝= 2
3 0 1 3
𝟎 2 1
1re colonne de 𝐿 : 𝟏 0 0
𝟑 0 1
On effectue une permutation 𝐿1 ⟵ 𝐿3 , ligne ayant le plus grand pivot.
3 0 1 3
1 0 0 𝑝= 2
0 2 1 1
𝟑 𝟎 𝟏 𝟑 3
𝟏 0 0 𝑝= 2
𝟎 2 1 1
Encore un pivot nul
3
𝐿2 ⟵ 𝐿3 ⇒ 𝑝 = 1
2
𝟑 𝟎 𝟏 𝟑 3
𝟎 2 1 𝑝= 1
𝟏 0 0 2
𝟑 𝟎 𝟏 𝟑 3
𝟎 2 𝟏 𝟐 𝑝= 1
𝟏 0 0 2
La décomposition 𝐿𝑈 est :
𝟑 𝟎 𝟏 𝟑 3
𝟎 𝟐 𝟏 𝟐 𝑝= 1
𝟏 𝟎 −𝟏 𝟑 2
𝟑 𝟎 𝟎 𝟏 𝟎 𝟏 𝟑 𝟑 𝟎 𝟏
Et le produit 𝐿𝑈 = 𝟎 𝟐 𝟎 𝟎 𝟏 𝟏 𝟐 = 𝟎 𝟐 𝟏
𝟏 𝟎 −𝟏 𝟑 𝟎 𝟎 𝟏 𝟏 𝟎 𝟎
7
𝑏𝑝 = −1
2
𝐿𝑦 = 𝑏𝑝 ⟹ 𝑦1 = 7 3 𝑦2 = −1 2 𝑦3 = 1
𝑈𝑥 = 𝑦 ⟹ 𝑥1 = 2 𝑥2 = −1 𝑥3 = 1
2. Formulation du problème
𝑓1 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
𝑓2 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
( 1)
⋮
𝑓𝑛 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
Soit 𝑋 0 = (𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0 )𝑡 suffisamment voisin de la solution exacte 𝑋 𝑒 = (𝑥1𝑒 , 𝑥2𝑒 , ⋯ , 𝑥𝑛𝑒 )𝑡 .
On procède par un développement de Taylor :
𝑛 𝑛 𝑛
𝜕𝑓𝑖 0 1 𝜕 2 𝑓𝑖
𝑓𝑖 𝑋 𝑒
= 𝑓𝑖 𝑋 0
+ 𝑥𝑗𝑒 − 𝑥𝑗0 𝑋 + 𝑥𝑗𝑒 − 𝑥𝑗0 𝑥𝑘𝑒 − 𝑥𝑘0 𝑋0
𝜕𝑥𝑗 2! 𝜕𝑥𝑗 𝜕𝑥𝑘
𝑗 =1 𝑗 =1 𝑘=1
+⋯ ( 2)
𝜕𝑓𝑖0 𝜕𝑓
Avec : = 𝜕𝑥 𝑖 𝑋 0 , 𝑓10 = 𝑓𝑖 𝑋 0 et ∆𝑥𝑖0 = 𝑥𝑖1 − 𝑥𝑖0
𝜕𝑥 𝑗 𝑗
𝐽0 ∆0 = −𝐹 0 (5)
3. Methode de Newton
𝐽𝑘 ∆𝑘 = −𝐹 𝑘 (9)
𝑋 𝑘+1 = 𝑋 𝑘 + ∆𝑘 (10)
Remarque
Les risques de divergences sont fréquents, il est indispensable de prévoir l’arrêt du processus
itératif après un nombre d’itérations 𝑘𝑚𝑎𝑥 fixé à l’avance.
4. Méthode de Picard
Remarque
Il est à noter qu’une fois satisfait, ces critères ne signifient pas toujours que le vecteur 𝑋 𝑘 est
une bonne approximation du vecteur 𝑋 𝑒 et ne fournit aucune précision sur l’estimation.
I. Introduction
On considère la forme générale d’une équation différentielle du premier ordre avec condition
initiale. On cherchera une fonction 𝑦(𝑡) solution de l’équation :
Ici t est la variable indépendante et 𝑦(𝑡) est la variable dépendante et f est une fonction
quelconque de deux variables supposée suffisamment différentiable. Le but de l’étude est
d’obtenir numériquement une approximation de 𝑦(𝑡) pour tout 𝑡 ≥ 𝑡0 .
Définition
𝑦𝑛+1 = 𝑦𝑛 + 𝜙(𝑡𝑛 , 𝑦𝑛 )
La méthode est dite à un pas si, pour obtenir la solution à 𝑡 = 𝑡𝑛+1 , on doit utiliser la solution
numérique au temps 𝑡𝑛 seulement. Les méthodes à pas multiples sont des méthodes qui
exigent également la connaissance de la solution numérique aux temps 𝑡𝑛−1 , 𝑡𝑛−2 ,….
Ces méthodes permettent d’obtenir des ordres de précision élevés tout en évitant les
inconvénients d’autres méthodes (comme la méthode de Taylor par exemple) qui nécessitent
l’évaluation des dérivées partielles de la fonction 𝑓(𝑡, 𝑦).
2 ′′
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + = 𝑦 𝑡𝑛 + 𝑦 ′ 𝑡𝑛 + 𝑦 𝑦 𝑡𝑛 + 𝑂(3 )
2
2
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + = 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦(𝑡𝑛 ) + 𝑓′ 𝑡𝑛 , 𝑦(𝑡𝑛 ) + 𝑂(3 )
2
𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑂𝑟 𝑓′ 𝑡, 𝑦 𝑡 = + 𝑓 𝑡, 𝑦 𝑡
𝜕𝑡 𝜕𝑦
2 𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦(𝑡𝑛 ) + + 𝑓 𝑡, 𝑦 𝑡 + 𝑂(3 )
2 𝜕𝑡 𝜕𝑦
Le but consiste à remplacer l’équation précédente par une expression équivalente possédant le
même ordre de précision 𝑂(3 ).
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑎1 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎2 𝑓 𝑡𝑛 + 𝑎3 , 𝑦 𝑡𝑛 + 𝑎4
Les paramètres 𝑎𝑖 sont des inconnus à déterminer de telle sorte que les expressions
précédentes aient toutes deux une erreur en 𝑂(3 ). L’expression (4) est avantageuse par le fait
qu’elle ne présente aucune dérivation.
𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑓 𝑡𝑛 + 𝑎3 , 𝑦 𝑡𝑛 + 𝑎4 = 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎3 + 𝑎4 + 𝑂(2 )
𝜕𝑡 𝜕𝑦
𝜕𝑓 𝑡, 𝑦 𝑡 𝜕𝑓 𝑡, 𝑦 𝑡
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑎1 + 𝑎2 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎2 𝑎3 2 + 𝑎2 𝑎4 2
𝜕𝑡 𝜕𝑦
+ 𝑂(3 )
Par identification des deux développements puisqu’ils ont le même ordre de grandeur on
détermine les 𝑎𝑖 .
= 𝑎1 + 𝑎2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
2 𝜕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
= 𝑎2 𝑎3 2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒
2 𝜕𝑡
2
𝜕𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 = 𝑎2 𝑎4 2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒
2 𝜕𝑦
𝑎1 + 𝑎2 = 1
1
𝑎2 𝑎3 =
⇒ 2
𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
𝑎2 𝑎4 =
2
On obtient ainsi un système non linéaire de 3 équations à 4 inconnus, la solution n’est pas
unique. Cette multiplicité des solutions conduit à plusieurs variantes de Runge-Kutta. La
variante la plus fréquemment utilisée est la méthode d’Euler modifiée qui consiste à prendre
𝑎2 = 𝑎1 = 1 2, 𝑎3 = 1 et 𝑎4 = 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 .
Enfin
𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑎1 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑎2 𝑓 𝑡𝑛 + 𝑎3 , 𝑦 𝑡𝑛 + 𝑎4
= 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 + , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
2 2
= 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 + , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
2
𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 + , 𝑦 𝑡𝑛 + 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛
= 𝑦 𝑡𝑛 +
2
= 𝑦𝑛 + 𝜙(𝑡𝑛 , 𝑦𝑛 )
Remarque
L’évaluation de 𝑦𝑛+1 a été scindée en deux étapes pour faciliter les calculs avec 𝑦 ∗
apparaissant comme une variable temporaire et correspond à une itération de la
méthode d’Euler 𝑦𝑛+1 = 𝑦𝑛 + 𝑓 𝑡𝑛 , 𝑦𝑛 . En fait, 𝑦 ∗ est une prédiction de la solution
en 𝑡𝑛 +1 , corrigée et améliorée à la deuxième étape de l’algorithme : c’est une méthode
de prédiction correction.
Il existe d’autres variantes de Runge-Kutta d’ordre deux comme la méthode du point
milieu qui correspond à 𝑎1 = 0, 𝑎2 = 1, 𝑎3 = 1 2 et 𝑎4 = 𝑓 𝑡𝑛 , 𝑦 𝑡𝑛 2
Remarque
Pour obtenir 𝑦𝑛+1 on procède par intégrer cet équation dans l’intervalle 𝑡𝑛 , 𝑡𝑛 +1
𝑡 𝑛 +1 𝑡 𝑛 +1 𝑡 𝑛 +1
𝑦 ′ 𝑡 𝑑𝑡 = 𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡 ⇒ 𝑦 𝑡𝑛+1 = 𝑦 𝑡𝑛 + 𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡
𝑡𝑛 𝑡𝑛 𝑡𝑛
𝑡 𝑛 +1
𝑦𝑛 +1 = 𝑦𝑛 + 𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡 𝑒𝑛 é𝑐𝑟𝑖𝑡𝑢𝑟𝑒 𝑎𝑙𝑔𝑜𝑟𝑖𝑡𝑚𝑒
𝑡𝑛
𝑡 𝑛 +1
𝑡𝑛
𝑓 𝑡, 𝑦(𝑡) 𝑑𝑡 peut être calculer en utilisant une interpolation polynomiale de Newton
pour 𝑓 𝑡, 𝑦(𝑡) sur ses valeurs calculées aux itérations précédentes.
Ainsi, on utilise les formules d’Adams-Bashforth pour obtenir une première approximation
𝑝
𝑦𝑛+1 de 𝑦𝑛 +1 au cours d’une étape dite de prédiction. Ensuite, on utilise les formules
d’Adams-Moulton pour corriger et, éventuellement, améliorer cette approximation.
3 2
𝑦 ′′ 𝑡 = 𝑦 𝑎𝑣𝑒𝑐 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛𝑠 𝑎𝑢𝑥 𝑓𝑟𝑜𝑛𝑡𝑖è𝑟𝑒𝑠 𝑦 0 = 4, 𝑦 1 =1
2
Le problème est à valeurs aux frontières, il lui correspond le problème à valeurs initiales 𝐶𝐼
suivant :
𝑦′ = 𝑓 𝑎𝑣𝑒𝑐 𝐶𝐼 𝑦 0 =4
3
𝑓 ′ = 𝑦 2 𝑎𝑣𝑒𝑐 𝐶𝐼 𝑓 0 =𝛼
2
La valeur de 𝛼 n’est pas connue ; elle doit être telle que la condition 𝑦 1 = 1 soit vérifiée
moyennant une certaine précision fixée à l’avance. La méthode de tir permet de résoudre les
équations du dernier système de manière itérative.
La méthode du tir est basée sur l’estimation de la pente en 𝑡 = 0et comprend les étapes
suivantes :
I. But
II. Formulation
𝑦 𝑎 = 𝑐1 𝑦′ 𝑎 = 𝑐1′
𝑡𝑦𝑝𝑒 𝐷𝑖𝑟𝑒𝑐𝑙𝑒𝑡 𝑡𝑦𝑝𝑒 𝑁𝑒𝑤𝑚𝑎𝑛𝑛
𝑦 𝑏 = 𝑐2 𝑦′ 𝑏 = 𝑐2′
𝑦′ 𝑎 = 𝑐1′ 𝑦 𝑎 = 𝑐1
𝑜𝑢 𝑡𝑦𝑝𝑒 𝑚𝑖𝑥𝑡𝑒𝑠
𝑦 𝑏 = 𝑐2 𝑦′ 𝑏 = 𝑐2′
La méthode des différences finies est basée sur des développements en séries de Taylor. Le
problème différentiel est remplacé par un problème algébrique discret et la solution est alors
recherchée en un certain nombre de nœuds. On procède ainsi à la division de l'intervalle [𝑎, 𝑏]
en 𝑛 nœuds ou (𝑛 − 1) sous intervalles. Cette subdivision peut être régulière (espacement
entre les nœuds constant) ou irrégulière (espacement entre les nœuds variable). Dans le cas
d'une division régulière, on aura:
𝑏−𝑎
𝑥𝑖 = 𝑎 + 𝑖 − 1 𝑖 = 1,2, … , 𝑛
𝑛−1
Δ𝑥 2
𝑦 𝑥𝑖 ± Δ𝑥 = 𝑦𝑖+1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ + O Δ𝑥 3 Δ𝑥 = 𝑥𝑖+1 − 𝑥𝑖
2!
𝑦𝑖+1 − 𝑦𝑖−1 𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1
𝑦𝑖′ = + O Δ𝑥 2 𝑦𝑖′′ = + O Δ𝑥 2
2Δ𝑥 Δ𝑥 2
𝑎𝑖 𝑦𝑖−1 + 𝑏𝑖 𝑦𝑖 + 𝑐𝑖 𝑦𝑖+1 = 𝑑𝑖
𝑦 𝑎 = 𝑦1
Pour des conditions aux frontière de type Direchlet : ,
𝑦 𝑏 = 𝑦𝑛
La matrice sera sous la forme :
𝑏2 𝑐2 0 . . 0
𝑦2 𝑑2 − 𝑎2 𝑦1
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . .
⋮ = ⋮
. . . . . .
𝑦𝑛−2 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−1 𝑑𝑛 −1 − 𝑐𝑛−1 𝑦𝑛
0 . 0 0 𝑎𝑛−1 𝑏𝑛−1
C'est une matrice tridiagonale qui fait appel à un sous programme de quelques lignes
pour donner les 𝑦𝑖 , 𝑖 = 2, … , 𝑛 − 1
𝑦′ 𝑎 = 𝐴
Pour des conditions aux frontière de type Newmann : ,
𝑦′ 𝑏 = 𝐵
Développement de Taylor au voisinage de 𝑦1 et 𝑦𝑛 toujours à l’ordre 2 donne :
Δ𝑥 2
𝑦 𝑥𝑖 ± Δ𝑥 = 𝑦𝑖+1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ + O Δ𝑥 3
2!
4𝑦2 − 𝑦3 − 2Δ𝑥𝐴 4𝑦𝑛−1 − 𝑦𝑛−2 + 2Δ𝑥𝐴
𝑦1 = + O Δ𝑥 2 𝑦𝑛 = + O Δ𝑥 2
3 3
4𝑎2 𝑦2 𝑎2 𝑦3 2𝑎2 Δ𝑥𝐴
⇒ 𝑎2 𝑦1 = − −
3 3 3
4𝑐𝑛−1 𝑦𝑛−1 𝑐𝑛−1 𝑦𝑛−2 2𝑐𝑛−1 Δ𝑥𝐵
𝑒𝑡 𝑐𝑛−1 𝑦𝑛 = − +
3 3 3
Après introduction des conditions aux limites, la matrice prend la forme suivante:
𝑏2′ 𝑐2′ 0 . . 0
𝑦2 𝑑2′
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . .
⋮ = ⋮
. . . . . .
𝑦 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−2 ′
′ ′ 𝑛−1 𝑑𝑛−1
0 . 0 0 𝑎𝑛−1 𝑏𝑛−1
4 1 4
𝑏2′ = 𝑏2 + 𝑎2 𝑐2′ = 𝑐2 − 𝑎2 ′
𝑎𝑛−1 = 𝑎𝑛−1 + 𝑐𝑛−1
3 3 3
′
𝑐𝑛−1 2𝑎 2 Δ𝑥𝐴 2𝑐𝑛−1 Δ𝑥𝐵
𝑏𝑛−1 = 𝑏𝑛−1 − 𝑑2′ = 𝑑2 + ′
𝑑𝑛−1 = 𝑑𝑛−1 −
3 3 3
C'est un schéma qui permet d'améliorer la précision à l'ordre 4 ; il conduit à des résultats plus
précis que celui d’ordre 2 décrit précédemment.
Les valeurs de 𝑦𝑖′′ et 𝑦𝑖′ sont calculées par des approximations d'ordre supérieur à 2 (ordre 4
par exemple).
Δ𝑥 2 Δ𝑥 3 Δ𝑥 4
𝑦𝑖±1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ ± 𝑦𝑖′′′ + 𝑦𝑖′′′′ + O Δ𝑥 5
2! 3! 4!
4Δ𝑥 2 8Δ𝑥 3 16Δ𝑥 4
𝑦𝑖±2 = 𝑦𝑖 ± 2𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ ′′′
± 𝑦𝑖 ′′′′
+ 𝑦𝑖 + O Δ𝑥 5
2! 3! 4!
Par élimination des dérivées d'ordres non désirés, on obtient:
Pour les nœuds 2 𝑒𝑡 (𝑛 − 1) on cherchera d'autres approximations pour garder le même ordre
de précision (ordre 4). On procèdera à des développements en séries de Taylor:
𝑏 = −6 𝑐 = 14 𝑑 = −4 𝑒 = 10
1
𝑦2′′ = 𝑦 − 6𝑦5 + 14𝑦4 − 4𝑦3 − 15𝑦2 + 10𝑦1 + O Δ𝑥 4
12Δ𝑥 2 6
1
𝑦𝑛′′ −1 = 𝑦 − 6𝑦𝑛−4 + 14𝑦𝑛−3 − 4𝑦𝑛−2 − 15𝑦𝑛−1 + 10𝑦𝑛 + O Δ𝑥 4
12Δ𝑥 2 𝑛−5
D'où:
On retourne à l'équation différentielle du départ et, on obtient, pour chaque nœud 𝑖, une
équation de la forme:
𝑎𝑖 𝑦𝑖−1 + 𝑏𝑖 𝑦𝑖 + 𝑐𝑖 𝑦𝑖+1 = 𝑑𝑖 ( 2 ≤ 𝑖 ≤ 𝑛 − 1)
𝑦 𝑎 = 𝑦1
Si par exemple les conditions aux limites sont de type Dirichlet:
𝑦 𝑏 = 𝑦𝑛
𝑏2 𝑐2 0 . . 0
𝑦2 𝑑2 − 𝑎2 𝑦1
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . .
⋮ = ⋮
. . . . . .
𝑦𝑛−2 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−1 𝑑𝑛 −1 − 𝑐𝑛−1 𝑦𝑛
0 . 0 0 𝑎𝑛−1 𝑏𝑛−1
La matrice résultante est tridiagonale. Elle le restera également si les conditions aux limites
sont de type Newman ou mixtes. Dans ce cas, il faut prendre soin de procéder à une correction
des termes figurant dans la première ligne et la dernière ligne de la matrice tridiagonale et du
second membre.
𝑦𝑑 𝑖 − 𝑦𝑒 𝑖
𝜀𝑑 𝑖 = 𝑐𝑎𝑠 𝑠é𝑚𝑎 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒2
𝑦𝑒 𝑖
𝑦𝑐 𝑖 − 𝑦𝑒 𝑖
𝜀𝑐 𝑖 = 𝑐𝑎𝑠 𝑠é𝑚𝑎 𝑐𝑜𝑚𝑝𝑎𝑐𝑡
𝑦𝑒 𝑖
1. Comme le calcul des 𝛼𝑖 et des 𝛽𝑖 est régi par un processus itératif, on fixera à l'avance
le nombre maximum d'itérations (précaution utile dans les processus itératifs).
2. On initialise les 𝛼𝑖 et les𝛽𝑖 à 1 (bonne estimation initiale) pour démarrer le processus
itératif ( 2 ≤ 𝑖 ≤ 𝑛 − 1)
3. On appelle le sous programme qui permet d'inverser la matrice tridiagonale ⇒ 𝑦𝑖 ( 2 ≤
𝑖 ≤ 𝑛 − 1).
4. On utilise les valeurs de 𝑦𝑖 obtenues en 3) pour évaluer les 𝛼𝑖 et les 𝛽𝑖 à l'aide des
expressions établies précédemment.
5. S'il s'agit d'une première évaluation de 𝛼𝑖 et 𝛽𝑖 on retourne à l'étape 3). Dans le cas
contraire, on compare les nouvelles et les anciennes valeurs de 𝑦𝑖 en calculant le
résidu:
But
Mettre en application le contenu du présent chapitre et comparer les précisions de la
méthode aux différences finies d'ordre 2 et du schéma compact.
Formulation
On considère l'équation différentielle suivante:
𝑦 0 =1
′′ ′ 1
𝑦 + 3𝑦 + 2𝑦 = 2𝑥 + 3 𝑥 𝜖 0, 1 𝐶𝐿:
𝑦 1 = 1+
𝑒
L'équation différentielle proposée admet une solution analytique simple à déterminer.
La solution analytique sera considérée comme une référence pour des fins de
comparaison avec les solutions numériques.
Déterminer la solution analytique de l'équation différentielle proposée avec les
conditions aux limites associées.
Utiliser un échantillonnage régulier permettant la subdivision de l'intervalle
[0, 1] en (𝑛 − 1) sous intervalles identiques (n nœuds). On prendra 𝑛 =
7, 15 𝑒𝑡 21.
Elaborer un code numérique adéquat permettant de déterminer 𝑦𝑖 ( 1 ≤ 𝑖 ≤ 𝑛)
en utilisant un schéma aux différences finies précis au second ordre et un
schéma compact.
Présenter les résultats sous la forme du tableau suivant:
Nombre de nœuds égal: 𝑛 =
𝑥 𝑦𝑒 𝑦𝑑 𝑦𝑐 𝜀𝑑 𝜀𝑐
0
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
1
Représenter graphiquement, pour les deux méthodes numériques, l'évolution
de l'erreur relative en fonction de x pour les trois valeurs de n proposés.
Conclure.
I. Introduction
Les simulations numériques sont utilisées dans un but de reproduire, par le calcul, le
comportement d'un système décrit par un modèle, très souvent constitué d'équations aux
dérivées partielles (traduction mathématique de lois scientifiques).
On peut retenir que le but d'une simulation numérique est de prédire par le calcul le
comportement d'un système décrit par un modèle mathématique.
C'est une équation différentielle partielle du second ordre parabolique, à une dimension, elle
s'écrit:
𝜕𝑇 𝜕2𝑇
=𝛼 2 𝛼 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝜕𝑡 𝜕𝑥
1. Exemples de méthodes explicites
a. Méthode FTCS (Forward Time-Central Space Method)
𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
Δ𝑡 Δ𝑥 2
On peut déduire directement:
𝛼Δ𝑡 𝑛 𝛼Δ𝑡
𝑇𝑖𝑛+1 = 𝑇𝑖𝑛 + 𝑛
𝑇 + 𝑇𝑖−1 − 2𝑇𝑖𝑛 = 𝑇𝑖𝑛 1 − 2𝑟 + 𝑟 𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1 ; =𝑟
Δ𝑥 2 𝑖+1 Δ𝑥 2
qui est de l'ordre de Δ𝑡, Δ𝑥 2 .
Stabilité de ce schéma ?
𝛼Δ𝑡 1
Ainsi, la perturbation introduite va s'atténuer avec le temps si 0 ≤ 1 − 2𝑟 ≤ 1 𝑐. à. 𝑑 ≤2
Δ𝑥 2
b. Méthode de Richardson
𝛼Δ𝑡 𝑛 𝛼Δ𝑡 𝑛
𝑇𝑖𝑛+1 = 𝑇𝑖𝑛−1 − 4 2
𝑇𝑖 + 2 2
𝑛
𝑇𝑖+1 + 𝑇𝑖−1 = 𝑇𝑖𝑛−1 − 4𝑟𝑇𝑖𝑛 + 2𝑟 𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1
Δ𝑥 Δ𝑥
c. Schéma de Frankel-Dufort
C'est le schéma de Richardson modifié par introduction d'un terme de viscosité numérique
pour amortir les erreurs.
On obtient:
1 − 2𝑟 𝑛−1 2𝑟
𝑇𝑖𝑛+1 = 𝑇𝑖 + 𝑇 𝑛 + 𝑇𝑖−1
𝑛
1 + 2r 1 + 2r 𝑖+1
C'est une méthode explicite qui a l'avantage d'être inconditionnellement stable mais non auto
démarrable. On peut la démarrer par exemple par la méthode FTCS.
Un schéma est dit implicite lorsque l'équation aux différences finies contient plus d'une
inconnue. Les méthodes implicites offrent davantage de garantie concernant la stabilité et la
plupart d'entre elles sont inconditionnellement stables.
a. Schéma de Laasonen
Stabilité du schéma ?
Schéma explicite:
𝑇𝑖𝑛+1 2 − 𝑇𝑖𝑛 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
Δ𝑡 2 Δ𝑥 2
Schéma implicite:
𝑇𝑖𝑛+1 − 𝑇𝑖𝑛+1 2 𝑛 +1
𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1
=𝛼
Δ𝑡 2 Δ𝑥 2
Pour des valeurs particulières de 𝛽, la formulation bêta permet de retrouver les schémas
précédents. Ainsi:
𝜕𝑇 𝜕2𝑇 𝜕2𝑇
=𝛼 + 𝛼 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝜕𝑡 𝜕𝑋 2 𝜕𝑌 2
𝜕𝜃 𝜕2𝜃 𝜕2𝜃
=𝛼 +
𝜕𝜏 𝜕𝑥 2 𝜕𝑦 2
La méthode ADI, méthode implicite aux directions alternées, a été introduite par Peaceman et
Rochefort (1955) et elle a été extensivement utilisée depuis pour la résolution de problèmes
transitoires bidimensionnels car, en général, elle conduit à des matrices tridiagonales dans les
deux directions du balayage. De plus, le schéma de calcul est très efficace car stable et
consistant. La méthode ADI utilise deux équations aux différences finies, l’une implicite par
rapport à la première coordonnée et l’autre implicite par rapport à la deuxième coordonnée.
La solution pour chaque étape de temps est obtenue en balayant le domaine horizontalement
ou verticalement (ou l’inverse) en utilisant, dans chaque balayage, une formulation implicite.
On utilise des dérivations centrées, précises à l’ordre 2, pour les dérivations en x et y. Les
deux équations discrétisées, pour faire avancer la solution de 𝜏 = 𝑛Δ𝜏 à 𝜏 + Δ𝜏 = 𝑛 + 1 Δ𝜏,
sont les suivantes :
Température implicite en x :
𝜃𝑖𝑗𝑛 +1 2
− 𝜃𝑖𝑗𝑛 𝑛 +1
𝜃𝑖+1𝑗 2
− 2𝜃𝑖𝑗𝑛+1 2 𝑛 +1
+ 𝜃𝑖−1𝑗 2
𝜃𝑖𝑗𝑛 +1 − 2𝜃𝑖𝑗𝑛 + 𝜃𝑖𝑗𝑛 −1
= +
Δ𝜏 2 Δ𝑥 2 Δ𝑦 2
Les coefficients connus 𝐴1𝑖𝑗 , 𝐵𝑖𝑗1 , 𝐶𝑖𝑗1 𝑒𝑡 𝐷𝑖𝑗1 peuvent être obtenus par identification avec
l’équation précédente. En tenant compte de l’ensemble des nœuds d’une ligne, on obtient un
système d’équations de la forme 𝐴𝑥 = 𝑏, où 𝐴 est une matrice tridiagonale.
𝜃𝑖𝑗𝑛+1 2
− 𝜃𝑖𝑗𝑛 𝑛+1
𝜃𝑖+1𝑗 2
− 2𝜃𝑖𝑗𝑛 +1 2 𝑛+1
+ 𝜃𝑖−1𝑗 2
𝜃𝑖𝑗𝑛+1 𝑛 +1
+1 − 2𝜃𝑖𝑗 + 𝜃𝑖𝑗𝑛+1
−1
= +
Δ𝜏 2 Δ𝑥 2 Δ𝑦 2
De manière similaire, pour un nœud (i, j) donné, cet équation peut être écrite sous la forme
condensée suivante :
En tenant compte de l’ensemble des colonnes et des conditions aux limites associées, on
obtient à nouveau un système linéaire de la forme 𝐴𝑥 = 𝑏 où A est une matrice tridiagonale.
Pour introduire les conditions aux limites, on va prendre un exemple concret d’un domaine
rectangulaire de largeur L et de hauteur 𝐻(𝐻 = 2𝐿) initialement en équilibre à la température
𝑇𝐹 . A l’instant 𝑡 = 0𝑠, on porte la température d’une paroi verticale à 𝑇𝐶 (𝑇𝐶 > 𝑇𝐹 ) et on
maintient les parois horizontales adiabatiques. Le gradient de température étant imposé dans
la direction de la largeur, on prendra L comme étant une longueur caractéristique. Ainsi, les
conditions aux limites adimensionnlles associées au problème sont telles que 𝜃 = 1 pour
𝑥 = 0 et 𝜃 = 0 pour 𝑥 = 1.
𝜕𝜃 𝜕𝜃
Sur les parois horizontales on aura : = 0 et =0
𝜕𝑦 𝑦=0 𝜕𝑦 𝑦=2
L’introduction des conditions aux frontières nécessite la correction de certains termes. Ainsi,
𝑛+1 2
pour un balayage implicite en 𝑥, on a 𝜃1𝑗 = 1 en 𝑥 = 0 ⇒ 𝐴12𝑗 doit être balancé dans le
1 1
second membre pour s’ajouter à 𝐷2𝑗 . Par contre, comme 𝜃 = 0 en 𝑥 = 1, le terme 𝐷𝑀−1𝑗 ne
nécessite pas d’être corrigé (𝑀 étant le nombre de nœuds dans la direction de la largeur,
située sur la paroi froide).
𝜕𝜃 𝑛 +1 𝑛+1 𝑛+1
Pour un balayage implicite en y, on a = 0 ⇒ −3𝜃𝑖1 + 4𝜃𝑖2 −𝜃𝑖3 = 0 et
𝜕𝑦 𝑦 =0
𝑛 +1 𝑛 +1
𝑛+1 4𝜃𝑖2 −𝜃𝑖3
𝜃𝑖1 = 3
Pour j = 2 :
2
4 𝑛 +1 1 𝑛 +1
𝐵𝑖2 + 𝐴2𝑖2 𝜃𝑖2 2
+ 𝐶𝑖2 − 𝐴2𝑖2 𝜃𝑖3 2
= 𝐷𝑖2
3 3
𝑛 +1 𝑛 +1
𝜕𝜃 𝑛+1 𝑛+1 𝑛+1 𝑛+1 4𝜃𝑖𝑁 −1 −𝜃𝑖𝑁 −2
De même, 𝜕𝑦 = 0 ⇒ 3𝜃𝑖𝑁 − 4𝜃𝑖𝑁−1 +𝜃𝑖𝑁−2 = 0 et 𝜃𝑖𝑁 =
𝑦=2 3
Pour 𝑗 = 𝑁 − 1 :
2
4 2 𝑛+1 1 2 𝑛+1
𝐵𝑖𝑁−1 + 𝐶𝑖𝑁−1 𝜃𝑖𝑁−1 + 𝐴2𝑖𝑁−1 − 𝐶𝑖𝑁−1 𝜃𝑖𝑁−2 2
= 𝐷𝑖𝑁−1
3 3