Vous êtes sur la page 1sur 62

FSR Analyse Numérique UM5

Ebauche de cours d’analyse


numérique pour SMP-S6

A. RTIBI i
Sommaire
Introduction ........................................................................................................................................... 1
Interpolation polynomiale .................................................................................................................... 2
I. Introduction ............................................................................................................................... 2
II. Matrice de VANDERMONDE...................................................................................................... 2
III. Interpolation de Lagrange..................................................................................................... 3
IV. Polynôme de Newton ............................................................................................................ 5
V. Splines cubiques ........................................................................................................................ 7
Différentiation et Intégration.............................................................................................................. 12
I. Introduction ............................................................................................................................. 12
II. Différentiation numérique ...................................................................................................... 12
III. Intégration numérique ........................................................................................................ 15
Equations non linéaires ....................................................................................................................... 20
I. Introduction ............................................................................................................................. 20
II. Méthode des points fixes ......................................................................................................... 20
III. Méthode de Newton............................................................................................................. 24
IV. Méthode de la sécante ......................................................................................................... 27
V. Méthode de la bissection ou Dichotomie ............................................................................... 28
Systèmes d’équations algébriques ..................................................................................................... 31
I. Introduction ............................................................................................................................. 31
II. Méthode de résolution pour les systèmes triangulaires inférieurs et supérieurs ............. 31
III. Méthode d’élimination de Gauss ........................................................................................ 32
IV. Méthode de décomposition LU ........................................................................................... 33
V. Système d’équation non linéaire ............................................................................................ 37
Equations différentielles ..................................................................................................................... 41
I. Introduction ............................................................................................................................. 41
II. Méthode de Runge-Kutta ........................................................................................................ 41
III. Méthode à pas multiples ..................................................................................................... 44
IV. Méthode de tir ...................................................................................................................... 46
Résolution d'une équation différentielle du second ordre par une méthode aux différences finies
............................................................................................................................................................... 47
I. But ............................................................................................................................................. 47
II. Formulation .............................................................................................................................. 47
Equations aux dérivées partielles ...................................................................................................... 54

A. RTIBI ii
I. Introduction ............................................................................................................................. 54
II. Equation de la chaleur à une dimension ................................................................................ 54
III. Résolution de l’équation de la chaleur à 2-D par la méthode ADI ................................... 57

A. RTIBI iii
Introduction

Dans la nature, les systèmes et phénomènes physiques les plus intéressants sont aussi
les plus complexes à étudier. Ils sont souvent régis par un grand nombre de paramètres
non-linéaires interagissant entre eux (météorologie, turbulence des fluides...).

Pour analyser les paramètres et grandeurs d’un système naturel il faut recourir à une
série d'expériences. Mais les essais peuvent s'avérer très coûteux (essais en vol, essais
avec matériaux rares, instrumentations très chères...) et ils peuvent être très dangereux
(essais nucléaires, environnement spatial...). Enfin il peut être difficile de mesurer tous
les paramètres: échelles du problème trop petites (chimie du vivant, couche limite en
fluide...) ou trop grandes (astrophysique, météorologie, géophysique...).

On peut aussi construire un modèle mathématique permettant la représentation du


phénomène physique. Le principe d'un modèle est de remplacer un système complexe
en un objet ou opérateur simple reproduisant les aspects ou comportements principaux
de l'original (ex : modèle réduit, maquette, modèle mathématique ou numérique, modèle
de pensée ou raisonnement).

Les modèles mathématiques utilisent très souvent des systèmes d'équations aux
dérivées partielles (EDP) non-linéaires dont on ne connait pas de solutions analytiques
en général. Il faut alors résoudre le problème numériquement en transformant les
équations continues de la physique en un problème discret sur un certain domaine de
calcul (le maillage). Dans certains cas il s'agit de la seule alternative (nucléaire,
astrophysique, spatial...). Dans d'autres cas, les simulations numériques sont menées en
parallèle avec des expérimentations.

Les différentes étapes pour modéliser un système complexe :

• Recherche d'un modèle mathématique représentant la physique. Mise en


équation.
• Elaboration d'un maillage. Discrétisation des équations de la physique.
• Résolution des équations discrètes (souvent systèmes linéaires à résoudre).
• Transcription informatique et programmation des relations discrètes.
• Simulation numérique et exploitation des résultats.

A. RTIBI 1
Interpolation polynomiale

I. Introduction
A partir d'une fonction 𝑓(𝑥) connue en (𝑛 + 1) points de la forme [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 =
0, 1, … , 𝑛], peut-on construire une approximation de 𝑓(𝑥) pour tout 𝑥 ?
Les points [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛] sont appelés points de collocation ou points
d'interpolation. Ils peuvent provenir essentiellement de données expérimentales ou
numériques. Le problème d'interpolation se ramène en fait à la construction d'un
polynôme de degré élevé dont la courbe passe par tous les points de collocation et
capable de restituer toutes les valeurs entre les nœuds. En d'autres termes, il s'agit de
trouver un modèle mathématique afin de réduire toute information en une expression
mathématique facilement exploitable. De ce fait, le recours aux techniques
d'interpolation permet d'avoir des courbes régulières (lisses) passant par un nombre de
points élevé (génération de nœuds supplémentaires).

Théorème
Un polynôme de degré 𝑛 de forme générale 𝑝𝑛 (𝑥) = 𝑎0 + 𝑎1 𝑥 + ⋯ + 𝑎𝑛 𝑥 𝑛 𝑎𝑛 ≠ 0,
possède exactement 𝑛 racines qui peuvent être réelles ou complexes conjuguées.

Corollaire

Par (𝑛 + 1) points de collocation [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛], on ne peut faire passer
qu'un et un seul polynôme de degré 𝑛.

Démonstration
Admettons l'existence de deux polynômes de degrés 𝑛 chacun, notés 𝑝𝑛 (𝑥) et 𝑔𝑛 (𝑥),
passant par les (𝑛 + 1) points de collocation.
Considérons alors le polynôme 𝑞(𝑥) = 𝑝𝑛 (𝑥) − 𝑔𝑛 (𝑥) qui est au plus de degré 𝑛. On
notera que le polynôme 𝑞(𝑥)vérifie 𝑞(𝑥𝑖 ) = 𝑝𝑛 (𝑥𝑖 ) − 𝑔𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ) − 𝑓(𝑥𝑖 ) = 0 ; ∀ 𝑖 =
0,1, … , 𝑛.
Le polynôme 𝑞(𝑥) posséderait donc (𝑛 + 1) racines, ce qui contredit le théorème
précédent. Ceci démontre l'unicité du polynôme passant par (𝑛 + 1) points de
collocation donnés.

II. Matrice de VANDERMONDE

Puisque le problème d'interpolation consiste à déterminer l'unique polynôme de degré


𝑛 passant par les 𝑛 + 1 points de collocation, une première tentative (tentative directe)
pour construire ce polynôme consiste à déterminer les coefficients 𝑎𝑖 du polynôme en
vérifiant directement :
𝑝𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ); ∀ 𝑖 = 0,1, … , 𝑛
ou encore:

𝑎0 + 𝑎1 𝑥𝑖 + ⋯ + 𝑎𝑛 𝑥𝑖𝑛 = 𝑓(𝑥𝑖 ); ∀ 𝑖 = 0,1, … , 𝑛

qui est un système linéaire de 𝑛 + 1 équations à 𝑛 + 1 inconnus.

A. RTIBI 2
Une écriture matricielle de ce système conduit à:

1 𝑥0 𝑥02 ⋯ 𝑥0𝑛 𝑎0 𝑓(𝑥0 )


𝑛
(⋮ 𝑥1 ) | 𝑎1 = | 𝑓(𝑥1 )

⋮ ⋮ ⋮
1 𝑥𝑛 𝑥𝑛2 ⋯ 𝑥𝑛𝑛 𝑎 𝑛 𝑓(𝑥𝑛 )

La matrice de ce système linéaire porte le nom de matrice de Vandermonde. Son


déterminant est : 𝑑𝑒𝑡 = ∏𝑖<𝑗(𝑥𝑖 − 𝑥𝑗 ) ≠ 0, si tous les 𝑥𝑖 sont distincts. On peut donc
trouver un unique vecteur de coefficients (𝑎0 , 𝑎1 , … , 𝑎𝑛 )𝑡 résolvant le problème.
Remarque : Il est connu (à admettre) que les matrices du type Vandermonde
deviennent très mal conditionnées lorsque n augmente (elles sont très sensible aux
erreurs d’arrondies). Dans la pratique, cette méthode n’est à utiliser que si 𝑛 < 4.

Exercice

Trouver un polynôme qui interpole le nuage de points (0,1), (1,2), (2,9) 𝑒𝑡 (3,28). Le
nuage contient 4 points distincts, le polynôme cherché est donc de degré 3. Ses
coefficients 𝑎𝑖 sont solution de :
0 0 0 1 𝑎3 1
1 1 1 1 𝑎2 2
( ) |𝑎 = |
8 4 2 1 1 9
27 9 3 1 𝑎0 28
dont la solution est (1,0,0,1)𝑡 . Le polynôme recherché est donc : 𝑝3 (𝑥) = 𝑥 3 + 1

III. Interpolation de Lagrange

L’interpolation de Lagrange est une façon simple et systématique pour construire un


polynôme d’interpolation pour une fonction 𝑓 dont on connait les valeurs de 𝑛 + 1
points distincts [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛].

Prenons l’exemple d’une interpolation linéaire 𝑛 = 1.

On considère deux points de collocations (𝑥0 , 𝑓(𝑥0 )), (𝑥1 , 𝑓(𝑥1 )) distincts.

Pour déterminer le polynôme 𝑃1 (𝑥) de degré 1 (d’équation : 𝑦 = 𝑎𝑥 + 𝑏) qui passe par


𝑎𝑥 + 𝑏 = 𝑓(𝑥0 )
les deux points distincts on résout le système { 0
𝑎𝑥1 + 𝑏 = 𝑓(𝑥1 )
𝑓(𝑥1 ) − 𝑓(𝑥0 ) 𝑥1 𝑓(𝑥0 ) − 𝑥0 𝑓(𝑥1 )
𝑃1 (𝑥) = 𝑥+
𝑥1 − 𝑥0 𝑥1 − 𝑥0
Qu’on peut écrire aussi,
𝑥 − 𝑥1 𝑥 − 𝑥0
𝑃1 (𝑥) = 𝑓(𝑥0 ) + 𝑓(𝑥1 )
𝑥0 − 𝑥1 𝑥1 − 𝑥0
𝑃1 (𝑥) = 𝑓(𝑥0 ). 𝐿0 (𝑥) + 𝑓(𝑥1 )𝐿1 (𝑥)

On remarque 𝐿𝑖 (𝑥𝑗 ) = 𝛿𝑖𝑗

A. RTIBI 3
On dit que 𝑃1 est le polynôme d’interpolation de Lagrange de degré 1 associé aux points
(𝑥0 , 𝑓(𝑥0 )), (𝑥1 , 𝑓(𝑥1 )).

Généralisation

Soit 𝑓 une fonction réelle d’une variable réelle définie sur [𝑎, 𝑏] qui contient les points
[𝑥𝑖 , 𝑖 = 0, 1, … , 𝑛] distincts tel que 𝑓(𝑥𝑖 ) = 𝑓𝑖 , 𝑖 = 0, 1, … , 𝑛:

Théorème

Il existe un polynôme 𝑃𝑛 unique de degré au plus égal à 𝑛 tel que :

∀ 𝑖 = 0, 1, … , 𝑛 𝑃𝑛 (𝑥𝑖 ) = 𝑓𝑖

Démonstration.

• Existence : Polynôme de Lagrange

On définit les Polynômes 𝐿𝑖 par :


𝑛
(𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑖−1 )(𝑥 − 𝑥𝑖+1 ) … (𝑥 − 𝑥𝑛 ) 𝑥 − 𝑥𝑗
𝐿𝑖 (𝑥) = = ∏
(𝑥𝑖 − 𝑥0 )(𝑥𝑖 − 𝑥1 ) … (𝑥𝑖 − 𝑥𝑖−1 )(𝑥𝑖 − 𝑥𝑖+1 ) … (𝑥𝑖 − 𝑥𝑛 ) 𝑥𝑖 − 𝑥𝑗
𝑗=0,𝑗≠𝑖

Propriétés :

𝐿𝑖 (𝑥𝑖 ) = 1 ∀𝑖; 𝐿𝑖 (𝑥𝑗 ) = 0 ∀ 𝑗 ≠ 𝑖; 𝑑°𝐿𝑖 = 𝑛

On prend :
𝑛

𝑃𝑛 (𝑥) = ∑ 𝑓𝑖 𝐿𝑖 (𝑥)
𝑖=0

On a

𝑃𝑛 (𝑥𝑖 ) = 𝑓𝑖

• unicité :

Si le polynôme 𝑃𝑛 n’est unique alors il existe un polynôme 𝑄𝑛 tel que : 𝑃𝑛 (𝑥𝑖 ) = 𝑓𝑖 =


𝑄𝑛 (𝑥𝑖 ) ∀ 𝑖 = 0, 1, … , 𝑛

On pose 𝑅 = 𝑃𝑛 − 𝑄𝑛 , 𝑑 0 ≤ 𝑛

𝑅(𝑥𝑖 ) = 0 ∀ 𝑖 = 0, 1, … , 𝑛 ⇒ 𝑅 𝑎𝑑𝑚𝑒𝑡 𝑛 + 1 𝑟𝑎𝑐𝑖𝑛𝑒𝑠

Donc 𝑅 = 0

Définition

Le polynôme 𝑃𝑛 s’appelle le polynôme d’interpolation de Lagrange de la fonction 𝑓


relativement aux points [(𝑥𝑖 , 𝑓(𝑥𝑖 )), 𝑖 = 0, 1, … , 𝑛].

Les polynômes 𝐿𝑖 (𝑥) forment une base de 𝑃𝑛 et s’appellent les polynômes de base de
Lagrange associées à ces points.
A. RTIBI 4
Exercice

On considère les points (0; 1), (1; 2), (2; 9) 𝑒𝑡 (3; 28), déterminer par la méthode de
Lagrange le polynôme 𝑃3 (𝑥) d’interpolation polynomiale qui passe par les points :
(𝑥𝑖 , 𝑦𝑖 ); 𝑖 = 0, 1,2,3

Solution

D’après la méthode de Lagrange,

𝑃3 (𝑥) = 𝑦0 𝐿0 (𝑥) + 𝑦1 𝐿1 (𝑥) + 𝑦2 𝐿2 (𝑥) + 𝑦3 𝐿3 (𝑥)


(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )(𝑥 − 𝑥3 ) (𝑥 − 𝑥0 )(𝑥 − 𝑥2 )(𝑥 − 𝑥3 )
= 𝑦0 + 𝑦1
(𝑥0 − 𝑥1 )(𝑥0 − 𝑥2 )(𝑥0 − 𝑥3 ) (𝑥1 − 𝑥0 )(𝑥1 − 𝑥2 )(𝑥1 − 𝑥3 )
(𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥3 ) (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )
+ 𝑦2 + 𝑦3
(𝑥2 − 𝑥0 )(𝑥2 − 𝑥1 )(𝑥2 − 𝑥3 ) (𝑥3 − 𝑥0 )(𝑥3 − 𝑥1 )(𝑥3 − 𝑥2 )

𝑝3 (𝑥) = 𝑥 3 + 1

Remarque

La méthode d’interpolation de Lagrange présente un inconvénient majeur : elle n’est pas


récursive. En effet, si on souhaite passer d’un polynôme de degré n à un polynôme de
degré (𝑛 + 1) (en ajoutant un point d’interpolation), on doit reprendre tout le processus
à zéro. Dans l’exemple précédent, si on souhaite obtenir le polynôme de degré 4
correspondant aux points (0; 1), (1; 2), (2; 9), (3; 28) et (5; 54), on ne peut d’aucune
façon récupérer le polynôme de degré 3 déjà calculé et de le modifier simplement pour
obtenir 𝑃4 (𝑥). C’est en revanche ce que permet la méthode d’interpolation de Newton

IV. Polynôme de Newton


Soit une fonction 𝑓 dont en connait les valeurs de 𝑛 + 1 points distincts
[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛].

Définitions :

On appelle différence divisée d’ordre 0 :

𝑓[𝑥𝑖 ] = 𝑓(𝑥𝑖 )

On appelle différence divisée d’ordre 1 :

𝑓 (𝑥𝑖 ) − 𝑓(𝑥𝑗 )
𝑓[𝑥𝑖 , 𝑥𝑗 ] = , 𝑖≠𝑗
𝑥𝑖 − 𝑥𝑗

On appelle différence divisée d’ordre 2 :

𝑓[𝑥𝑖 , 𝑥𝑗 ] − 𝑓[𝑥𝑗 , 𝑥𝑘 ]
𝑓[𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 ] = , 𝑖 ≠ 𝑗, 𝑖 ≠ 𝑘 𝑒𝑡 𝑗 ≠ 𝑘
𝑥𝑖 − 𝑥𝑘
On appelle différence divisée d’ordre n :
𝑓[𝑥0 , 𝑥1 , … , 𝑥𝑛−1 ] − 𝑓[𝑥1 , … , 𝑥𝑛 ]
𝑓[𝑥0 , 𝑥1 , … , 𝑥𝑛 ] = ,
𝑥0 − 𝑥𝑛
A. RTIBI 5
Soit 𝑃𝑛 (𝑥) le polynôme d’interpolation de 𝑓 de 𝑑° ≤ 𝑛 tel que 𝑃𝑛 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ), 𝑝𝑜𝑢𝑟 𝑖 =
0,1,2 … 𝑛

Divisons 𝑃𝑛 par 𝑥 − 𝑥0 , on aura :

𝑃𝑛 (𝑥) = (𝑥 − 𝑥0 )𝑃𝑛−1 (𝑥) + 𝑓(𝑥0 )


𝑃𝑛 (𝑥) − 𝑓(𝑥0 )
𝑃𝑛−1 (𝑥) =
𝑥 − 𝑥0
𝑃𝑛 (𝑥𝑖 ) − 𝑓(𝑥0 ) 𝑓(𝑥𝑖 ) − 𝑓(𝑥0 )
𝑃𝑛−1 (𝑥𝑖 ) = = = 𝑓[𝑥0 , 𝑥𝑖 ] ∀𝑖 ≥1
𝑥𝑖 − 𝑥0 𝑥𝑖 − 𝑥0

Divisons 𝑃𝑛−1 par 𝑥 − 𝑥1 , on aura :

𝑃𝑛−1 (𝑥) = (𝑥 − 𝑥1 )𝑃𝑛−2 (𝑥) + 𝑃𝑛−1 (𝑥1 )


𝑃𝑛−1 (𝑥) − 𝑃𝑛−1 (𝑥1 )
𝑃𝑛−2 (𝑥) =
𝑥 − 𝑥1
𝑃𝑛−1 (𝑥𝑖 ) − 𝑃𝑛−1 (𝑥1 ) 𝑓[𝑥0 , 𝑥𝑖 ] − 𝑓[𝑥0 , 𝑥1 ]
𝑃𝑛−2 (𝑥𝑖 ) = = = 𝑓[𝑥0 , 𝑥1 , 𝑥𝑖 ] ∀𝑖 ≥2
𝑥𝑖 − 𝑥1 𝑥𝑖 − 𝑥1

De proche en proche on aura : formule de Newton

𝑃𝑛 (𝑥) = 𝑓(𝑥0 ) + 𝑓[𝑥0 , 𝑥1 ](𝑥 − 𝑥0 ) + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](𝑥 − 𝑥0 )(𝑥 − 𝑥1 )


+ ⋯ 𝑓[𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑛 ](𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑛−1 )

La formule de Newton (ou polynôme de Newton) est une autre forme d’écriture du
polynôme d’interpolation de Lagrange.
L’intérêt du polynôme de Newton est qu’il est plus maniable et moins coûteux et peut
être calculé de manière récursive.

Pour 𝑚 = 0,1, … , 𝑛 , on définit 𝑃𝑚 par les formules de récurrence suivantes :


𝑃0 (𝑥) = 𝑓(𝑥0 )
{
𝑃𝑚+1 (𝑥) = 𝑃𝑚 (𝑥) + 𝑓[𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑚+1 ](𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑚 )
Les différences divisées 𝑓[𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑘 ] sont calculées à l’aide d’une table triangulaire,
dite table des différences divisées de la façon suivante :

𝑥𝑖 𝑓(𝑥𝑖 ) 𝑓[𝑥𝑖 , 𝑥𝑖+1 ] 𝑓[𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 ] …


𝑥0 𝑓[𝑥0 ]
𝑥1 𝑓[𝑥1 ] 𝑓[𝑥0 , 𝑥1 ]
𝑥2 𝑓[𝑥2 ] 𝑓[𝑥1 , 𝑥2 ] 𝑓[𝑥0 , 𝑥1 , 𝑥2 ]
Remarque
La construction de cette table est simple. Nous nous sommes arrêtés aux deuxièmes
différences divisées, mais les autres s’obtient de la même manière. Pour obtenir par
exemple 𝑓[𝑥0 , 𝑥1 , 𝑥2 ], il suffit de soustraire les 2 termes adjacents 𝑓[𝑥1 , 𝑥2 ] − 𝑓[𝑥0 , 𝑥1 ] et
de diviser le résultat par , 𝑥2 − 𝑥0 . De même, pour obtenir 𝑓[𝑥0 , 𝑥1 , 𝑥2 , 𝑥3 ], on soustrait

A. RTIBI 6
𝑓[𝑥0 , 𝑥1 , 𝑥2 ] de 𝑓[𝑥1 , 𝑥2 , 𝑥3 ] et de diviser le résultat par , 𝑥3 − 𝑥0 . La formule de Newton
utilise la diagonale principale de cette table.

Exemple
Cherchons le polynôme de Newton qui passe par les points de collocation
(0,1), (1,2), (2,9) et (3,28).

𝑥𝑖 𝑓(𝑥𝑖 ) 𝑓[𝑥𝑖 , 𝑥𝑖+1 ] 𝑓[𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 ] 𝑓[𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 , 𝑥𝑖+3 ]
0 1
1 2 1
2 9 7 3
3 28 19 6 1
Le polynôme est donc :

𝑃3 (𝑥) = 1 + 1(𝑥 − 0) + 3(𝑥 − 0)(𝑥 − 1) + 1(𝑥 − 0)(𝑥 − 1)(𝑥 − 2)

Soit en développant l’expression de 𝑃3 dans la base canonique :

𝑃3 (𝑥) = 𝑥 3 + 1

qui est le même que celui obtenu par la méthode de Lagrange.

Remarque.
Si on souhaite ajouter un point de collocation (d’interpolation) et calculer un polynôme
de degré 4, il n’est pas nécessaire de tout recommencer. Par exemple, si on veut
déterminer le polynôme d’interpolation 𝑃4 (𝑥) de degré 4 qui passe par les points (0;1),
(1;2), (2;9),(3;28) et (5;54).

La table de différences divisées pour les points (0;1), (1;2), (2;9), (3;28) et (5;54) est :

𝑥𝑖 𝑓(𝑥𝑖 ) 𝑓[𝑥𝑖 , 𝑥𝑖+1 ] 𝑓[𝑥𝑖 , 𝑥𝑖+1 , 𝑥𝑖+2 ] 𝑓[𝑥𝑖 , … , 𝑥𝑖+3 ] 𝑓[𝑥𝑖 , … , 𝑥𝑖+4 ]
0 1
1 2 1
2 9 7 3
3 28 19 6 1
5 54 13 -2 -2 -3/5

Le polynôme 𝑃4 (𝑥) est donc donné par :

𝑃4 (𝑥) = 𝑃3 (𝑥) + (−3/5) (𝑥 − 0)(𝑥 − 1)(𝑥 − 2)(𝑥 − 3)

qui est tout simplement le polynôme de degré 3 déjà calculé auquel on a ajouté une
correction de degré 4.

V. Splines cubiques
La méthode d'interpolation par splines cubiques consiste à utiliser, dans chaque
intervalle [𝑥𝑖−1 , 𝑥𝑖 ] un polynôme de degré 3 de la forme:

A. RTIBI 7
𝑝𝑖 (𝑥) = 𝑎𝑖 (𝑥 − 𝑥𝑖−1 ) 3 + 𝑏𝑖 (𝑥 − 𝑥𝑖−1 ) 2 + 𝑐𝑖 (𝑥 − 𝑥𝑖−1 ) + 𝑑𝑖 ; 𝑖 = 1, … , 𝑛

Sa dérivée première et seconde sont :

𝑝𝑖 ′ (𝑥) = 3𝑎𝑖 (𝑥 − 𝑥𝑖−1 ) 2 + 2𝑏𝑖 (𝑥 − 𝑥𝑖−1 ) + 𝑐𝑖

𝑝𝑖 ′′ (𝑥) = 6𝑎𝑖 (𝑥 − 𝑥𝑖−1 ) + 2𝑏𝑖

Le problème d'interpolation par splines cubiques revient ainsi à déterminer, dans


chaque sous intervalle, des coefficients 𝑎𝑖 , 𝑏𝑖 , 𝑐𝑖 𝑒𝑡 𝑑𝑖 et à relier les différents polynômes
de façon que la courbe soit deux fois différentiables.

Ainsi, si on dispose de 𝑛 + 1 points de collocation, on aura n intervalles [𝑥𝑖−1 , 𝑥𝑖 ] donc 4𝑛


coefficients 𝑎𝑖 , 𝑏𝑖 , 𝑐𝑖 𝑒𝑡 𝑑𝑖 avec 𝑖 = 1, … , 𝑛 à déterminer.

Une approche astucieuse du problème conduirait à un système linéaire tridiagonal de


dimension 𝑛 − 2.

Les contraintes imposées aux n polynômes de degré 3:

• Le polynôme 𝑝1 (𝑥) passe par la première extrémité (𝑥0 , 𝑓(𝑥0 )) donc 𝑝1 (𝑥0 ) =
𝑓(𝑥0 )
• Le polynôme 𝑝𝑛 (𝑥) passe par la première extrémité (𝑥𝑛 , 𝑓(𝑥𝑛 )) donc 𝑝𝑛 (𝑥𝑛 ) =
𝑓(𝑥𝑛 )

De ces deux contraintes aux bords, résultent 2 équations.

• Pour chaque nœud intérieur 𝑥𝑖 (𝑖 = 1, … , 𝑛 − 1) passent les deux polynômes


𝑝𝑖 (𝑥) et 𝑝𝑖+1 (𝑥) définis respectivement dans [𝑥𝑖−1 , 𝑥𝑖 ] et [𝑥𝑖 , 𝑥𝑖+1 ] . Ces deux
polynômes doivent passer par les points (𝑥𝑖 , 𝑓(𝑥𝑖 )) imposant ainsi les
contraintes suivantes:
𝑝 (𝑥 ) = 𝑓(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
{ 𝑖 𝑖
𝑝𝑖+1 (𝑥𝑖 ) = 𝑓(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
Ceci donne 2𝑛 − 2 é𝑞𝑢𝑎𝑡𝑖𝑜𝑛𝑠
• Pour assurer la régularité de la courbe, on impose l'égalité des dérivées
premières et secondes des polynômes 𝑝𝑖 (𝑥) et 𝑝𝑖+1 (𝑥) aux nœuds intérieurs:
𝑝′ (𝑥 ) = 𝑝𝑖+1

(𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
{ ′′𝑖 𝑖 ′′
𝑝𝑖 (𝑥𝑖 ) = 𝑝𝑖+1 (𝑥𝑖 ) 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 − 1
Ceci donne 2𝑛 − 2 é𝑞𝑢𝑎𝑡𝑖𝑜𝑛𝑠

Définissons la fonction 𝑀(𝑥) par :

𝑝𝑖′′ (𝑥)
𝑀𝑖 (𝑥) = = 3𝑎𝑖 (𝑥 − 𝑥𝑖−1 ) + 𝑏𝑖
2
Donc pour 𝑥 = 𝑥𝑖−1 on a : 𝑝𝑖 (𝑥𝑖−1 ) = 𝑑𝑖 = 𝑝𝑖 𝑒𝑡 𝑀𝑖 (𝑥𝑖−1 ) = 𝑀𝑖 = 𝑏𝑖 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛

Et pour 𝑥 = 𝑥𝑖 on a : 𝑀𝑖+1 (𝑥𝑖 ) = 𝑀𝑖 (𝑥𝑖 ) = 3𝑎𝑖 (𝑥𝑖 − 𝑥𝑖−1 ) + 𝑀𝑖 = 𝑀𝑖+1


𝑀𝑖+1 − 𝑀𝑖 𝑀𝑖+1 − 𝑀𝑖
⇒ 𝑎𝑖 = = 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛 𝑒𝑡 ℎ𝑖 = 𝑥𝑖 − 𝑥𝑖−1
3(𝑥𝑖 − 𝑥𝑖−1 ) 3ℎ𝑖

A. RTIBI 8
Le polynôme en 𝑥𝑖 donne 𝑝𝑖+1 (𝑥𝑖 ) = 𝑝𝑖+1 = 𝑎𝑖 (𝑥𝑖 − 𝑥𝑖−1 ) 3 + 𝑏𝑖 (𝑥𝑖 − 𝑥𝑖−1 ) 2 +
𝑐𝑖 (𝑥𝑖 − 𝑥𝑖−1 ) + 𝑑𝑖
𝑀𝑖+1 − 𝑀𝑖 3
𝑝𝑖+1 = 𝑎𝑖 ℎ𝑖 3 + 𝑏𝑖 ℎ𝑖 2 + 𝑐𝑖 ℎ𝑖 + 𝑑𝑖 = ℎ𝑖 + 𝑀𝑖 ℎ𝑖2 + 𝑐𝑖 ℎ𝑖 + 𝑝𝑖
3ℎ𝑖
𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
⇒ 𝑐𝑖 = − ℎ𝑖 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛
ℎ𝑖 3
En définitive, pour 𝑥 ∈ [𝑥𝑖−1 , 𝑥𝑖 ] on aura le polynôme, sa dérivé première et sa dérivée
deuxième recherché: 𝑝𝑜𝑢𝑟 𝑖 = 1, … , 𝑛
𝑀𝑖+1 − 𝑀𝑖
𝑝𝑖 (𝑥) = (𝑥 − 𝑥𝑖−1 ) 3 + 𝑀𝑖 (𝑥 − 𝑥𝑖−1 ) 2
3ℎ𝑖
𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
+[ − ℎ𝑖 ] (𝑥 − 𝑥𝑖−1 ) + 𝑝𝑖
ℎ𝑖 3
𝑀𝑖+1 − 𝑀𝑖
𝑝𝑖′ (𝑥) = (𝑥 − 𝑥𝑖−1 ) 2 + 2𝑀𝑖 (𝑥 − 𝑥𝑖−1 )
ℎ𝑖
𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
+[ − ℎ𝑖 ]
ℎ𝑖 3
𝑀𝑖+1 − 𝑀𝑖
𝑝𝑖′′ (𝑥) = 2 (𝑥 − 𝑥𝑖−1 ) + 2𝑀𝑖
ℎ𝑖
La continuité des dérivées premières de 𝑝𝑖+1 (𝑥) et 𝑝𝑖 (𝑥) aux nœuds intérieurs 𝑥𝑖
implique

l'égalité: 𝑝𝑖+1 (𝑥𝑖 ) = 𝑝𝑖′ (𝑥𝑖 ) pour 𝑖 = 1, … , 𝑛 − 1
𝑀𝑖+1 − 𝑀𝑖 2 𝑝𝑖+1 − 𝑝𝑖 𝑀𝑖+1 + 2𝑀𝑖
⇒ ℎ𝑖 + 2𝑀𝑖 ℎ𝑖 + [ − ℎ𝑖 ]
ℎ𝑖 ℎ𝑖 3
𝑝𝑖+2 − 𝑝𝑖+1 𝑀𝑖+2 + 2𝑀𝑖+1
= − ℎ𝑖+1
ℎ𝑖+1 3

Remarque

Les deux nœuds extrêmes sont exclus.


Dans l'équation précédente, les inconnus sont les 𝑀𝑖 . On arrangera l'écriture de cette
équation sous la forme:
𝑝𝑖+2 − 𝑝𝑖+1 𝑝𝑖+1 − 𝑝𝑖
𝑀𝑖 ℎ𝑖 + 2𝑀𝑖+1 (ℎ𝑖 + ℎ𝑖+1 ) + ℎ𝑖+1 𝑀𝑖+2 = 3 [ − ] = 𝛼𝑖+1
ℎ𝑖+1 ℎ𝑖

𝑖 = 1, … , 𝑛 − 1

Cette équation est une écriture condensée d'un système de 𝑛 − 1 équations, elle peut
être réécrite sous la forme matricielle suivante:

A. RTIBI 9
ℎ1 2(ℎ1 + ℎ2 ) ℎ2 0 . 0
𝑀1 𝛼2
0 ℎ2 2(ℎ2 + ℎ3 ) ℎ3 . 0 𝑀2 𝛼3
. 0 0 0 . . | ⋮ || ⋮
=
. . . . . . | 𝑀
𝑛 ⋮
. . . . . 0 𝑀𝑛+1 𝛼𝑛
(0 0 0 ℎ𝑛−1 2(ℎ𝑛−1 + ℎ𝑛 ) ℎ𝑛 )
On obtient ainsi un système de 𝑛 − 1 équations à 𝑛 + 1 inconnus. Deux conditions
supplémentaires sont nécessaires pour réduire le nombre d'inconnus à autant
d'équations. Plusieurs choix sont possibles. Ces choix restent en général sans grande
influence sur la fonction d'interpolation; leur influence peut paraître au niveau des
dérivées de la fonction aux bords de l'intervalle.

- Splines naturelles
Ce choix consiste à imposer 𝑀1 = 𝑀𝑛+1 = 0, on se ramène dans ce cas à la résolution
d'un système tridiagonal.

- Autre choix

𝑀1 = 𝑀2 et 𝑀𝑛+1 = 𝑀𝑛 Choix imposant une courbure constante dans le premier et le


dernier intervalles.
D'autres choix sont aussi possibles; ils permettent également de ramener le problème à
un système tridiagonal dont les avantages ne sont plus à démontrer.

A. RTIBI 10
Travaux Pratiques (à rendre)

But

A partir de données expérimentales, numériques ou tabulaires restreintes (nombre


réduit de données), on désire élaborer un code numérique qui permet de générer un
plus grand nombre de points (pour avoir des courbes régulières) en utilisant la méthode
d'interpolation par splines cubiques.

Formulation
On dispose du tableau suivant montrant des valeurs expérimentales obtenues en
mesurant la vitesse (en km/h) d'un véhicule toutes les 5 secondes:

t(s) 0 5 10 15 20 25 30 35 40 45
v(km/h) 70 75 73 69 70 75 69 72 67 64

1. Montrer que, sur la base des données du tableau précédent, l'interpolation basée
sur l'utilisation du polynôme Lagrange (ou de Newton) conduirait à des erreurs
importantes aux temps t = 2.5s et 42.5s. Justifier votre réponse en déduisant les
valeurs de la vitesse à partir du polynôme de Lagrange de degré 9 (polynôme
construit à partir de 10 points de collocation).

Rappel

La forme générale du polynôme de Lagrange de degré 𝑛 est


𝑛

pn (x) = ∑ 𝑓(𝑥𝑖 )𝐿𝑖 (𝑥)


𝑖=0

où 𝑓(𝑥𝑖 ) est une fonction connue par ses valeurs aux nœuds de collocation et nulle part
ailleurs et les polynômes 𝐿𝑖 (𝑥) sont donnés par:
(𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) … (𝑥 − 𝑥𝑖−1 )(𝑥 − 𝑥𝑖+1 ) … (𝑥 − 𝑥𝑛 )
𝐿𝑖 (𝑥) =
(𝑥𝑖 − 𝑥0 )(𝑥𝑖 − 𝑥1 ) … (𝑥𝑖 − 𝑥𝑖−1 )(𝑥𝑖 − 𝑥𝑖+1 ). . (𝑥𝑖 − 𝑥𝑛 )

𝑖 = 0,1 … … … , 𝑛

2. Développer un code numérique adéquat utilisant la méthode des splines


cubiques et générer, à partir du tableau précédent, 100 points ((xj, f(xj), avec j
variant de 0 à 50).
3. Tracer la courbe de la vitesse en fonction du temps.
4. Déduire les valeurs de la vitesse aux temps t = 2.5s et 42.5s.
5. Conclure.

A. RTIBI 11
Différentiation et Intégration

I. Introduction
On a vu que la méthode d’interpolation permet d’évaluer la valeur d’une fonction en un
point quelconque situé entre deux points de collocation, [(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1, … , 𝑛].
Dans ce chapitre, il s’agit plutôt d’évaluer les dérivées de cette fonction de même que son
intégrale
𝑥𝑛
𝑓 ′ (𝑥) 𝑒𝑡 ∫ 𝑓(𝑥)𝑑𝑥
𝑥0

II. Différentiation numérique

L’interpolation polynomiale de 𝑓(𝑥) donne : 𝑓(𝑥) = 𝑝𝑛 (𝑥) + 𝐸𝑛 (𝑥)


𝑝𝑛 (𝑥) , désignant le polynôme d’interpolation et 𝐸𝑛 (𝑥) l’erreur associée à cette
interpolation.

𝑓 ′ (𝑥) = 𝑝𝑛′ (𝑥) + 𝐸𝑛′ (𝑥) 𝑒𝑡 𝑓 ′′ (𝑥) = 𝑝𝑛′′ (𝑥) + 𝐸𝑛′′ (𝑥)

Remarque

On dépasse rarement des dérivées d’ordre 4 car la différentiation numérique est un


procédé numériquement instable.

1. dérivées d’ordre 1
L’approximation des dérivées d’ordre 1 est une évaluation de la pente de la fonction
𝑓(𝑥). L’ordre et la précision dépendent du polynôme d’interpolation qui peut être de
degré plus ou moins élevé. En fait, on montre que si on utilise un polynôme
d’interpolation de degré n, la dérivée de ce polynôme, évaluée en 𝑥 = 𝑥𝑖 , est une
approximation d’ordre 𝑛 pour 𝑓 ′ (𝑥𝑖 ).

• En formulation de Newton avec un polynôme de degré 1 passant par


[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1]

𝑝1 (𝑥) = 𝑓(𝑥0 ) + 𝑓[𝑥0 , 𝑥1 ](𝑥 − 𝑥0 )

𝑓 ′ (𝑥) = 𝑝1′ (𝑥) + 𝐸1′ (𝑥) = 𝑓[𝑥0 , 𝑥1 ] + 𝐸1′ (𝑥)


𝑓(𝑥1 )−𝑓(𝑥0 )
𝑓 ′ (𝑥0 ) = 𝑓[𝑥0 , 𝑥1 ] + 𝐸1′ (𝑥0 ) et 𝑓 ′ (𝑥1 ) = 𝑓[𝑥0 , 𝑥1 ] + 𝐸1′ (𝑥1 ) avec 𝑓[𝑥0 , 𝑥1 ] = 𝑥1 −𝑥0

La dérivée de la fonction en 𝑥0 et en 𝑥1 est respectivement une différence avant et


arrière d’ordre 1 (l’information est respectivement cherchée vers l’avant et l’arrière).

Remarque

La même différence divisée est une approximation de la dérivée à la fois en 𝑥 = 𝑥0 et en


𝑥 = 𝑥1 avec des termes d’erreurs différents.

A. RTIBI 12
• En formulation de Newton avec un polynôme de degré 2 passant par
[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1,2]

𝑝2 (𝑥) = 𝑓(𝑥0 ) + 𝑓[𝑥0 , 𝑥1 ](𝑥 − 𝑥0 ) + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](𝑥 − 𝑥0 )(𝑥 − 𝑥1 )

𝑝2′ (𝑥) = 𝑓[𝑥0 , 𝑥1 ] + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](2𝑥 − 𝑥0 − 𝑥1 )


𝑓[𝑥1 ,𝑥2 ]−𝑓[𝑥0 ,𝑥1 ]
Avec 𝑓[𝑥0 , 𝑥1 , 𝑥2 ] = 𝑥2 −𝑥0

𝑓 ′ (𝑥0 ) = 𝑓[𝑥0 , 𝑥1 ] + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](𝑥0 − 𝑥1 ) + 𝐸2′ (𝑥0 )

𝑓 ′ (𝑥1 ) = 𝑓[𝑥0 , 𝑥1 ] + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](𝑥1 − 𝑥0 ) + 𝐸2′ (𝑥1 )

𝑓 ′ (𝑥2 ) = 𝑓[𝑥0 , 𝑥1 ] + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](2𝑥2 − 𝑥0 − 𝑥1 ) + 𝐸2′ (𝑥2 )

Si on pose 𝑥2 − 𝑥1 = 𝑥1 − 𝑥0 = ℎ
−𝑓(𝑥2 ) + 4𝑓(𝑥1 ) − 3𝑓(𝑥0 )
𝑓 ′ (𝑥0 ) = + 𝐸2′ (𝑥0 ) (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑎𝑣𝑎𝑛𝑡 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2ℎ
𝑓(𝑥2 ) − 𝑓(𝑥0 )
𝑓 ′ (𝑥1 ) = + 𝐸2′ (𝑥1 ) (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑐𝑒𝑛𝑡𝑟é𝑒 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2ℎ
3𝑓(𝑥2 ) − 4𝑓(𝑥1 ) + 𝑓(𝑥0 )
𝑓 ′ (𝑥2 ) = + 𝐸2′ (𝑥2 ) (𝑑𝑖𝑓𝑓é𝑟𝑒𝑛𝑐𝑒 𝑎𝑟𝑟𝑖è𝑟𝑒 𝑑’𝑜𝑟𝑑𝑟𝑒 2)
2ℎ
2. dérivées d’ordre supérieur
Les dérivées d’ordre supérieur à un posent un problème au niveau de l’analyse de
l’erreur 𝐸𝑛 (𝑥). On contourne la difficulté en utilisant une approche basée sur des
développements de Taylor.

Le polynôme de degré 2 qui interpole une fonction passant par 3 points est :
𝑓(𝑥2 ) − 2𝑓(𝑥1 ) + 𝑓(𝑥0 )
𝑝2′′ (𝑥) = 2𝑓[𝑥0 , 𝑥1 , 𝑥2 ] =
ℎ2
𝑓(𝑥2 ) − 2𝑓(𝑥1 ) + 𝑓(𝑥0 )
𝑓 ′′ (𝑥0 ) = 𝑓 ′′ (𝑥1 ) = 𝑓 ′′ (𝑥2 ) = 𝑒𝑡 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑥 ∈ [𝑥0 , 𝑥2 ]
ℎ2
Discussion sur l’ordre de cette approximation
Procédant par un développement de Taylor pour trouver l’ordre de l’approximation de
𝑓 ′′ (𝑥0 ), 𝑓 ′′ (𝑥1 ) 𝑒𝑡 𝑓 ′′ (𝑥2 )

On a
1 1
𝑔(𝑦 ± 𝑚ℎ) = 𝑔(𝑦) ± 𝑚ℎ𝑔′ (𝑦) + (𝑚ℎ)2 𝑔′′ (𝑦) ± (𝑚ℎ)3 𝑔′′′ (𝑦) + 𝑂(ℎ4 )
2 6
• ordre de l’approximation en 𝑥0

𝑓(𝑥0 + 2ℎ) − 2𝑓(𝑥0 + ℎ) + 𝑓(𝑥0 ) ℎ2 𝑓 ′′ (𝑥0 ) + 𝑂(ℎ3 )


= = 𝑓 ′′ (𝑥0 ) + 𝑂(ℎ)
ℎ2 ℎ2

A. RTIBI 13
L’approximation est d’ordre 1 de la dérivée seconde en 𝑥0

• ordre de l’approximation en 𝑥1
𝑓(𝑥1 + ℎ) − 2𝑓(𝑥1 ) + 𝑓(𝑥1 − ℎ)
= 𝑓 ′′ (𝑥1 ) + 𝑂(ℎ2 )
ℎ2
L’approximation est d’ordre 2 de la dérivée seconde en 𝑥1

• ordre de l’approximation en 𝑥2
𝑓(𝑥2 ) − 2𝑓(𝑥2 − ℎ) + 𝑓(𝑥2 − 2ℎ)
= 𝑓 ′′ (𝑥2 ) + 𝑂(ℎ)
ℎ2
L’approximation est d’ordre 1 de la dérivée seconde en 𝑥2

Remarque

La symétrie des différences centrées a permis de gagner un ordre de précision.

3. Extrapolation de Richardson
C’est une technique qui permet d’améliorer la précision d’une méthode d’approximation
Désignons par 𝑄ap (h) une approximation numérique d’une quantité exacte 𝑄ex
inconnue. Généralement, plus le pas ℎ est petit plus l’approximation est précise.

Admettons que l’approximation est d’ordre 𝑛, i.e. :

𝑄ex = 𝑄ap (ℎ) + 𝑂(ℎ𝑛 ) = 𝑄ap (ℎ) + cn ℎ𝑛 + cn+1 ℎ𝑛+1 + ⋯

Où cn sont des constantes qui dépendent de la méthode numérique utilisée.

La technique d’extrapolation de Richardson consiste à obtenir, à partir de


l’approximation qui est d’ordre n, une nouvelle approximation d’ordre au moins égal à
(n + 1). Il suffit de remplacer ℎ par ℎ/2 dans l’équation précédente ce qui donne :

𝑄ex = 𝑄ap (ℎ/2) + cn (ℎ/2)𝑛 + cn+1 (ℎ/2)𝑛+1 + ⋯

Généralement, l’approximation 𝑄ap (ℎ/2) est plus précise que 𝑄ap (h).

L’idée consiste à combiner les deux équations de façon à faire disparaître le terme cn ℎ𝑛
qui est d’ordre 𝑛.

2𝑛 𝑄ex = 2𝑛 𝑄ap (ℎ/2) + cn ℎ𝑛 + cn+1 (ℎ/2)𝑛+1 + ⋯

1
(2𝑛 − 1)𝑄ex = 2𝑛 𝑄ap (ℎ/2) − 𝑄ap (ℎ) − cn+1 ℎ𝑛+1 + ⋯
2
2𝑛 𝑄ap (ℎ/2) − 𝑄ap (ℎ)
𝑄ex = + 𝑂(ℎ𝑛+1 )
(2𝑛 − 1)

L’extrapolation de Richardson permet ainsi de gagner au moins un ordre de précision. Si


cn+1 = 0 (cas souvent observé lorsqu’on utilise des différences centrées),
l’approximation devient d’ordre (𝑛 + 2).

A. RTIBI 14
Exemple

𝑓(𝑥) = 𝑒 𝑥 on a 𝑓 ′ (0) = 1 (résultat analytique).


𝑒 0+ℎ −𝑒 0
𝑓 ′ (0) = qui est une différence avant d’ordre 1.

𝑒 0.1 −𝑒 0
Pour ℎ = 0.1 : 𝑓 ′ (0) = = 1.05170918 = 𝑄ap (0.1)
0.1

𝑒 0.05 −𝑒 0
Pour ℎ = 0.05 : 𝑓 ′ (0) = = 1.02542192 = 𝑄ap (0.05)
0.05

21 𝑄ap (0.05)−𝑄ap (0.1)


En utilisant l’extrapolation de Richardson 𝑓 ′ (0) = (21 −1)
= 0.99913466 qui
est une approximation d’ordre 2.
𝑒 ℎ −𝑒 −ℎ
Utilisons maintenant une différence centrée 𝑓 ′ (0) = qui est d’ordre deux.
2ℎ

𝑒 0.05 −𝑒 −005
Pour ℎ = 0.05 : 𝑓 ′ (0) = = 1.000416719 = 𝑄ap (0.05)
2×0.05

𝑒 0.025 −𝑒 −0025
Pour ℎ = 0.025 : 𝑓 ′ (0) = = 1.00010418 = 𝑄ap (0.025)
2×0.05

L’utilisation de la formule d’extrapolation de Richardson avec 𝑛 = 2, donne :

′ (0)
22 𝑄ap (0.025) − 𝑄ap (0.05)
𝑓 = = 0.000000007
(22 − 1)

qui est une approximation d’ordre 4.

III. Intégration numérique


𝑥𝑛 𝑥𝑛 𝑥𝑛
∫ 𝑓(𝑥)𝑑𝑥 = ∫ 𝑝𝑛 (𝑥))𝑑𝑥 + ∫ 𝐸𝑛 (𝑥)𝑑𝑥
𝑥0 𝑥0 𝑥0

En faisant varier n, on obtient les formules de Newton-Cotes. Les numériciens se limitent


en pratique à des valeurs de 𝑛 ≤ 5.
1. Formules de Newton-Cotes simples et composées
a. Méthode des trapèzes
𝑓(𝑥)
En utilisant le polynôme de Newton de degré 1, 𝑝1 (𝑥)) on aura
:
𝑥1 𝑥1
∫ 𝑓(𝑥)𝑑𝑥 ≈ ∫ 𝑝1 (𝑥))𝑑𝑥
𝑥0 𝑥0

𝑥1 𝑥0 𝑥1
= ∫ [𝑓(𝑥0 ) + 𝑓[𝑥0 , 𝑥1 ](𝑥 − 𝑥0 )]𝑑𝑥
𝑥0 𝑓(𝑥)

A. RTIBI 15

𝑥0 𝑥𝑖 𝑥𝑖+1 𝑥𝑛
𝑥1 −𝑥0
= (𝑓(𝑥0 ) + 𝑓(𝑥1 )) C’est l’aire du trapèze
2

La précision peut être améliorée si on décompose, par exemple, l’intervalle d’intégration


𝑎−𝑏
[𝑥0 , 𝑥𝑛 ] = [𝑎, 𝑏] en sous-intervalles de longueur ℎ chacun, avec ℎ = et appliquer la
𝑛
méthode de trapèze chaque sous-intervalle [𝑥𝑖 , 𝑥𝑖+1 ] :
𝑛−1 𝑛−1
𝑥𝑛 𝑥𝑖+1

∫ 𝑓(𝑥)𝑑𝑥 = ∑ ∫ 𝑓(𝑥)𝑑𝑥 ≈ ∑ (𝑓(𝑥𝑖 ) + 𝑓(𝑥𝑖+1 ))
𝑥0 𝑥𝑖 2
𝑖=0 𝑖=0


= [𝑓(𝑥0 ) + 2[𝑓(𝑥1 ) + ⋯ 𝑓(𝑥𝑛−1 )] + 𝑓(𝑥𝑛 )]
2
qui est la formule des trapèzes composée.

On montre que la précision est d’ordre 2 pour la méthode des trapèzes composée.

Exemple
𝜋⁄2
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 = 1 (𝑣𝑎𝑙𝑒𝑢𝑟 𝑎𝑛𝑎𝑙𝑦𝑡𝑖𝑞𝑢𝑒 𝑒𝑥𝑎𝑐𝑡𝑒)
0

• Numériquement par la méthode des trapèzes simple (un intervalle) :


𝜋⁄2
𝜋⁄2
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ (𝑠𝑖𝑛0 + 𝑠𝑖𝑛 𝜋⁄2) = 0.785398163
0 2

• Numériquement par la méthode des trapèzes composée (4 intervalles) :


𝜋⁄2
𝜋⁄8
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ (𝑠𝑖𝑛0 + 2(𝑠𝑖𝑛 𝜋⁄8 + 𝑠𝑖𝑛 𝜋⁄4 + 𝑠𝑖𝑛 3𝜋⁄8) + 𝑠𝑖𝑛 𝜋⁄2) = 0.9871158
0 2

Soit une erreur de 0.012884

Numériquement par la méthode des trapèzes composée (8 intervalles) :


𝜋⁄2
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 0.9967852
0

dont l’erreur est 0.0032148 qui est environ quatre fois plus petite que celle obtenue
avec 4 sous intervalles ; ce qui justifie que la méthode des trapèzes est d’ordre 2.

Pour obtenir une précision au moins égale à 3, on utilise la formule de Richardson avec
𝑛 = 2:
𝜋⁄2
22 (0.9967852) − (0.9871158)
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ = 1.000008333
0 (22 − 1)

valeur très proche de la valeur exacte

Remarque

A. RTIBI 16
• La méthode des trapèzes composée est d’ordre 2. La méthode des trapèzes
simple, bien qu’elle soit d’ordre 3, est rarement utilisée car elle est imprécise (on
montre que le terme d’erreur, pour la méthode des trapèzes simple, est donné
𝑓 ′′ (𝜂)
par – ℎ3 avec 𝜂𝜖[𝑥0 , 𝑥1 ]
12
• La méthode des trapèzes donne un résultat exact si la fonction 𝑓(𝑥) est un
polynôme de degré 1 car, dans ce cas, la dérivée seconde s’annule dans le terme
d’erreur.
b. Formule de Simpson 1/3
On utilise dans ce cas un polynôme de degré 2 dont la courbe passe par les 3 points
[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1,2]

𝑝2 (𝑥) = 𝑓(𝑥0 ) + 𝑓[𝑥0 , 𝑥1 ](𝑥 − 𝑥0 ) + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](𝑥 − 𝑥0 )(𝑥 − 𝑥1 )


𝑥2 𝑥2
∫ 𝑓(𝑥)𝑑𝑥 ≈ ∫ 𝑝2 (𝑥))𝑑𝑥
𝑥0 𝑥0

𝑥2
= ∫ {𝑓(𝑥0 ) + 𝑓[𝑥0 , 𝑥1 ](𝑥 − 𝑥0 ) + 𝑓[𝑥0 , 𝑥1 , 𝑥2 ](𝑥 − 𝑥0 )(𝑥 − 𝑥1 )} 𝑑𝑥
𝑥0

Pour ℎ = 𝑥1 − 𝑥0 = 𝑥2 − 𝑥1 on a :
𝑥2

∫ 𝑓(𝑥)𝑑𝑥 ≈ [𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 𝑓(𝑥2 )]
𝑥0 3

Exemple
𝜋⁄2
𝜋⁄4
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ [𝑠𝑖𝑛0 + 4𝑠𝑖𝑛 𝜋⁄4 + 𝑠𝑖𝑛 𝜋⁄2] = 1.00227987
0 3

résultat plus précis que celui obtenu par la méthode des trapèzes simple. La précision de
la méthode de Simpson 1/3 peut être améliorée aussi par la décomposition de
l’intervalle en sous intervalles.( Simpson 1/3 composée)
Puisque la méthode de Simpson 1/3 requiert 2 intervalles, on divise l’intervalle
d’intégration [a, b] en 2n sous intervalles et on utilise la méthode Simpson 1/3 simple
dans chaque paire de sous intervalles. On obtient alors la méthode de Simpson 1/3
composée comme suit :
𝑛 𝑛
𝑥𝑛 𝑥𝑖+1

∫ 𝑓(𝑥)𝑑𝑥 = ∑ ∫ 𝑓(𝑥)𝑑𝑥 ≈ ∑ [𝑓(𝑥2𝑖 ) + 4𝑓(𝑥2𝑖+1 ) + 𝑓(𝑥2𝑖+2 )]
𝑥0 𝑥𝑖 3
𝑖=0 𝑖=0


= {[𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 𝑓(𝑥2 )] + [𝑓(𝑥2 ) + 4𝑓(𝑥3 ) + 𝑓(𝑥4 )]
3
+ ⋯ [𝑓(𝑥2𝑛−2 ) + 4𝑓(𝑥2𝑛−1 ) + 𝑓(𝑥2𝑛 )]}

= {[𝑓(𝑥0 ) + 4𝑓(𝑥1 ) + 𝑓(𝑥2 )] + [𝑓(𝑥2 ) + 4𝑓(𝑥3 ) + 𝑓(𝑥4 )]
3
+ ⋯ [𝑓(𝑥2𝑛−2 ) + 4𝑓(𝑥2𝑛−1 ) + 𝑓(𝑥2𝑛 )]}

A. RTIBI 17
On remarque que tous les termes de rang pair / (impair) sont multipliés par 2 / (4) sauf
le premier et le dernier.

Exemple
𝜋⁄2
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥
0

Quatre sous intervalles de longueur ℎ = 𝜋⁄8


𝜋⁄2
𝜋⁄8
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ [𝑠𝑖𝑛0 + 4𝑠𝑖𝑛 𝜋⁄8 + 2𝑠𝑖𝑛 𝜋⁄4 + 4𝑠𝑖𝑛 3𝜋⁄8 + 𝑠𝑖𝑛 𝜋⁄2] = 1.0001346
0 3
𝜋⁄2
Avec 8 sous intervalles, ℎ = 𝜋⁄16 , ∫0 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ 1.000008296

En examinant les différences :|1 − 1.0001346| = 0.0001346 et |1 − 1.000008296| =


0.000008296
Ainsi, lorsqu’on passe de 4 à 8 intervalles, l’erreur est divisée par 16 ce qui confirme que
la méthode est précise d’ordre 4 qu’on peut encore améliorer en utilisant l’extrapolation
de Richardson :

En utilisant l’extrapolation de Richardson :


𝜋⁄2
24 (1.000008296) − (1.0001346)
∫ 𝑠𝑖𝑛𝑥 𝑑𝑥 ≈ = 0.999999876
0 (24 − 1)

résultat précis au moins à l’ordre 5

c. Formule de Simpson 3/8

Si on utilise un polynôme de degré 3 passant, dans l’intervalle [𝑥0 , 𝑥3 ], par les points,
[(𝑥𝑖 , 𝑓(𝑥𝑖 ) 𝑎𝑣𝑒𝑐 𝑖 = 0, 1,2] on obtient la formule de Simpson 3/8 qui est donnée par :
𝑛 𝑛
𝑥𝑛 𝑥𝑖+3
3ℎ
∫ 𝑓(𝑥)𝑑𝑥 = ∑ ∫ 𝑓(𝑥)𝑑𝑥 ≈ ∑ [𝑓(𝑥3𝑖 ) + 3𝑓(𝑥3𝑖+1 ) + 3𝑓(𝑥3𝑖+2 ) + 𝑓(𝑥3𝑖+3 )]
𝑥0 𝑥𝑖 8
𝑖=0 𝑖=0

3ℎ
= [𝑓(𝑥0 ) + 3𝑓(𝑥1 ) + 3𝑓(𝑥2 ) + 2𝑓(𝑥3 ) + 3𝑓(𝑥4 ) + ⋯ + 2𝑓(𝑥3𝑛−3 ) + 3𝑓(𝑥3𝑛−2 )
8
+ 3𝑓(𝑥3𝑛−1 ) + 𝑓(𝑥3𝑛 )]

Remarque

La méthode de Simpson 3/8 est beaucoup moins utilisée que celle de Simpson 1/3.

A. RTIBI 18
Travaux Pratiques (à rendre)

But

Mettre en application le contenu du chapitre pour évaluer numériquement l’intégrale


d’une fonction. Travail à exécuter

Evaluer numériquement :
1
∫ 𝑓(𝑥)𝑑𝑥
0

en utilisant les méthodes des trapèzes et de Simpson 1/3 composées en utilisant 9


nœuds et 17 nœuds. Utiliser l’extrapolation de Richardson pour les deux méthodes.
Conclure.

On donne 𝑓(𝑥) = 4𝑥 3 + 3𝑥 2 + 2𝑥 + 1.

A. RTIBI 19
Equations non linéaires

I. Introduction
Dans ce chapitre, on passera en revue les principales méthodes numériques utilisées
pour trouver une racine d’une équation non linéaire. On examinera les spécificités et le
comportement de chaque méthode. Il s’agit donc de décrire quelques méthodes pour
résoudre numériquement une équation de la forme :

𝑓(𝑥) = 0
Les méthodes proposées sont itératives construisant une suite (𝑥𝑛 ) vérifiant à la fin
lim 𝑥𝑛 = 𝑟 . Le but consiste donc à chercher une valeur de 𝑥, notée 𝑟, racine ou zéro de
𝑛→∞
la fonction 𝑓(𝑥). En règle générale, lorsque plusieurs solutions sont possibles, il est
difficile de prévoir à l’avance vers quelle racine r une méthode itérative converge. Si on
tombe sur une racine non souhaitée, on doit recommencer l’algorithme avec un autre
point de départ (estimation initiale de la solution). Il est à noter que le recours aux
méthodes numériques devient une alternative incontournable en l’absence de solution
analytique ou lorsque l’obtention de cette dernière nécessite des développements
mathématiques complexes.

II. Méthode des points fixes

L’un des avantages de cette méthode est le fait qu’elle s’applique pour la résolution d’un
système d’équations.

Définition : Un point fixe pour une fonction 𝑔(𝑥) est une valeur de 𝑥 invariante pour
cette fonction, i.e. toute solution de 𝑔(𝑥) = 𝑥 est un point fixe pour la fonction 𝑔(𝑥).

Exemple

Pour la fonction (𝑥) = 𝑥 3 , les valeurs 0, 1 et −1 sont des points fixes pour 𝑔. Pour établir
un algorithme permettant de déterminer les points fixes, on effectue les opérations de la
forme suivante :

- On se donne 𝑥0 et on construit l’algorithme 𝑥𝑛+1 = 𝑔(𝑥𝑛 )

Où 𝑥0 est une valeur estimée initialement ; elle est ‘quelconque’ à priori. L’algorithme
construit est général et son importance réside dans la relative facilité avec laquelle on
analyse la convergence.

• Algorithme des points fixes


1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0 est une
estimation initiale du point fixe.
2. On effectue 𝑥𝑛+1 = 𝑔(𝑥𝑛 )
|𝑥𝑛+1 −𝑥𝑛 |
3. |𝑥𝑛+1 |
<𝜀
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑛+1
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?

A. RTIBI 20
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

La résolution d’une équation non linéaire de la forme 𝑓(𝑥) = 0 nécessite sa


transformation en un problème équivalent de la forme 𝑔(𝑥) = 𝑥. Cette transformation
n’est pas unique ; il existe une infinité de façons différentes de faire cette transformation
et toutes les transformations ne conduisent pas nécessairement à la solution recherchée.

Exemple
Considérons l’équation 𝑓(𝑥) = 𝑥 3 + 𝑥 − 1 = 0, Il existe plusieurs façons de transformer
𝑓(𝑥) sous la forme ) 𝑔(𝑥) = 𝑥. On propose à titre indicatif les transformations suivantes
:
3 1
−𝑥 3 + 1 = 𝑥 √1 − 𝑥 = 𝑥 𝑥=
1 + 𝑥2
Toutes les transformations précédentes sont possibles (elles ne sont pas les seules) mais
on verra et on comprendra plus tard qu’elles ne sont pas équivalentes pour les
performances de la méthode des points fixes.

Remarque
Seuls certains choix conduisent à des algorithmes convergents. Ainsi, selon le choix de la
fonction itérative 𝑔(𝑥) et de la valeur initiale 𝑥0 , l’algorithme des points fixes peut
converger ou carrément diverger. D’où l’intérêt d’étudier les conditions de convergence
de cette méthode.

1. Convergence de la méthode des points fixes (MPF)

Considérons 𝑟 une racine de 𝑓 i.e. 𝑓(𝑟) = 0 et 𝑔(𝑟) = 𝑟 (condition supplémentaire


vérifiée par 𝑟). Ainsi, 𝑟 est solution de la fonction 𝑓(𝑥) et en même temps un point fixe de
la fonction 𝑔(𝑥). A l’étape 𝑛, on définit l’erreur par :

𝑒𝑛 = 𝑥𝑛 − 𝑟

Question : Sous quelles conditions, l’algorithme des points fixes converge-t-il vers la
racine ? Si la convergence a lieu, l’erreur en va tendre vers 0 lorsque 𝑛 devient
suffisamment grand.

Examinons comment évolue l’erreur.

𝑒𝑛+1 = 𝑥𝑛+1 − 𝑟 = 𝑔(𝑥𝑛 ) − 𝑔(𝑟)

Procédons à un développement en séries de Taylor de 𝑔(𝑥) autour de 𝑟 :


1 ′′ 1
𝑔(𝑒𝑛 + 𝑟) = 𝑔(𝑟) + 𝑔′ (𝑟)𝑒𝑛 + 𝑔 (𝑟)𝑒𝑛2 + 𝑔′′′ (𝑟)𝑒𝑛3 + ⋯.
2! 3!
1 ′′ 1
𝑒𝑛+1 = 𝑔(𝑥𝑛 ) − 𝑔(𝑟) = 𝑔(𝑒𝑛 + 𝑟) − 𝑔(𝑟) = 𝑔′ (𝑟)𝑒𝑛 + 𝑔 (𝑟)𝑒𝑛2 + 𝑔′′′ (𝑟)𝑒𝑛3 + ⋯.
2! 3!
Si 𝑔′ (𝑟) ≠ 0 alors au premier ordre on a : 𝑒𝑛+1 ≈ 𝑔′ (𝑟)𝑒𝑛

A. RTIBI 21
Cette relation renseigne sur la vitesse avec laquelle l’erreur diminue. En fait, plus 𝑔′ (𝑟)
est petit, plus la convergence est rapide.
Ainsi, à l’étape de calcul𝑛 + 1, l’erreur est directement proportionnelle à l’erreur
correspondant à l’étape 𝑛. Cette erreur diminue si |𝑔′ (𝑟)| < 1. Cette condition est
nécessaire pour la convergence d’une méthode de points fixes. De plus, si : −1 <
|𝑔′ (𝑟)| < 0 , l’erreur va changer de signe à chaque itération et les valeurs de 𝑥𝑛 vont
osciller de part et d’autre de 𝑟.

Définitions

• Le taux de convergence d’une méthode de points fixes est donné par 𝑔′ (𝑟),
Lorsqu’il est nul l’erreur est proportionnelle à 𝑒𝑛2 dans le cas où 𝑔′′ (𝑟) ≠ 0
• Une méthode de points fixes converge à l’ordre 𝑝 si |𝑒𝑛+1 | ≈ 𝑐|𝑒𝑛 |𝑝 où 𝑐 est une
constante.

La convergence d’ordre 1 est dite linéaire, celle d’ordre 2 est dite quadratique.

Remarques

• Si |𝑔′ (𝑟)| < 1 et 𝑔′ (𝑟) ≠ 0, la convergence de la MPF est dite d’ordre 1.


• Si 𝑔′ (𝑟) = 0 et 𝑔′′ (𝑟) ≠ 0,, la convergence sera dite quadratique.
• Si 𝑔′ (𝑟) = 𝑔′′ (𝑟) = 0 et 𝑔′′′ (𝑟) ≠ 0,, la convergence sera dite d’ordre 3
• La convergence d’une MPF dépend du choix de 𝑥0 (valeur initiale). En fait, un
mauvais choix de 𝑥0 peut conduire à un algorithme divergent même si la
condition |𝑔′ (𝑟)| < 1 est satisfaite.

Définitions

• Le bassin d’attraction de la racine 𝑟 pour la MPF 𝑥𝑛+1 = 𝑔(𝑥𝑛 ) est l’ensemble des
valeurs initiales 𝑥0 pour lesquelles 𝑥𝑛 tend vers 𝑟 lorsque 𝑛 → ∞

Le bassin d’attraction de la racine r comprend donc tous les points 𝑥0 pour lesquels la
méthode des points fixes converge vers la racine 𝑟.
On pourra avoir recours à une méthode graphique pour choisir 𝑥0 aussi près que
possible de r.

• Un point fixe 𝑟 de la fonction 𝑔(𝑥) est dit attractif si |𝑔′ (𝑟)| < 1, répulsif si
|𝑔′ (𝑟)| > 1 et indéterminé si |𝑔′ (𝑟)| = 1

Exemple

Considérons 𝑔(𝑥) = 𝑥 3 qui possède les trois points fixes 0, ±1. Or, les points fixes 𝑥 =
±1 sont répulsifs car 𝑔′ (±1) = 3 Le point fixe 𝑥 = 0 est plus intéressant car 𝑔′ (0) = 0
c’est donc un point fixe attractif. La suite des valeurs engendrées par la MPF à partir de
𝑥0 , 𝑥0 3 , 𝑥0 9 , 𝑥0 27 , … .. Cette suite converge vers 0 si 𝑥0 ∈ ]−1, 1[ Ainsi, l’intervalle est le
bassin d’attraction du point fixe 0 Un choix de 𝑥0 à l’extérieur de cet intervalle conduit
à une divergence de l’algorithme.

Remarques

A. RTIBI 22
• Le bassin d’attraction d’un point fixe répulsif se réduit à 𝑟 (un seul point qui est la
racine).
• Dans le cas où |𝑔′ (𝑟)| = 1, s’il y a convergence, celle-ci serait extrêmement lente.

2. Extrapolation d’Aitken

C’est une extrapolation qui permet d’améliorer la convergence d’une MPF. En effet, elle
permet, à partir d’une MPF convergente à l’ordre 1, d’obtenir une méthode convergente
à l’ordre 2.

Pour une convergence d’ordre 1, on a :


𝑒2 ≈ 𝑔′ (𝑟)𝑒1 𝑒2 𝑒1
′ (𝑟)𝑒 } ⇒ ≈
𝑒1 ≈ 𝑔 0 𝑒1 𝑒0

C'est-à-dire
𝑥2 − 𝑟 𝑥1 − 𝑟

𝑥1 − 𝑟 𝑥0 − 𝑟

𝑥2 𝑥0 − 𝑥1 2
𝑟≈
𝑥2 − 2𝑥1 + 𝑥0
Cette formule a été trouvée numériquement instable. A la place, on utilise la formule
équivalente suivante :
(𝑥1 − 𝑥0 )2
𝑟 ≈ 𝑥0 −
𝑥2 − 2𝑥1 + 𝑥0
Cette formule est dite formule d’extrapolation d’Aitken. Elle permet d’avoir, à partir de
𝑥0 , 𝑥1 et 𝑥2 , une meilleure approximation du point fixe 𝑟. Il en résulte un algorithme qui
accélère efficacement la convergence d’une MPF : c’est l’algorithme de Steffenson.

Algorithme de Steffenson

1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0 est une


estimation initiale du point fixe.
2. On effectue 𝑥1 = 𝑔(𝑥0 )
𝑥2 = 𝑔(𝑥1 )
(𝑥2 −𝑥0 )2
𝑥𝑒 = 𝑥0 − 𝑥
2 −2𝑥1 +𝑥0
𝑥𝑒 −𝑥0
3. |𝑥𝑒 |
<𝜀
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑒
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ passage à l’étape 5.

A. RTIBI 23
5. On effectue le changement 𝑥0 = 𝑥𝑒 et on retourne à l’étape 2.

III. Méthode de Newton


La méthode de Newton compte parmi les méthodes les plus utilisées pour la résolution
des équations non linéaires Soit 𝑓(𝑥) l’équation non linéaire à résoudre et considérons
une estimation initiale 𝑥0 de la solution, on cherche une correction 𝛿𝑥 telle que :

𝑓(𝑥0 + 𝛿𝑥) = 0

Un développement de Taylor de f au voisinage de 𝑥0 permet d’écrire :


1 ′′ 1
0 = 𝑓(𝑥0 ) + 𝑓 ′ (𝑥0 )𝛿𝑥 + 𝑓 (𝑥0 )𝛿𝑥 2 + 𝑓 ′′′ (𝑥0 )𝛿𝑥 3 + ⋯.
2! 3!
En négligeant les termes d’ordre supérieur ou égal à 2 en 𝛿𝑥, on obtient :

0 ≈ 𝑓(𝑥0 ) + 𝑓 ′ (𝑥0 )𝛿𝑥

En isolant la correction recherchée, on obtient :


𝑓(𝑥0 )
𝛿𝑥 = −
𝑓 ′ (𝑥0 )

En fait, 𝛿𝑥 est la correction qu’on devrait ajouter à 𝑥0 pour annuler exactement la


fonction 𝑓(𝑥). Cette correction n’est pas parfaite puisque les termes d’ordre supérieur
ou égal à 2 ont été négligés. On pose alors 𝑥1 = 𝑥0 + 𝛿𝑥 et on recommencera le
processus en cherchant à corriger 𝑥1 d’une nouvelle quantité 𝛿𝑥. D’où l’algorithme
suivant :

Algorithme de la méthode de Newton


1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations) et 𝑥0
𝑓(𝑥 )
2. On effectue 𝑥𝑛+1 = 𝑥𝑛 − 𝑓′ (𝑥𝑛 )
𝑛
|𝑥𝑛+1 −𝑥𝑛 |
3. |𝑥𝑛+1 |
<𝜀
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑛+1
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

Remarque
L’algorithme de la méthode de Newton est un cas particulier de la MPF où 𝑔(𝑥) = 𝑥 −
𝑓(𝑥)
𝑓 ′ (𝑥)

A. RTIBI 24
1. Interprétation géométrique
𝑓(𝑥)
La droite tangente à la courbe en (𝑥0 , 𝑓(𝑥0 )) admet pour
pente 𝑓 ′ (𝑥0 ) et son équation est 𝑦 = 𝑓(𝑥0 ) + 𝑓 ′ (𝑥0 )(𝑥 −
𝑥0 ) ; elle correspond donc à un développement de Taylor
à l’ordre 1 autour de 𝑥0 et coupe l’axe 𝑂𝑥 en 𝑥1 (valeur de
𝑓(𝑥 ) 𝑥𝑖+1 𝑥𝑖
𝑥 qui annule 𝑦) , 𝑥1 = 𝑥0 − 𝑓′ (𝑥0 )
0

Ainsi, 𝑥1 devient la nouvelle valeur estimée de la solution. On procèdera de manière


analogue avec le point (𝑥1 , 𝑓(𝑥1 )) de la courbe et ainsi de suite jusqu’à l’atteinte de la
convergence.

2. Analyse de la convergence

Puisque la méthode de Newton est un cas particulier de la méthode des points fixes avec
𝑓(𝑥)
(𝑥) = 𝑥 − 𝑓′ (𝑥) , la convergence dépend donc de 𝑔′ (𝑟).

Evaluons la dérivée de g :

′ (𝑥)
𝑓(𝑥)𝑓 ′′ (𝑥)
𝑔 = 2
(𝑓 ′ (𝑥))

De plus, 𝑔′ (𝑟) = 0 puisque 𝑓(𝑟) = 0 et la convergence est au moins quadratique.

Remarque
Dans le cas où 𝑓 ′ (𝑟) est également nul, 𝑔′ (𝑟) pourrait être différent de zéro. Pour
s’assurer de la convergence quadratique (en général) de la méthode de Newton, il suffit
de calculer 𝑔′′ (𝑟).
2 2
′′ (𝑥)
(𝑓 ′ (𝑥)) [𝑓 ′ (𝑥)𝑓 ′′ (𝑥) + 𝑓(𝑥)𝑓 ′′′ (𝑥)] − 2𝑓(𝑥)𝑓 ′ (𝑥)(𝑓 ′′ (𝑥))
𝑔 = 4
(𝑓 ′ (𝑥))

En tenant compte du fait que 𝑓(𝑟) = 0, on obtient :

′′ (𝑟)
𝑓 ′′ (𝑟)
𝑔 = ′
𝑓 (𝑟)

Ce rapport n’a, à priori, aucune raison d’être nul en général.

Calculons l’erreur à l’itération 𝑛 + 1 :


𝑔′′ (𝑟) 2 𝑓 ′′ (𝑟) 2
𝑒𝑛+1 = 𝑒𝑛 = ′ 𝑒
2 2𝑓 (𝑟) 𝑛

qui montre bien que la convergence est au moins quadratique si 𝑓 ′ (𝑟) ≠ 0.

Remarque
Un mauvais choix de la valeur de 𝑥0 peut provoquer la divergence de la méthode de
Newton.

A. RTIBI 25
3. Cas des racines multiples

Lorsque la convergence est lente, la raison est souvent due à la multiplicité d’une
solution.

Définition
Une racine 𝑟 de 𝑓(𝑥) est dite de multiplicité m si la fonction 𝑓(𝑥) peut s’écrire sous la
forme :

𝑓(𝑥) = (𝑥 − 𝑟)𝑚 ℎ(𝑥) 𝑎𝑣𝑒𝑐 ℎ(𝑥) ≠ 0

Théorème

Une racine 𝑟 est de multiplicité 𝑚, 𝑚 ∈ ℕ∗ si et seulement si :

𝑓 ′ (𝑟) = 𝑓 ′ (𝑟) = 𝑓 ′ (𝑟) = ⋯ . = 𝑓 𝑚−1 (𝑟) = 0 𝑒𝑡 𝑓 𝑚 (𝑟) ≠ 0

Démonstration

Il suffit d’effectuer un développement de 𝑓(𝑥) autour de 𝑟.


Que se passe-t-il si on applique la méthode de Newton dans le cas d’une fonction 𝑓
admettant une racine multiple ?
𝑓(𝑥)𝑓′′ (𝑥)
Pour cela calculons : 𝑔′ (𝑥) = 2
(𝑓 ′ (𝑥))

De plus, en présence d’une racine de multiplicité m, on a : 𝑓(𝑥) = (𝑥 − 𝑟)𝑚 ℎ(𝑥)

𝑓 ′ (𝑥) = 𝑚(𝑥 − 𝑟)𝑚−1 ℎ(𝑥) + (𝑥 − 𝑟)𝑚 ℎ′ (𝑥)

𝑓 ′′ (𝑥) = 𝑚(𝑚 − 1)(𝑥 − 𝑟)𝑚−2 ℎ(𝑥) + 2𝑚(𝑥 − 𝑟)𝑚−1 ℎ′ (𝑥) + (𝑥 − 𝑟)𝑚 ℎ′′ (𝑥)

ℎ(𝑥)[𝑚(𝑚 − 1)ℎ(𝑥) + 2𝑚(𝑥 − 𝑟)ℎ′ (𝑥) + (𝑥 − 𝑟)2 ℎ′′ (𝑥)]


𝑔′ (𝑥) = 2
(𝑚ℎ(𝑥) + (𝑥 − 𝑟)ℎ′ (𝑥))

ℎ(𝑟)[𝑚(𝑚 − 1)ℎ(𝑟)]
𝑔′ (𝑟) = 2
(𝑚ℎ(𝑟))

Interprétation

• Si 𝑚 = 1(cas d’une racine simple) alors 𝑔′ (𝑟) = 0, i.e. la convergence est


quadratique
1
• Si 𝑚 ≠ 1, la convergence est linéaire avec un taux de convergence égal à 1 − 𝑚.
• Plus 𝑚 est grand, plus la convergence est lente (𝑔′ (𝑟) s’approche de plus en plus
de 1 qui représente un cas indéterminé).

Dans le cas d’une solution multiple, il existe un moyen pour récupérer la convergence
quadratique. Il suffit de transformer le problème posé en un problème équivalent
admettant les mêmes racines mais dont la multiplicité est égale à 1.

A. RTIBI 26
𝑓(𝑥)
𝑢(𝑥) =
𝑓 ′ (𝑥)

La fonction 𝑢(𝑥) peut s’écrire également sous la forme:


(𝑥 − 𝑟)𝑚 ℎ(𝑥) (𝑥 − 𝑟)ℎ(𝑥)
𝑢(𝑥) = 𝑚−1
=
𝑚(𝑥 − 𝑟) ℎ(𝑥) + (𝑥 − 𝑟) ℎ (𝑥) 𝑚ℎ(𝑥) + (𝑥 − 𝑟)ℎ′ (𝑥)
𝑚 ′

Les fonctions 𝑓(𝑥) et 𝑢(𝑥) admettent les mêmes racines mais r est une racine simple
1
pour 𝑢(𝑥). Comme ℎ(𝑟) ≠ 0 on a 𝑢(𝑟) = 0 et 𝑢′ (𝑟) = 𝑚.

Ainsi, l’algorithme de Newton, appliqué à la fonction 𝑢(𝑥), conduit à la relation :


𝑢(𝑥𝑛 ) 𝑓(𝑥𝑛 )𝑓 ′ (𝑥𝑛 )
𝑥𝑛+1 = 𝑥𝑛 − = 𝑥𝑛+1 = 𝑥𝑛 − 2
𝑢′ (𝑥𝑛 ) (𝑓 ′ (𝑥𝑛 )) − 𝑓(𝑥𝑛 )𝑓 ′′ (𝑥𝑛 )

dont l’utilisation requiert la connaissance de 𝑓(𝑥), 𝑓 ′ (𝑥) et 𝑓 ′′ (𝑥)

Remarque
La convergence quadratique de la méthode de Newton, exige de connaître à l’avance la
multiplicité m de la racine recherchée ce qui n’est pas évident en pratique.

IV. Méthode de la sécante


Lorsque la dérivée 𝑓 ′ (𝑥) est difficile à évaluer ou lorsqu’elle conduit à une expression
complexe, on peut contourner la difficulté en remplaçant le calcul de la pente 𝑓 ′ (𝑥𝑛 ) de
la droite tangente à la courbe par l’expression :
𝑓(𝑥𝑛 ) − 𝑓(𝑥𝑛−1 )
𝑓 ′ (𝑥𝑛 ) ≈
𝑥𝑛 − 𝑥𝑛−1

Interprétation géométrique de la méthode de la sécante (voir figure au tableau). La


droite sécante passant par les points (𝑥𝑛 , 𝑓(𝑥𝑛 ) ) et (𝑥𝑛−1 , 𝑓(𝑥𝑛−1 ) ) est utilisée au lieu
de la droite tangente passant par (𝑥𝑛 , 𝑓(𝑥𝑛 ) ).

Algorithme de la méthode de la sécante

1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations), 𝑥0 et 𝑥1 .


𝑓(𝑥 )(𝑥𝑛 −𝑥𝑛−1 )
2. On effectue 𝑥𝑛+1 = 𝑥𝑛 − 𝑓(𝑥𝑛 )−𝑓(𝑥 )
𝑛 𝑛−1
|𝑥𝑛+1 −𝑥𝑛 |
3. |𝑥𝑛+1 |
<𝜀
a. oui⇒ Convergence atteinte
Écriture de la solution 𝑥𝑛+1
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

A. RTIBI 27
Remarque

• La dérivée de 𝑓(𝑥) n’apparaît plus dans l’algorithme.


• Deux valeurs initiales sont indispensables pour cette méthode (algorithme à deux
pas).
• La convergence est plus que linéaire et moins que quadratique. On montre que
|𝑒𝑛+1 | ≈ 𝑐|𝑒𝑛 |1.618

V. Méthode de la bissection ou Dichotomie

Cette méthode repose sur l’idée suivante :

Puisque 𝑓(𝑟) = 0 et si 𝑥1 , 𝑥2 sont tels que 𝑥1 < 𝑟 < 𝑥2 , alors 𝑓(1). 𝑓(𝑥2 ) < 0. Ceci signifie

que 𝑓(𝑥) change de signe dans l’intervalle [𝑥1 , 𝑥2 ]. On pose,


𝑥1 + 𝑥2
𝑥𝑚 =
2
Entre les intervalles [𝑥1 , 𝑥𝑚 ] et [𝑥𝑚 , 𝑥2 ] on choisit celui dans lequel la fonction 𝑓(𝑥)
change de signe ; la racine 𝑟 s’y trouve nécessairement. Si, par exemple, la fonction
change de signe dans l’intervalle [𝑥1 , 𝑥𝑚 ], on fait le changement 𝑥𝑚 = 𝑥2 , on considère le
nouveau intervalle [𝑥1 , 𝑥2 ] et on reprend le processus.

Algorithme de la méthode de la bissection

1. Données : 𝜀(critère d’arrêt), 𝑁 (nombre maximum d’itérations), [𝑥1 , 𝑥2 ] pour


lequel la fonction 𝑓(𝑥) change de signe.
𝑥 +𝑥
2. On effectue 𝑥𝑚 = 1 2 2
|𝑥1 −𝑥2 |
3. <𝜀
2|𝑥𝑚 |
a. oui⇒ Convergence atteinte
Écriture de la racine 𝑥𝑚
Écriture de 𝑓(𝑥𝑚 )
Arrêt du programme
b. Non⇒ Passage à l’étape 4.
4. Ecriture de 𝑥1 , 𝑥2 , 𝑥𝑚 , 𝑓(𝑥1 ), 𝑓(𝑥2 ), 𝑓(𝑥𝑚 )
5. Si 𝑓(𝑥1 ). 𝑓(𝑥𝑚 ) < 0 alors 𝑥2 = 𝑥𝑚
6. Si 𝑓(𝑥2 ). 𝑓(𝑥𝑚 ) < 0 alors 𝑥1 = 𝑥𝑚
7. 𝑁 est atteint ?
a. oui⇒ Convergence non atteinte en 𝑁 itérations
Arrêt du programme
b. Non⇒ Retour à l’étape 2.

Remarque

• La longueur de l’intervalle entourant la racine est divisée par deux à chaque


itération. Cette observation va permettre d’estimer à l’avance le nombre
d’itérations nécessaires pour obtenir une erreur absolue △ 𝑟 sur la racine 𝑟.
Soit 𝑥1 − 𝑥2 la longueur de l’intervalle de départ. Après 𝑛 itérations, cette longueur se
réduit à

A. RTIBI 28
𝑥1 − 𝑥2
2𝑛
𝑥 −𝑥
𝑥1 −𝑥2 ln ( 1 2 )
Le nombre n d’itérations nécessaires pour avoir <△ 𝑟 tel que 𝑛 > △𝑟
. En
2𝑛 ln (2)
pratique, on considère la plus petite valeur de n vérifiant cette condition.

• Si la fonction 𝑓(𝑥) s’annule et ne change pas de signe, la méthode de la bissection


ne s’applique pas.
• Si le nombre de racines est pair dans l’intervalle, il n’y a pas de changement de
signe de la fonction.
• Si l’intervalle contient un nombre impair de racines, l’algorithme peut rencontrer
des difficultés pour converger vers une des racines.

A. RTIBI 29
Travaux Pratiques (à rendre)

But

Trouver numériquement la solution d’une équation différentielle non linéaire par


une des techniques enseignées dans le cours.

Formulation

Soit la fonction 𝑓(𝑥) = 𝑒 −𝑥 − 𝑥 = 0.

• En transformant cette équation en un problème de points fixes défini par 𝑥 =


𝑒 −𝑥 = 𝑔(𝑥), chercher numériquement la racine de 𝑓(𝑥) en utilisant la
méthode des points fixes et l’algorithme de Steffenson. On démarre les calculs
à partir de 𝑥0 = 0.
• Conclure.
• Essayer d’autres valeurs de 𝑥0 .
• Trouver numériquement la racine de 𝑓 en utilisant les méthodes de la
bissection et de la sécante.

A. RTIBI 30
Systèmes d’équations algébriques

I. Introduction

Un système d’équations linéaires est un ensemble d’équations portant sur les mêmes
inconnues. En général, un système de n équations linéaires à n inconnues peut être écrit
sous la forme suivante :

𝑎11 𝑥1 𝑎12 𝑥2 … 𝑎1𝑛 𝑥𝑛 = 𝑏1


𝑎 𝑥 𝑎22 𝑥2 … 𝑎2𝑛 𝑥𝑛 = 𝑏2
{ 21 1
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑥1 𝑎𝑛2 𝑥2 … 𝑎𝑛𝑛 𝑥𝑛 = 𝑏𝑛

On peut utiliser la notation matricielle, qui est beaucoup plus pratique et surtout plus
compacte. On écrit alors le système sous la forme matricielle : 𝐴𝑥⃗ = 𝑏⃗⃗

Les méthodes de résolution des systèmes linéaires se groupent dans deux grandes
catégories :

• Les méthodes directes : une méthode est dite directe si elle permet d’obtenir la
solution exacte du système en un nombre fini d’opérations élémentaires
(×, +, −,÷).
• Les méthodes itératives : une méthode est dite itérative si elle permet de
construire une suite 𝑥𝑛 qui converge vers la solution 𝑥 du système.

Ce chapitre se limitera à la première catégorie.

II. Méthode de résolution pour les systèmes triangulaires inférieurs et


supérieurs

𝑎11 0 … 0 𝑎11 𝑎21 … 𝑎𝑛1


𝑎21 𝑎22 … 0 0 𝑎22 … 𝑎𝑛2
⋮ ⋮ ⋮ ⋮ ⋮ 0 ⋮ ⋮
⋮ ⋮ ⋮ 0 ⋮ ⋮ ⋮ ⋮
𝑎
( 𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 ) ( 0 0 … 𝑎𝑛𝑛 )

Matrice triangulaire inférieure Matrice triangulaire supérieure

Si une matrice A est triangulaire alors det(𝐴) = ∏𝑛𝑖=1 𝑎𝑖𝑖 . On en déduit que A est
inversible si et seulement si 𝑎𝑖𝑖 ≠ 0 𝑝𝑜𝑢 𝑡𝑜𝑢𝑡 𝑖 = 1, … , 𝑛

Dans ce cas la solution du système est :

𝑥1 = 𝑏1 ⁄𝑎11 𝑥𝑛 = 𝑏𝑛 ⁄𝑎𝑛𝑛
{ 𝑏𝑖 − ∑𝑖−1
𝑗=1 𝑎𝑖𝑗 𝑥𝑗 { 𝑏𝑖 − ∑𝑛𝑗=𝑖+1 𝑎𝑖𝑗 𝑥𝑗
𝑥𝑖 = 𝑥𝑖 =
𝑎𝑖𝑖 𝑎𝑖𝑖

Matrice triangulaire inférieure Matrice triangulaire supérieure

A. RTIBI 31
(résolution par descente) (résolution par remontée)

Remarque

Dans le cas d’une matrice diagonale 𝐷 = (𝑑𝑖𝑖 ), 𝑥𝑖 = 𝑏𝑖 ⁄𝑑𝑖𝑖

III. Méthode d’élimination de Gauss

Cette méthode consiste à utiliser des opérations élémentaires sur le système pour
rendre la matrice (𝑎𝑖𝑗 ) triangulaire supérieure.

𝑎11 𝑎12 … 𝑎12 𝑏1


𝑎21 𝑎22 … 𝑎2𝑛 𝑏2
On appelle matrice augmentée la matrice ⋮ ⋮ ⋮ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ ⋮
(𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 𝑏𝑛 )

Toute les opérations qui seront effectuer sur la ma matrice (𝑎𝑖𝑗 ) affecteront la matrice
unicolonne (𝑏𝑖 )

Exemple

2 1 2 𝑥1 10
(6 4 0) |𝑥2 = |26 𝐴𝑥⃗ = 𝑏⃗⃗
8 5 1 𝑥3 35
2 1 2 10
La matrice augmentée est : (6 4 0 26) = (𝐴, 𝑏⃗⃗)
8 5 1 35
𝑎11 = 2 ≠ 0, s’appelle premier pivot de l’élimination de Gauss. On effectue alors pour
toute ligne 𝐿𝑖 𝑝𝑜𝑢𝑟 𝑖 ≥ 2 :
𝑎𝑖1
𝐿𝑖 ⟵ 𝐿𝑖 − 𝐿
𝑎11 1

𝑚𝑖1 = 𝑎𝑖1 ⁄𝑎11 ∶ 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑒𝑢𝑟 , il sert pour éliminer l’inconnu 𝑥1 des lignes 𝑖 ≥ 2 en
leur retranchant 𝑚𝑖1 fois la première ligne. 𝑚21 = 3 et 𝑚31 = 4

2 1 2 10
On obtient : (0 1 −6 −4)
0 1 −7 −5
Le deuxième pivot est 1. On effectue la transformation :

1
𝐿3 ⟵ 𝐿3 − 𝐿2 𝑚32 = 1
1

A. RTIBI 32
2 1 2 10
(0 1 −6 −4) = (𝑈, 𝑏⃗⃗𝑚 )
0 0 −1 −1
𝑥1 = 3
La solution est donc : |𝑥2 = 2
𝑥3 = 1

Remarque

Si 𝑎11 = 0 on permute les lignes dans A de façon à avoir 𝑎11 ≠ 0

IV. Méthode de décomposition LU

Le principe de la méthode est de se ramener à deux systèmes triangulaires. On cherche à


décomposer la matrice 𝐴 en deux matrices 𝐿 (triangulaire inférieure) et 𝑈(triangulaire
supérieure) telles que le produit 𝐿𝑈 soit égal à 𝐴.

Si la matrice 𝐴 peut s’écrire sous la forme 𝐴 = 𝐿𝑈 , où 𝐿 et 𝑈 sont des matrices


triangulaires inférieure et supérieure respectivement, alors le système 𝐴𝑥 = 𝑏 peut se
décomposer en deux sous-systèmes 𝐿𝑦 = 𝑏 et 𝑈𝑥 = 𝑦.

Les matrices 𝐿 et 𝑈 étant triangulaires, la résolution de chacun de ces deux sous-


systèmes est immédiate :

𝐿𝑦⃗ = 𝑏⃗⃗ : on calcule 𝑦𝑖 (Algorithme de descente),𝑈𝑥⃗ = 𝑦⃗ : on calcule 𝑥𝑖 (Algorithme de


remontée).

Exemple :

La matrice de l’exemple précédent a nécessitée 3 transformations pour la triangulariser.

1 0 0 1 0 0 1 0 0
𝑇1 = (−3 1 0) 𝑇2 = ( 0 1 0) 𝑇3 = (0 1 0)
0 0 1 −4 0 1 0 −1 1
𝑈 = 𝑇3 𝑇2 𝑇1 𝐴 𝑒𝑡 𝐴 = 𝑇1−1 𝑇2−1 𝑇3−1 𝑈

1 0 0 1 0 0 1 0 0
𝑇1−1 = (3 1 0) 𝑇2−1 = (0 1 0) 𝑇3−1 = (0 1 0 )
0 0 1 4 0 1 0 1 1
1 0 0
𝑇1−1 𝑇2−1 𝑇3−1 = 𝐿 = (3 1 0)
4 1 1
1 0 0 2 1 2
𝐴 = (3 1 0 ) (0 1 −6) = 𝐿𝑈
4 1 1 0 0 −1
1. Décomposition de Crout

A. RTIBI 33
Cet exemple de décomposition consiste à prendre des valeurs unités sur la diagonale de
la matrice 𝑈. Raisonnons sur une matrice 4 × 4 comme exemple en supposant au
préalable que les pivots 𝑙𝑖𝑖 ≠ 0

𝑎11 𝑎12 𝑎13 𝑎14 𝑙11 0 0 0 1 𝑢12 𝑢13 𝑢14


𝑎21 𝑎22 𝑎23 𝑎24 𝑙21 𝑙22 0 0 0 1 𝑢23 𝑢24
𝐴 = (𝑎 𝑎32 𝑎33 𝑎34 ) = 𝐿𝑈 = (𝑙31 )( )
31 𝑙32 𝑙33 0 0 0 1 𝑢34
𝑎41 𝑎42 𝑎43 𝑎44 𝑙41 𝑙42 𝑙43 𝑙44 0 0 0 1

𝑙11 𝑢12 𝑢13 𝑢14


𝑙21 𝑙22 𝑢23 𝑢24
En notation compacte 𝐿𝑈 est représentée par : ( )=𝐿+𝑈−𝟙
𝑙31 𝑙32 𝑙33 𝑢34
𝑙41 𝑙42 𝑙43 𝑙44

Cherchons ces 16 composantes:

• Première colonne de 𝐿. On fait le produit de 𝐿 par la première colonne de 𝑈.

𝑙11 = 𝑎11 𝑙21 = 𝑎21 𝑙31 = 𝑎31 𝑙41 = 𝑎41

𝑙𝑖1 = 𝑎𝑖1 𝑖≥1

• Première ligne de U. On fait le produit de la première ligne de 𝐿 par 𝑈. (pour


𝑎11 ≠ 0)

𝑙11 𝑢12 = 𝑎12 𝑙11 𝑢13 = 𝑎13 𝑙11 𝑢14 = 𝑎14

𝑢1𝑖 = 𝑎1𝑖 ⁄𝑙11 𝑖>1

• jieme colonne de 𝐿. On fait le produit de 𝐿 par jieme colonne de 𝑈.


𝑗−1

𝑙𝑖𝑗 = 𝑎𝑖𝑗 − ∑ 𝑙𝑖𝑘 𝑢𝑘𝑗 𝐶𝑎𝑙𝑐𝑢𝑙 𝑑𝑒 𝑙𝑎 𝑗 𝑖è𝑚𝑒 𝑐𝑜𝑙𝑜𝑛𝑛𝑒 𝑑𝑒 𝐿


𝑘=1

𝑙22 = 𝑎22 − 𝑙21 𝑢12 𝑙32 = 𝑎32 − 𝑙31 𝑢12 𝑙42 = 𝑎42 − 𝑙41 𝑢12

𝑙33 = 𝑎33 − 𝑙31 𝑢13 − 𝑙32 𝑢23 𝑙43 = 𝑎43 − 𝑙41 𝑢13 − 𝑙42 𝑢23

𝑙44 = 𝑎44 − 𝑙41 𝑢14 − 𝑙42 𝑢24 − 𝑙43 𝑢34

• iieme ligne de 𝑈. On fait respectivement le produit de la iieme ligne de 𝐿 par 𝑈.

𝑎𝑖𝑗 − ∑𝑖−1
𝑘=1 𝑙𝑖𝑘 𝑢𝑘𝑗
𝑢𝑖𝑗 = 𝐶𝑎𝑙𝑐𝑢𝑙 𝑑𝑒 𝑙𝑎 𝑖 𝑖è𝑚𝑒 𝑙𝑖𝑔𝑛𝑒 𝑑𝑒 𝑈
𝑙𝑖𝑖

𝑢23 = (𝑎23 − 𝑙21 𝑢13 )⁄𝑙22 𝑢24 = (𝑎24 − 𝑙21 𝑢14 )⁄𝑙22

𝑢34 = (𝑎34 − 𝑙31 𝑢14 − 𝑙32 𝑢24 )⁄𝑙33

A. RTIBI 34
Résolution du système

Descente triangulaire pour résoudre 𝐿𝑦⃗ = 𝑏⃗⃗

𝑦1 = 𝑏1 ⁄𝑙11 𝑒𝑡 𝑦𝑖 = (𝑏𝑖 − ∑𝑖−1


𝑘=1 𝑙𝑖𝑘 𝑦𝑘 )⁄𝑙𝑖𝑖 𝑝𝑜𝑢𝑟 𝑖 ≥ 2

Remontée triangulaire pour résoudre 𝑈𝑥⃗ = 𝑦⃗

𝑥𝑛 = 𝑦𝑛 𝑒𝑡 𝑥𝑖 = 𝑦𝑖 − ∑𝑛𝑘=𝑖+1 𝑢𝑖𝑘 𝑥𝑘

Exemple

1 −1 2 𝑥1 5
(3 1 2) |𝑥2 = |11
1 2 1 𝑥3 8
Solution :

1 −1 2 1 0 0 1 −1 2
(3 1 2) = (3 4 0) (0 1 −1)
1 2 1 1 3 2 0 0 1
𝑥1 1
𝑥
| 2 = |2
𝑥3 3
1. Décomposition 𝑳𝑼 avec permutation de lignes

Quand un pivot 𝑙𝑖𝑖 = 0 on fait une permutation de ligne pour retrouver un pivot non nul
et cette permutation doit affecter aussi la matrice colonne 𝑏⃗⃗ . Pour mémoriser toutes les
1
2
permutations on associe un vecteur permutation 𝑝⃗ = | au système.

3

Exemple

0 2 1 𝑥1 −1 1
(1 0 0) |𝑥2 = | 2 𝑝⃗ = |2
3 0 1 𝑥3 7 3
0 2 1 1
(1 0 0 ) 𝑝⃗ = |2
3 0 1 3
𝟎 2 1
• 1re colonne de 𝐿 : (𝟏 0 0)
𝟑 0 1
On effectue une permutation 𝐿1 ⟵ 𝐿3 , ligne ayant le plus grand pivot.

A. RTIBI 35
3 0 1 3
(1 0 0 ) 𝑝⃗ = |2
0 2 1 1
𝟑 𝟎 𝟏⁄𝟑 3
• 1re ligne de 𝑈 : (𝟏 0 0 ) 𝑝⃗ = |2
𝟎 2 1 1
• 2iéme colonne de 𝐿 : 𝑙22 = 𝑎22 − 𝑙21 𝑢12 = 0 − 1 × 0 = 0 et 𝑙32 = 2 − 0 × 0 = 2

𝟑 𝟎 𝟏⁄𝟑 3
(𝟏 0 0 ) 𝑝⃗ = |2
𝟎 2 1 1

Encore un pivot nul

3
𝐿2 ⟵ 𝐿3 ⇒ 𝑝⃗ = |1
2
𝟑 𝟎 𝟏⁄𝟑 3
(𝟎 2 1 ) 𝑝⃗ = |1
𝟏 0 0 2

• Calcul de 𝑢23 : 𝑢23 = (𝑎23 − 𝑙21 𝑢13 )⁄𝑙22 = 1⁄2

La matrice compacte devient

𝟑 𝟎 𝟏⁄𝟑 3
(𝟎 2 𝟏⁄𝟐) 𝑝⃗ = |1
𝟏 0 0 2

• Calcul de 𝑙33 : 𝑙33 = −1⁄3

La décomposition 𝐿𝑈 est :

𝟑 𝟎 𝟏⁄𝟑 3
(𝟎 𝟐 𝟏⁄𝟐 ) 𝑝⃗ = |1
𝟏 𝟎 −𝟏⁄𝟑 2

𝟑 𝟎 𝟎 𝟏 𝟎 𝟏⁄𝟑 𝟑 𝟎 𝟏
Et le produit 𝐿𝑈 = (𝟎 𝟐 𝟎 ) (𝟎 𝟏 𝟏⁄𝟐 ) = ( 𝟎 𝟐 𝟏)
𝟏 𝟎 −𝟏⁄𝟑 𝟎 𝟎 𝟏 𝟏 𝟎 𝟎

On obtient la matrice initiale permutée suivant 𝑝⃗

7
⃗𝑏⃗𝑝 = |−1
2

𝐿𝑦⃗ = 𝑏⃗⃗𝑝 ⟹ 𝑦1 = 7⁄3 𝑦2 = −1⁄2 𝑦3 = 1

𝑈𝑥⃗ = 𝑦⃗ ⟹ 𝑥1 = 2 𝑥2 = −1 𝑥3 = 1

A. RTIBI 36
V. Système d’équation non linéaire
1. But
• Définir deux méthodes itératives permettant de résoudre un système d’équations
non linéaires.
• Elaborer un programme numérique sur la base de deux méthodes.
• Comparer la performance de ces deux méthodes.

2. Formulation du problème

𝑓1 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
𝑓2 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0
{ ( 1)

𝑓𝑛 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 0

Où 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 sont des inconnus réels

Soit 𝑋⃗ 0 = (𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0 )𝑡 suffisamment voisin de la solution exacte 𝑋⃗ 𝑒 =


(𝑥1𝑒 , 𝑥2𝑒 , ⋯ , 𝑥𝑛𝑒 )𝑡 . On procède par un développement de Taylor :
𝑛 𝑛 𝑛
0 𝜕𝑓𝑖 ⃗ 0 1 𝜕 2 𝑓𝑖
⃗ 𝑒 ⃗ 0 𝑒
𝑓𝑖 (𝑋 ) = 𝑓𝑖 (𝑋 ) + ∑(𝑥𝑗 − 𝑥𝑗 ) 𝑒 0 𝑒 0
(𝑋 ) + ∑ ∑(𝑥𝑗 − 𝑥𝑗 )(𝑥𝑘 − 𝑥𝑘 ) (𝑋⃗ 0 )
𝜕𝑥𝑗 2! 𝜕𝑥𝑗 𝜕𝑥𝑘
𝑗=1 𝑗=1 𝑘=1
+⋯ ( 2)

En négligeant les termes supérieurs à 1,


𝑛
𝜕𝑓𝑖 0
𝑓𝑖 (𝑋⃗ 𝑒 ) ≈ 𝑓𝑖 (𝑋⃗ 0 ) + ∑(𝑥𝑗𝑒 − 𝑥𝑗0 ) (𝑋⃗ ) ( 3)
𝜕𝑥𝑗
𝑗=1

Qu’on peut mettre sous la forme d’un système :

𝜕𝑓10 0 𝜕𝑓10 0 𝜕𝑓10 0


∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓10
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
𝜕𝑓20 0 𝜕𝑓20 0 𝜕𝑓20 0
∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓20 (4)
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 0
∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓𝑛0
{ 𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛

𝜕𝑓 0 𝜕𝑓
Avec : 𝜕𝑥𝑖 = 𝜕𝑥 𝑖 (𝑋⃗ 0 ), 𝑓10 = 𝑓𝑖 (𝑋⃗ 0 ) et ∆𝑥𝑖0 = (𝑥𝑖1 − 𝑥𝑖0 )
𝑗 𝑗

L’écriture compacte de ce système est :

𝐽⃗0 ∆
⃗⃗0 = −𝐹⃗ 0 (5)
A. RTIBI 37
𝜕𝑓10 𝜕𝑓10 𝜕𝑓10

𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛
𝜕𝑓20 𝜕𝑓20 𝜕𝑓20

𝐽⃗0 = 𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛 (6)
⋮ 0 ⋮ ⋮
⋮ ⋮ ⋮ ⋮
𝜕𝑓𝑛0 𝜕𝑓𝑛0 𝜕𝑓𝑛0

( 𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛 )

𝑥11 − 𝑥10 𝑓10 𝑓1 (𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0 )


1 0 0 (𝑥 0 0 0)
⃗⃗0 = 𝑋⃗1 − 𝑋⃗ 0 = |𝑥2 − 𝑥2
∆ (7) 𝐹⃗ 0 = |𝑓2 = |𝑓2 1 , 𝑥2 , ⋯ , 𝑥𝑛 (8)
⋮ ⋮ ⋮
𝑥𝑛1 − 𝑥𝑛0 𝑓𝑛0 𝑓𝑛 (𝑥10 , 𝑥20 , ⋯ , 𝑥𝑛0 )

3. Methode de Newton

En faisant une estimation 𝑋⃗ 0 on obtient 𝐽⃗0 𝑒𝑡 𝐹⃗ 0 à partir des équations (6) et (8)
respectivement. La résolution de (5) donne ∆ ⃗⃗0 et la nouvelle estimation est déduite de
l’égalité 𝑋⃗1 = 𝑋⃗ 0 + ∆
⃗⃗0 .

Si 𝑋⃗ 0 est suffisamment voisin de 𝑋⃗ 𝑒 alors 𝑋⃗1 serait une meilleure approximation que 𝑋⃗ 0 .

Le processus itératif peut s’écrire sous la forme contractée suivante :

𝐽⃗𝑘 ∆
⃗⃗𝑘 = −𝐹⃗ 𝑘 (9)

𝑋⃗ 𝑘+1 = 𝑋⃗ 𝑘 + ∆
⃗⃗𝑘 (10)

Si les éléments de 𝐽⃗ sont continus au voisinage de 𝑋⃗ 𝑖 et det ⃗⃗⃗⃗


(𝐽) ≠ 0 et si 𝑋⃗ 0 est voisin de
𝑋⃗ 𝑒 , la suite 𝑋⃗ 𝑘 est convergente et on a lim 𝑋⃗ 𝑘 = 𝑋⃗ 𝑒 .
𝑘→∞

Remarque

Les risques de divergences sont fréquents, il est indispensable de prévoir l’arrêt du


processus itératif après un nombre d’itérations 𝑘𝑚𝑎𝑥 fixé à l’avance.

4. Méthode de Picard

On reprend l’écriture du système (4).

𝜕𝑓10 0 𝜕𝑓10 0 𝜕𝑓10 0


∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓10
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
𝜕𝑓20 0 𝜕𝑓20 0 𝜕𝑓20 0
∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓20 (11)
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 0
∆𝑥 + ∆𝑥 +⋯ + ∆𝑥 = −𝑓𝑛0
{ 𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑛 𝑛

A. RTIBI 38
Lorsque la jacobienne est diagonalement dominante, il est avantageux de la rendre
tridiagonale en basculant vers le membre de droite tous les termes qui ne font pas parti
de la tridiagonale avec leurs coefficients. Ainsi on aura :
𝑛
𝜕𝑓10 0 𝜕𝑓10 0 𝜕𝑓10 𝑖𝑛𝑖𝑡
∆𝑥 + ∆𝑥 . . = −𝑓10 −∑ ∆𝑥
𝜕𝑥1 1 𝜕𝑥2 2 𝜕𝑥𝑗 𝑗
𝑗=3
𝑛
𝜕𝑓20 𝜕𝑓20 𝜕𝑓30 𝜕𝑓20 𝑖𝑛𝑖𝑡
∆𝑥10 + ∆𝑥20 + ∆𝑥30 . = −𝑓20 −∑ ∆𝑥
𝜕𝑥1 𝜕𝑥2 𝜕𝑥3 𝜕𝑥𝑗 𝑗 (12)
𝑗=4
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
0 𝑛−2
𝜕𝑓𝑛−1 0
𝜕𝑓𝑛0 0 𝜕𝑓𝑛0 𝑖𝑛𝑖𝑡
. . + ∆𝑥𝑛−1 + ∆𝑥 = −𝑓𝑛0 − ∑ ∆𝑥
𝜕𝑥𝑛−1 𝜕𝑥𝑛 𝑛 𝜕𝑥𝑗 𝑗
{ 𝑗=1

Pour démarrer on prendre tous les ∆𝑥𝑗𝑖𝑛𝑖𝑡 = 0.

La résolution de (12) donne 𝑋⃗1 comme nouvelle approximation à de laquelle le


processus est ensuite itéré : 𝑋⃗1 = 𝑋⃗ 0 + ∆
⃗⃗0 , 𝑋⃗ 2 = 𝑋⃗1 + ∆
⃗⃗1 , ⋯

5. Critère d’arrêt des itérations

Exemple de quelques critères d’arrêt

• Critère d’erreur absolue : ∑𝑛𝑖=1|𝑥𝑖𝑘+1 − 𝑥𝑖𝑘 | ≤ 𝜀𝑎 ou 𝑚𝑎𝑥|𝑥𝑖𝑘+1 − 𝑥𝑖𝑘 | ≤ 𝜀𝑎


𝑖 = 1,2, … , 𝑛
|𝑥𝑖𝑘+1 −𝑥𝑖𝑘 |
• Critère d’erreur relative : 𝑚𝑎𝑥 ≤ 𝜀𝑟 𝑖 = 1,2, … , 𝑛
|𝑥𝑖𝑘+1 |

Remarque

Il est à noter qu’une fois satisfait, ces critères ne signifient pas toujours que le vecteur 𝑋⃗ 𝑘
est une bonne approximation du vecteur 𝑋⃗ 𝑒 et ne fournit aucune précision sur
l’estimation.

A. RTIBI 39
Travaux Pratiques

On considère le système non linéaire définie par :

𝑓1 (𝑥1 , 𝑥2 , 𝑥3 ) = 𝑥15 + 𝑥23 𝑥34 + 1 = 0


{ 𝑓2 (𝑥1 , 𝑥2 , 𝑥3 ) = 𝑥12 𝑥2 𝑥3 = 0
𝑓𝑛 (𝑥1 , 𝑥2 , 𝑥3 ) = 𝑥34 − 1 = 0

• Chercher la solution analytique de ce système.


• Développer en code numérique adéquat en utilisant les méthodes de Newton et
Picard pour le résoudre.
• Comparer les performances de ces méthodes
• Conclure.

A. RTIBI 40
Equations différentielles

I. Introduction

On considère la forme générale d’une équation différentielle du premier ordre avec


condition initiale. On cherchera une fonction 𝑦(𝑡) solution de l’équation :

𝑦 ′ (𝑡) = 𝑓(𝑡, 𝑦(𝑡)) 𝑦(𝑡0 ) = 𝑦0 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛 𝑖𝑛𝑖𝑡𝑖𝑎𝑙𝑒

Ici t est la variable indépendante et 𝑦(𝑡) est la variable dépendante et f est une fonction
quelconque de deux variables supposée suffisamment différentiable. Le but de l’étude
est d’obtenir numériquement une approximation de 𝑦(𝑡) pour tout 𝑡 ≥ 𝑡0 .

Définition

Une méthode numérique est dite à un pas si elle est de la forme :

𝑦𝑛+1 = 𝑦𝑛 + ℎ𝜙(𝑡𝑛 , 𝑦𝑛 )

𝜙 désigne une fonction quelconque.

La méthode est dite à un pas si, pour obtenir la solution à 𝑡 = 𝑡𝑛+1, on doit utiliser la
solution numérique au temps 𝑡𝑛 seulement. Les méthodes à pas multiples sont des
méthodes qui exigent également la connaissance de la solution numérique aux temps
𝑡𝑛−1 , 𝑡𝑛−2,….

II. Méthode de Runge-Kutta

Ces méthodes permettent d’obtenir des ordres de précision élevés tout en évitant les
inconvénients d’autres méthodes (comme la méthode de Taylor par exemple) qui
nécessitent l’évaluation des dérivées partielles de la fonction 𝑓(𝑡, 𝑦).

1. Méthode de Runge-Kutta d’ordre 2

On procède à des développements en séries de Taylor :

ℎ2 ′′
𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 + ℎ) = 𝑦(𝑡𝑛 ) + ℎ𝑦 ′ (𝑡𝑛 ) + 𝑦 (𝑦(𝑡𝑛 )) + 𝑂(ℎ3 )
2
ℎ2
𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 + ℎ) = 𝑦(𝑡𝑛 ) + ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑓′(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑂(ℎ3 )
2

𝜕𝑓(𝑡, 𝑦(𝑡)) 𝜕𝑓(𝑡, 𝑦(𝑡))


𝑂𝑟 𝑓′(𝑡, 𝑦(𝑡)) = + 𝑓(𝑡, 𝑦(𝑡))
𝜕𝑡 𝜕𝑦

ℎ2 𝜕𝑓(𝑡, 𝑦(𝑡)) 𝜕𝑓(𝑡, 𝑦(𝑡))


𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 ) + ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + [ + 𝑓(𝑡, 𝑦(𝑡))] + 𝑂(ℎ3 )
2 𝜕𝑡 𝜕𝑦

A. RTIBI 41
Le but consiste à remplacer l’équation précédente par une expression équivalente
possédant le même ordre de précision 𝑂(ℎ3 ).

On propose la forme suivante :

𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 ) + 𝑎1 ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑎2 ℎ𝑓(𝑡𝑛 + 𝑎3 ℎ, 𝑦(𝑡𝑛 ) + 𝑎4 ℎ)

Les paramètres 𝑎𝑖 sont des inconnus à déterminer de telle sorte que les expressions
précédentes aient toutes deux une erreur en 𝑂(ℎ3 ). L’expression (4) est avantageuse par
le fait qu’elle ne présente aucune dérivation.

Des développements en séries de Taylor en deux variables autour du point (𝑡𝑛 , 𝑦(𝑡𝑛 ))
conduisent aux égalités :

𝜕𝑓(𝑡, 𝑦(𝑡)) 𝜕𝑓(𝑡, 𝑦(𝑡))


𝑓(𝑡𝑛 + 𝑎3 ℎ, 𝑦(𝑡𝑛 ) + 𝑎4 ℎ) = 𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑎3 ℎ + 𝑎4 ℎ + 𝑂(ℎ2 )
𝜕𝑡 𝜕𝑦

𝜕𝑓(𝑡, 𝑦(𝑡)) 𝜕𝑓(𝑡, 𝑦(𝑡))


𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 ) + (𝑎1 + 𝑎2 ) ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑎2 𝑎3 ℎ2 + 𝑎2 𝑎 4 ℎ 2
𝜕𝑡 𝜕𝑦
+ 𝑂(ℎ3 )

Par identification des deux développements puisqu’ils ont le même ordre de grandeur
on détermine les 𝑎𝑖 .

ℎ = (𝑎1 + 𝑎2 ) ℎ 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒 𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 ))


2
|ℎ 𝜕𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 ))
= 𝑎2 𝑎3 ℎ 2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒
2 𝜕𝑡
|ℎ2 𝜕𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 ))
𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) = 𝑎2 𝑎4 ℎ2 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑟𝑒𝑠𝑝𝑒𝑐𝑡𝑖𝑓𝑠 𝑑𝑒
2 𝜕𝑦
𝑎1 + 𝑎2 = 1
1
| 𝑎2 𝑎3 =
⇒ 2
|
𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 ))
𝑎2 𝑎4 =
2
On obtient ainsi un système non linéaire de 3 équations à 4 inconnus, la solution n’est
pas unique. Cette multiplicité des solutions conduit à plusieurs variantes de Runge-
Kutta. La variante la plus fréquemment utilisée est la méthode d’Euler modifiée qui
consiste à prendre 𝑎2 = 𝑎1 = 1⁄2, 𝑎3 = 1 et 𝑎4 = 𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )).

A. RTIBI 42
Enfin
𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 ) + 𝑎1 ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑎2 ℎ𝑓(𝑡𝑛 + 𝑎3 ℎ, 𝑦(𝑡𝑛 ) + 𝑎4 ℎ)
ℎ ℎ
= 𝑦(𝑡𝑛 ) + 𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑓 (𝑡𝑛 + ℎ, 𝑦(𝑡𝑛 ) + ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )))
2 2

= 𝑦(𝑡𝑛 ) + [𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑓 (𝑡𝑛 + ℎ, 𝑦(𝑡𝑛 ) + ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )))]
2
[𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )) + 𝑓 (𝑡𝑛 + ℎ, 𝑦(𝑡𝑛 ) + ℎ𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 )))]
= 𝑦(𝑡𝑛 ) + ℎ
2
= 𝑦𝑛 + ℎ𝜙(𝑡𝑛 , 𝑦𝑛 )

Algorithme de la méthode d’Euler modifiée :

i. Données : un pas de temps ℎ, une condition initiale (𝑡0 , 𝑦0 ) et un nombre


maximum d’itérations, 𝑁.
ii. Pour 0 ≤ 𝑛 ≤ 𝑁 ⇒ 𝑦 ∗ = 𝑦𝑛 + ℎ𝑓(𝑡𝑛 , 𝑦𝑛 )

⇒ 𝑦𝑛+1 = 𝑦𝑛 + [𝑓(𝑡𝑛 , 𝑦𝑛 ) + 𝑓(𝑡𝑛+1 , 𝑦 ∗ )]
2
⇒ 𝑡𝑛+1 = 𝑡𝑛 + ℎ
iii. Arrêt du programme

Remarque

• L’évaluation de 𝑦𝑛+1 a été scindée en deux étapes pour faciliter les calculs avec 𝑦 ∗
apparaissant comme une variable temporaire et correspond à une itération de la
méthode d’Euler 𝑦𝑛+1 = 𝑦𝑛 + ℎ𝑓(𝑡𝑛 , 𝑦𝑛 ). En fait, 𝑦 ∗ est une prédiction de la
solution en 𝑡𝑛+1 , corrigée et améliorée à la deuxième étape de l’algorithme : c’est
une méthode de prédiction correction.
• Il existe d’autres variantes de Runge-Kutta d’ordre deux comme la méthode du
point milieu qui correspond à 𝑎1 = 0, 𝑎2 = 1, 𝑎3 = 1⁄2 et 𝑎4 = 𝑓(𝑡𝑛 , 𝑦(𝑡𝑛 ))⁄2

2. Méthode de Runge-Kutta d’ordre 4

En reprenant le développement de Taylor de la fonction f jusqu’à l’ordre 5 et en suivant


un raisonnement similaire à celui qui a conduit aux méthodes de Runge-Kutta d’ordre 2,
on aboutit à un système de 8 équations non linéaires à 10 inconnus. Le résultat final est
la méthode de Runge-Kutta d’ordre 4.

Alogorithme de la méthode de Runge-Kutta d’ordre 4

i. Données : un pas de temps ℎ, une condition initiale (𝑡0 , 𝑦0 ) et un nombre


maximum d’itérations, 𝑁.
ii. Pour 0 ≤ 𝑛 ≤ 𝑁 ⇒ 𝑘1 = 𝑓(𝑡𝑛 , 𝑦𝑛 )
ℎ 𝑘1
𝑘2 = 𝑓 (𝑡𝑛 + , 𝑦𝑛 + )
2 2

A. RTIBI 43
ℎ 𝑘2
𝑘3 = 𝑓 (𝑡𝑛 + , 𝑦𝑛 + )
2 2
𝑘4 = 𝑓(𝑡𝑛 + ℎ, 𝑦𝑛 + 𝑘3 )

⇒ 𝑦𝑛+1 = 𝑦𝑛 + [𝑘1 + 2𝑘2 + 2𝑘3 + 𝑘4 ]
6
⇒ 𝑡𝑛+1 = 𝑡𝑛 + ℎ
iii. Arrêt du programme

Remarque

• La méthode de Runge-Kutta d’ordre 4 nécessite à peu près 4 fois plus de temps


de calcul que la méthode d’Euler qui est d’ordre 1 et 2 fois plus de temps de calcul
que la méthode d’Euler modifiée qui est d’ordre 2.
• - La précision ne peut pas être rattrapée par simple division du pas.

III. Méthode à pas multiples

𝑦 ′ (𝑡) = 𝑓(𝑡, 𝑦(𝑡)) 𝑦(𝑡0 ) = 𝑦0 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛 𝑖𝑛𝑖𝑡𝑖𝑎𝑙𝑒

Pour obtenir 𝑦𝑛+1 on procède par intégrer cet équation dans l’intervalle [𝑡𝑛 , 𝑡𝑛+1 ]
𝑡𝑛+1 𝑡𝑛+1 𝑡𝑛+1
′ (𝑡)
∫ 𝑦 𝑑𝑡 = ∫ 𝑓(𝑡, 𝑦(𝑡)) 𝑑𝑡 ⇒ 𝑦(𝑡𝑛+1 ) = 𝑦(𝑡𝑛 ) + ∫ 𝑓(𝑡, 𝑦(𝑡)) 𝑑𝑡
𝑡𝑛 𝑡𝑛 𝑡𝑛

𝑡𝑛+1
𝑦𝑛+1 = 𝑦𝑛 + ∫ 𝑓(𝑡, 𝑦(𝑡)) 𝑑𝑡 𝑒𝑛 é𝑐𝑟𝑖𝑡𝑢𝑟𝑒 𝑎𝑙𝑔𝑜𝑟𝑖𝑡ℎ𝑚𝑒
𝑡𝑛

𝑡𝑛+1
∫𝑡𝑛 𝑓(𝑡, 𝑦(𝑡)) 𝑑𝑡 peut être calculer en utilisant une interpolation polynomiale de
Newton pour 𝑓(𝑡, 𝑦(𝑡)) sur ses valeurs calculées aux itérations précédentes.

𝑝𝑚 (𝑡) = 𝑓(𝑡𝑛 ) + 𝑓[𝑡𝑛 , 𝑡𝑛−1 ](𝑡 − 𝑡𝑛 ) + 𝑓[𝑡𝑛 , 𝑡𝑛−1 , 𝑡𝑛−2 ](𝑡 − 𝑡𝑛 )(𝑡 − 𝑡𝑛−1 ) + ⋯

On obtient ainsi différentes formules par augmentation du degré du polynôme


d’interpolation. Ces formules sont appelées formules d’Adams-Bashforth :

• 𝑦𝑛+1 = 𝑦𝑛 + ℎ𝑓𝑛 𝑜𝑟𝑑𝑟𝑒 1 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝0 (𝑡)



• 𝑦𝑛+1 = 𝑦𝑛 + 2 [3𝑓𝑛 − 𝑓𝑛−1 ] 𝑜𝑟𝑑𝑟𝑒 2 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝1 (𝑡)

• 𝑦𝑛+1 = 𝑦𝑛 + 12 [23𝑓𝑛 − 16𝑓𝑛−1 + 5𝑓𝑛−2 ]
𝑜𝑟𝑑𝑟𝑒 3 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝2 (𝑡)

• 𝑦𝑛+1 = 𝑦𝑛 + 24 [55𝑓𝑛 − 59𝑓𝑛−1 + 37𝑓𝑛−2 − 9𝑓𝑛−3 ]
𝑜𝑟𝑑𝑟𝑒 4 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝3 (𝑡)
• Etc…

C’est donc une méthode à (n + 1) pas si le polynôme d’interpolation est de degré n.

A. RTIBI 44
Au lieu de prendre comme polynôme d’approximation de 𝑓(𝑡, 𝑦(𝑡)) le polynôme
précédent 𝑝𝑚 (𝑡) on peut prendre
∗ (𝑡)
𝑝𝑚 = 𝑓(𝑡𝑛+1 ) + 𝑓[𝑡𝑛+1 , 𝑡𝑛 ](𝑡 − 𝑡𝑛+1 ) + 𝑓[𝑡𝑛+1 , 𝑡𝑛 , 𝑡𝑛−1 ](𝑡 − 𝑡𝑛+1 )(𝑡 − 𝑡𝑛 ) + ⋯

On obtient ainsi différentes formules par augmentation du degré du polynôme


d’interpolation. Ces formules sont appelées formules d’Adams-Moulton :

• 𝑦𝑛+1 = 𝑦𝑛 + ℎ𝑓𝑛+1 𝑜𝑟𝑑𝑟𝑒 1 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝0∗ (𝑡)



• 𝑦𝑛+1 = 𝑦𝑛 + 2 [𝑓𝑛+1 + 𝑓𝑛 ] 𝑜𝑟𝑑𝑟𝑒 2 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝1∗ (𝑡)

• 𝑦𝑛+1 = 𝑦𝑛 + 12 [5𝑓𝑛+1 − 8𝑓𝑛 − 𝑓𝑛−1 ]
𝑜𝑟𝑑𝑟𝑒 3 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝2∗ (𝑡)

• 𝑦𝑛+1 = 𝑦𝑛 + 24 [9𝑓𝑛+1 + 19𝑓𝑛 − 5𝑓𝑛−2 + 𝑓𝑛−2 ]
𝑜𝑟𝑑𝑟𝑒 4 𝑒𝑛 𝑢𝑡𝑖𝑙𝑖𝑠𝑎𝑛𝑡 𝑢𝑛 𝑝𝑜𝑙𝑦𝑛𝑜𝑚𝑒 𝑝3∗ (𝑡)
• Etc…

Les formules d’Adams-Moulton sont dites implicites dans le sens où l’évaluation de


𝑦𝑛+1 dépend de 𝑦𝑛+1 lui même. Cette difficulté est contournée en combinant les formules
d’Adams-Bashforth et d’Adams-Moulton en schémas dits prédicteur-correcteur.

Ainsi, on utilise les formules d’Adams-Bashforth pour obtenir une première


𝑝
approximation 𝑦𝑛+1 de 𝑦𝑛+1 au cours d’une étape dite de prédiction. Ensuite, on utilise
les formules d’Adams-Moulton pour corriger et, éventuellement, améliorer cette
approximation.
𝑝 𝑝
𝑓𝑛+1 ≈ 𝑓𝑛+1 = 𝑓(𝑡𝑛+1 , 𝑦𝑛+1 )

D’où les schémas de prédiction correction :


𝑝
• 𝑦𝑛+1 = 𝑦𝑛 + ℎ𝑓𝑛
𝑝
𝑦𝑛+1 = 𝑦𝑛 + ℎ𝑓𝑛+1 𝑜𝑟𝑑𝑟𝑒 1
𝑝 ℎ
• 𝑦𝑛+1 = 𝑦𝑛 + 2 [3𝑓𝑛 − 𝑓𝑛−1 ]
ℎ 𝑝
𝑦𝑛+1 = 𝑦𝑛 + [𝑓𝑛+1 + 𝑓𝑛 ] 𝑜𝑟𝑑𝑟𝑒 2
2
𝑝 ℎ
• 𝑦𝑛+1 = 𝑦𝑛 + [23 𝑓𝑛 − 16𝑓𝑛−1 + 5𝑓𝑛−2 ]
12
ℎ 𝑝
𝑦𝑛+1 = 𝑦𝑛 + [5 𝑓𝑛+1 + 8𝑓𝑛 − 𝑓𝑛−1 ] 𝑜𝑟𝑑𝑟𝑒 3
12
𝑝 ℎ
• 𝑦𝑛+1 = 𝑦𝑛 + 24 [55𝑓𝑛 − 59𝑓𝑛−1 + 37𝑓𝑛−2 − 9𝑓𝑛−3 ]

𝑦𝑛+1 = 𝑦𝑛 + [9𝑓 𝑝 + 19𝑓𝑛 − 5𝑓𝑛−1 + 𝑓𝑛−2 ] 𝑜𝑟𝑑𝑟𝑒 4
24 𝑛+1
Remarque

A. RTIBI 45
• Les méthodes de prédiction-correction ne sont pas auto-démarrables ; leur
démarrage nécessite l’utilisation d’une méthode à un pas ( Runge-Kutta par
exemple).
• Pour un schéma d’ordre 3 par exemple, 𝑛 doit être ≥ 2. La condition initiale 𝑦0
étant connue, les valeurs de 𝑦1 et 𝑦2 doivent être calculées par une méthode à un
pas.

IV. Méthode de tir

Pour utiliser la méthode de Runge-Kutta ou celle de prédicteur-correcteur, il faut que le


problème soit à valeurs initiales. Lorsqu’il s’agit d’un problème à valeurs aux frontières,
il faut le transformer en un problème correspondant à valeurs initiales.

Exemple

Considérons l’équation différentielle suivante :

3 2
𝑦 ′′ (𝑡) = 𝑦 𝑎𝑣𝑒𝑐 𝑐𝑜𝑛𝑑𝑖𝑡𝑖𝑜𝑛𝑠 𝑎𝑢𝑥 𝑓𝑟𝑜𝑛𝑡𝑖è𝑟𝑒𝑠 𝑦(0) = 4, 𝑦(1) = 1
2
Le problème est à valeurs aux frontières, il lui correspond le problème à valeurs initiales
(𝐶𝐼) suivant :

𝑦′ = 𝑓 𝑎𝑣𝑒𝑐 𝐶𝐼 𝑦(0) = 4
{ ′ 3 2
𝑓 = 𝑦 𝑎𝑣𝑒𝑐 𝐶𝐼 𝑓(0) = 𝛼
2
La valeur de 𝛼 n’est pas connue ; elle doit être telle que la condition 𝑦(1) = 1 soit
vérifiée moyennant une certaine précision fixée à l’avance. La méthode de tir permet de
résoudre les équations du dernier système de manière itérative.

La méthode du tir est basée sur l’estimation de la pente en 𝑡 = 0et comprend les étapes
suivantes :

i. On estime deux valeurs de la pente en 𝑡 = 0 : 𝑦1′ (0) = 𝑓1 (0) = 𝛼1 et 𝑦2′ (0) =


𝑓2 (0) = 𝛼2 .
ii. On intègre les deux équations du système par une méthode numérique (Runge-
Kutta ou prédicteur-correcteur) de 𝑡 = 0 à 𝑡 = 1 .
iii. On s’assure que les valeurs 𝑦1 (1) = 𝛽1 et 𝑦2 (1) = 𝛽2 correspondant
respectivement à 𝛼1 et 𝛼2 encadrent 𝑦(1) = 1
iv. On améliore itérativement la valeur de la pente par une interpolation linéaire :
𝛽𝑖 − 𝛽
𝛼𝑖+1 = 𝛼𝑖 − (𝛼𝑖 − 𝛼𝑖−1 ) 𝑖 = 3,4, …
𝛽𝑖 − 𝛽𝑖−1
Où 𝛽𝑖 est la valeur de 𝑦(1) correspondant à 𝛼𝑖 .

A. RTIBI 46
Résolution d'une équation différentielle du second ordre par une méthode aux
différences finies

I. But

Il s'agit de résoudre numériquement une équation différentielle linéaire du second ordre


à l'aide d'une méthode aux différences finies en utilisant un schéma précis d'ordre deux
et un schéma compact (schéma d'ordre 4).

II. Formulation

On considère une équation différentielle de la forme:

𝑦 ′′ (𝑥) + 𝑝(𝑥)𝑦 ′ (𝑥) + 𝑞(𝑥)𝑦(𝑥) = 𝑟(𝑥)

Pour 𝑥𝜖[𝑎, 𝑏] et (𝑥), 𝑞(𝑥), 𝑟(𝑥) sont des fonctions connues de la variable 𝑥.

Conditions aux limites:

𝑦(𝑎) = 𝑐1 𝑦′(𝑎) = 𝑐1′


{ 𝑡𝑦𝑝𝑒 𝐷𝑖𝑟𝑒𝑐ℎ𝑙𝑒𝑡 { 𝑡𝑦𝑝𝑒 𝑁𝑒𝑤𝑚𝑎𝑛𝑛
𝑦(𝑏) = 𝑐2 𝑦′(𝑏) = 𝑐2′

𝑦′(𝑎) = 𝑐1′ 𝑦(𝑎) = 𝑐1


{ 𝑜𝑢 { 𝑡𝑦𝑝𝑒 𝑚𝑖𝑥𝑡𝑒𝑠
𝑦(𝑏) = 𝑐2 𝑦′(𝑏) = 𝑐2′

1. -Schéma aux différences finies précis d'ordre 2

La méthode des différences finies est basée sur des développements en séries de Taylor.
Le problème différentiel est remplacé par un problème algébrique discret et la solution
est alors recherchée en un certain nombre de nœuds. On procède ainsi à la division de
l'intervalle [𝑎, 𝑏] en 𝑛 nœuds ou (𝑛 − 1) sous intervalles. Cette subdivision peut être
régulière (espacement entre les nœuds constant) ou irrégulière (espacement entre les
nœuds variable). Dans le cas d'une division régulière, on aura:

𝑏−𝑎
𝑥𝑖 = 𝑎 + (𝑖 − 1) 𝑖 = 1,2, … , 𝑛
(𝑛 − 1)

La solution sera 𝑦1 , 𝑦2 , … , 𝑦𝑛 , c'est-à-dire une série de valeurs associées aux nœuds


𝑥1 , 𝑥2 , … , 𝑥𝑛 .

Procédons à des développements en série de Taylor autour de 𝑥𝑖 , on obtient:

Δ𝑥 2
𝑦(𝑥𝑖 ± Δ𝑥) = 𝑦𝑖+1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ + O(Δ𝑥 3 ) Δ𝑥 = 𝑥𝑖+1 − 𝑥𝑖
2!
𝑦𝑖+1 − 𝑦𝑖−1 𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1
𝑦𝑖′ = + O(Δ𝑥 2 ) 𝑦𝑖′′ = + O(Δ𝑥 2 )
2Δ𝑥 Δ𝑥 2

A. RTIBI 47
Par substitution dans l’équation différentielle conduit, en chaque nœud 𝑖, à l'équation
algébrique suivante:

𝑦𝑖−1 [2 − Δ𝑥 𝑝(𝑥𝑖 )] + 𝑦𝑖 [−4 + 2Δ𝑥 2 𝑞(𝑥𝑖 )] + 𝑦𝑖+1 [2 + Δ𝑥 𝑝(𝑥𝑖 )] = 2Δ𝑥 2 𝑟(𝑥𝑖 )

Sous forme condensée :

𝑎𝑖 𝑦𝑖−1 + 𝑏𝑖 𝑦𝑖 + 𝑐𝑖 𝑦𝑖+1 = 𝑑𝑖

On obtient ainsi un système de (𝑛 − 2) équations à n inconnus 𝑦𝑖 , 𝑖 = 1,2, … , 𝑛 Pour


compléter la formulation, il faut spécifier les conditions aux bords de l'intervalle.

𝑦(𝑎) = 𝑦1
• Pour des conditions aux frontière de type Direchlet : { ,
𝑦(𝑏) = 𝑦𝑛
La matrice sera sous la forme :

𝑏2 𝑐2 0 . . 0
𝑦2 𝑑2 − 𝑎2 𝑦1
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . . | ⋮ =|
| ⋮
. . . . . . |
𝑦𝑛−2 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−1 𝑑𝑛−1 − 𝑐𝑛−1 𝑦𝑛
(0 . 0 0 𝑎𝑛−1 𝑏𝑛−1 )

C'est une matrice tridiagonale qui fait appel à un sous programme de quelques
lignes pour donner les 𝑦𝑖 , 𝑖 = 2, … , 𝑛 − 1
𝑦′(𝑎) = 𝐴
• Pour des conditions aux frontière de type Newmann : { ,
𝑦′(𝑏) = 𝐵
Développement de Taylor au voisinage de 𝑦1 et 𝑦𝑛 toujours à l’ordre 2 donne :
′ ′′
Δ𝑥 2
𝑦(𝑥𝑖 ± Δ𝑥) = 𝑦𝑖+1 = 𝑦𝑖 ± 𝑦𝑖 Δ𝑥 + 𝑦𝑖 + O(Δ𝑥 3 )
2!
4𝑦2 − 𝑦3 − 2Δ𝑥𝐴 4𝑦𝑛−1 − 𝑦𝑛−2 + 2Δ𝑥𝐴
𝑦1 = + O(Δ𝑥 2 ) 𝑦𝑛 = + O(Δ𝑥 2 )
3 3
4𝑎2 𝑦2 𝑎2 𝑦3 2𝑎2 Δ𝑥𝐴
⇒ 𝑎2 𝑦1 = − −
3 3 3
4𝑐𝑛−1 𝑦𝑛−1 𝑐𝑛−1 𝑦𝑛−2 2𝑐𝑛−1 Δ𝑥𝐵
𝑒𝑡 𝑐𝑛−1 𝑦𝑛 = − +
3 3 3
Après introduction des conditions aux limites, la matrice prend la forme suivante:
𝑏2′ 𝑐2′ 0 . . 0
𝑦2 𝑑2′
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . . | ⋮ =| ⋮
. . . . . . | |
𝑦 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−2 ′
′ ′ 𝑛−1 𝑑𝑛−1
(0 . 0 0 𝑎𝑛−1 𝑏𝑛−1 )
4 1 4
𝑏2′ = 𝑏2 + 𝑎2 𝑐2′ = 𝑐2 − 𝑎2 ′
𝑎𝑛−1 = 𝑎𝑛−1 + 𝑐𝑛−1
3 3 3

𝑐𝑛−1 2𝑎 2 Δ𝑥𝐴 2𝑐𝑛−1 Δ𝑥𝐵
𝑏𝑛−1 = 𝑏𝑛−1 − 𝑑2′ = 𝑑2 + ′
𝑑𝑛−1 = 𝑑𝑛−1 −
3 3 3

A. RTIBI 48
2. -Schéma compact

C'est un schéma qui permet d'améliorer la précision à l'ordre 4 ; il conduit à des


résultats plus précis que celui d’ordre 2 décrit précédemment.

Posons les approximations d’ordre 2 respectivement de la dérivée seconde et de la


dérivée première de 𝑦 en 𝑥𝑖 . :

𝑦𝑖+1 − 𝑦𝑖−1 𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1


𝛿𝑦𝑖 = 𝛿 2 𝑦𝑖 =
2Δ𝑥 Δ𝑥 2
Mathématiquement, en chaque nœud 𝑖, ∃! (𝛼𝑖 , 𝛽𝑖 )𝜖ℝ2 tel que :

𝑦𝑖′′ = 𝛼𝑖 𝛿 2 𝑦𝑖 𝑒𝑡 𝑦𝑖′ = 𝛽𝑖 𝛿𝑦𝑖

Les valeurs de 𝑦𝑖′′ et 𝑦𝑖′ sont calculées par des approximations d'ordre supérieur à 2
(ordre 4 par exemple).

Δ𝑥 2 Δ𝑥 3 Δ𝑥 4
𝑦𝑖±1 = 𝑦𝑖 ± 𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ ′′′
± 𝑦𝑖 ′′′′
+ 𝑦𝑖 + O(Δ𝑥 5 )
2! 3! 4!
4Δ𝑥 2 8Δ𝑥 3 16Δ𝑥 4
𝑦𝑖±2 = 𝑦𝑖 ± 2𝑦𝑖′ Δ𝑥 + 𝑦𝑖′′ ± 𝑦𝑖′′′ + 𝑦𝑖′′′′ + O(Δ𝑥 5 )
2! 3! 4!
Par élimination des dérivées d'ordres non désirés, on obtient:

8𝑦𝑖+1 − 8𝑦𝑖−1 − 𝑦𝑖+2 + 𝑦𝑖−2


𝑦𝑖′ = + O(Δ𝑥 4 ) ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
12Δ𝑥
16𝑦𝑖+1 − 16𝑦𝑖−1 − 30𝑦𝑖 − 𝑦𝑖+2 − 𝑦𝑖−2
𝑦𝑖′′ = + O(Δ𝑥 4 ) ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
12Δ𝑥 2
Les expressions approchées de 𝛼𝑖 , 𝛽𝑖 sont :

16𝑦𝑖+1 − 16𝑦𝑖−1 − 30𝑦𝑖 − 𝑦𝑖+2 − 𝑦𝑖−2


𝛼𝑖 ≈ ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
12(𝑦𝑖+1 − 2𝑦𝑖 + 𝑦𝑖−1 )

8𝑦𝑖+1 − 8𝑦𝑖−1 − 𝑦𝑖+2 + 𝑦𝑖−2


𝛽𝑖 ≈ ( 3 ≤ 𝑖 ≤ 𝑛 − 2)
6(𝑦𝑖+1 − 𝑦𝑖−1 )

Pour les nœuds 2 𝑒𝑡 (𝑛 − 1) on cherchera d'autres approximations pour garder le même


ordre de précision (ordre 4). On procèdera à des développements en séries de Taylor:

Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′


𝑦6 = 𝑦2 + 4Δ𝑥𝑦2′ + 16 𝑦2 + 64 𝑦2 + 256 𝑦2 + 1024 𝑦 + O(Δ𝑥 6 )
2! 3! 4! 5! 2
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦5 = 𝑦2 + 3Δ𝑥𝑦2′ +9 𝑦2 + 27 𝑦2 + 81 𝑦2 + 243 𝑦2 + O(Δ𝑥 6 )
2! 3! 4! 5!
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦4 = 𝑦2 + 2Δ𝑥𝑦2′ +4 𝑦 +8 𝑦 + 16 𝑦 + 32 𝑦 + O(Δ𝑥 6 )
2! 2 3! 2 4! 2 5! 2

A. RTIBI 49
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦3 = 𝑦2 + Δ𝑥𝑦2′ + 𝑦 + 𝑦 + 𝑦 + 𝑦 + O(Δ𝑥 6 )
2! 2 3! 2 4! 2 5! 2
Δ𝑥 2 ′′ Δ𝑥 3 ′′′ Δ𝑥 4 ′′′′ Δ𝑥 5 ′′′′′
𝑦1 = 𝑦2 − Δ𝑥𝑦2′ + 𝑦 − 𝑦 + 𝑦 − 𝑦 + O(Δ𝑥 6 )
2! 2 3! 2 4! 2 5! 2
On cherchera une combinaison de la forme 𝑎𝑦6 + 𝑏𝑦5 + 𝑐𝑦4 + 𝑑𝑦3 + 𝑒𝑦1 de façon à
éliminer les dérivées de y d'ordres 1, 3, 4 et 5. On obtient:

1024𝑎 + 243𝑏 + 32𝑐 + 𝑑 – 𝑒 = 0 (pour éliminer 𝑦2′′′′′

256𝑎 + 81𝑏 + 16𝑐 + 𝑑 + 𝑒 = 0 (pour éliminer 𝑦2′′′′

64𝑎 + 27𝑏 + 8𝑐 + 𝑑 – 𝑒 = 0 (pour éliminer 𝑦2′′′

4𝑎 + 3𝑏 + 2𝑐 + 𝑑 – 𝑒 = 0 (pour éliminer 𝑦2′

On obtient ainsi un système de 4 équations à 5 inconnus. On prendra a = 1 ce qui conduit


à:

𝑏 = −6 𝑐 = 14 𝑑 = −4 𝑒 = 10

On déduit ainsi les approximations d'ordre 4 pour 𝑦2′′ , 𝑦𝑛−1


′′
comme suit:

1
𝑦2′′ = (𝑦 − 6𝑦5 + 14𝑦4 − 4𝑦3 − 15𝑦2 + 10𝑦1 ) + O(Δ𝑥 4 )
12Δ𝑥 2 6

′′
1
𝑦𝑛−1 = (𝑦 − 6𝑦𝑛−4 + 14𝑦𝑛−3 − 4𝑦𝑛−2 − 15𝑦𝑛−1 + 10𝑦𝑛 ) + O(Δ𝑥 4 )
12Δ𝑥 2 𝑛−5
D'où:

𝑦6 − 6𝑦5 + 14𝑦4 − 4𝑦3 − 15𝑦2 + 10𝑦1


𝛼2 ≈
12(𝑦3 − 2𝑦2 + 𝑦1 )

𝑦𝑛−5 − 6𝑦𝑛−4 + 14𝑦𝑛−3 − 4𝑦𝑛−2 − 15𝑦𝑛−1 + 10𝑦𝑛


𝛼𝑛−1 ≈
12(𝑦𝑛 +𝑦𝑛−2 −2𝑦𝑛−1 )

Une démarche similaire conduit à:

𝑦5 − 6𝑦4 + 18𝑦3 − 10𝑦2 − 3𝑦1


𝛽2 ≈
6(𝑦3 − 𝑦1 )

−𝑦𝑛−4 + 6𝑦𝑛−3 − 18𝑦𝑛−2 + 10𝑦𝑛−1 + 3𝑦𝑛


𝛽𝑛−1 ≈
6(𝑦𝑛 −𝑦𝑛−2 )

On retourne à l'équation différentielle du départ et, on obtient, pour chaque nœud 𝑖, une
équation de la forme:

𝑦𝑖+1 +𝑦𝑖−1 −2𝑦𝑖 𝑦𝑖+1 −𝑦𝑖−1


𝛼𝑖 = 2
+ 𝑝(𝑥𝑖 )𝛽𝑖 + 𝑞(𝑥𝑖 )𝑦𝑖 = 𝑟(𝑥𝑖 ) ( 2 ≤ 𝑖 ≤ 𝑛 − 1)
Δ𝑥 2Δ𝑥

A. RTIBI 50
Sous forme condensée, on peut écrire:

𝑎𝑖 𝑦𝑖−1 + 𝑏𝑖 𝑦𝑖 + 𝑐𝑖 𝑦𝑖+1 = 𝑑𝑖 ( 2 ≤ 𝑖 ≤ 𝑛 − 1)

Avec : 𝑎𝑖 = 2𝛼𝑖 − Δ𝑥𝛽𝑖 𝑝(𝑥𝑖 ) 𝑐𝑖 = 2𝛼𝑖 + Δ𝑥𝛽𝑖 𝑝(𝑥𝑖 )

𝑏𝑖 = −4𝛼𝑖 + 2Δ𝑥 2 𝑞(𝑥𝑖 ) 𝑑𝑖 = 2Δ𝑥 2 𝑟(𝑥𝑖 )

𝑦(𝑎) = 𝑦1
Si par exemple les conditions aux limites sont de type Dirichlet: {
𝑦(𝑏) = 𝑦𝑛

On se ramène encore une fois à la résolution d'un système de (𝑛 − 2) équations à autant


d'inconnus qu'on peut arranger sous la forme:

𝑏2 𝑐2 0 . . 0
𝑦2 𝑑2 − 𝑎2 𝑦1
𝑎3 𝑏3 𝑐3 0 . .
𝑦3 𝑑3
0 . . . . . | ⋮ =|
| ⋮
. . . . . . |
𝑦𝑛−2 𝑑𝑛−2
. . . 𝑎𝑛−2 𝑏𝑛−2 𝑐𝑛−2 𝑦𝑛−1 𝑑𝑛−1 − 𝑐𝑛−1 𝑦𝑛
(0 . 0 0 𝑎𝑛−1 𝑏𝑛−1 )

La matrice résultante est tridiagonale. Elle le restera également si les conditions aux
limites sont de type Newman ou mixtes. Dans ce cas, il faut prendre soin de procéder à
une correction des termes figurant dans la première ligne et la dernière ligne de la
matrice tridiagonale et du second membre.

Calcul des erreurs

|𝑦𝑑 (𝑖) − 𝑦𝑒 (𝑖)|


𝜀𝑑 (𝑖) = 𝑐𝑎𝑠 𝑠ℎé𝑚𝑎 𝑑 ′ 𝑜𝑟𝑑𝑟𝑒2
|𝑦𝑒 (𝑖)|

|𝑦𝑐 (𝑖) − 𝑦𝑒 (𝑖)|


𝜀𝑐 (𝑖) = 𝑐𝑎𝑠 𝑠ℎé𝑚𝑎 𝑐𝑜𝑚𝑝𝑎𝑐𝑡
|𝑦𝑒 (𝑖)|

Quelques indications utiles concernant le calcul numérique des 𝜶𝒊 et 𝜷𝒊

1. Comme le calcul des 𝛼𝑖 et des 𝛽𝑖 est régi par un processus itératif, on fixera à
l'avance le nombre maximum d'itérations (précaution utile dans les processus
itératifs).
2. On initialise les 𝛼𝑖 et les𝛽𝑖 à 1 (bonne estimation initiale) pour démarrer le
processus itératif ( 2 ≤ 𝑖 ≤ 𝑛 − 1)
3. On appelle le sous programme qui permet d'inverser la matrice tridiagonale ⇒
𝑦𝑖 ( 2 ≤ 𝑖 ≤ 𝑛 − 1).
4. On utilise les valeurs de 𝑦𝑖 obtenues en 3) pour évaluer les 𝛼𝑖 et les 𝛽𝑖 à l'aide des
expressions établies précédemment.
5. S'il s'agit d'une première évaluation de 𝛼𝑖 et 𝛽𝑖 on retourne à l'étape 3). Dans le
cas contraire, on compare les nouvelles et les anciennes valeurs de 𝑦𝑖 en calculant
le résidu:

A. RTIBI 51
𝑛−1 0.5
[𝑦𝑐𝑛𝑣 (𝑖) − 𝑦𝑐𝑎𝑛 (𝑖)]2
𝑅𝑒𝑠 𝑛𝑣 = [∑ ]
(𝑦𝑐𝑎𝑛 (𝑖))2
𝑖=2

• Si |𝑅𝑒𝑠 𝑛𝑣 − 𝑅𝑒𝑠 𝑎𝑛 | ≤ 10−5 ⇒ convergence atteinte.


• Si |𝑅𝑒𝑠 𝑛𝑣 − 𝑅𝑒𝑠 𝑎𝑛 | > 10−5 ⇒ on vérifie si le nombre d'itérations est inférieur au
nombre maximum d'itérations fixé :
* Oui alors retour à l'étape 3).
* Non alors on donne au programme l'instruction d'imprimer
les résultats de la dernière itération et d'arrêter.

A. RTIBI 52
Travaux Pratiques (à rendre)

But
Mettre en application le contenu du présent chapitre et comparer les précisions
de la méthode aux différences finies d'ordre 2 et du schéma compact.
Formulation
On considère l'équation différentielle suivante:
𝑦(0) = 1
𝑦 ′′ + 3𝑦 ′ + 2𝑦 = 2𝑥 + 3 𝑥 𝜖 [0, 1] 𝐶𝐿: { 1
𝑦(1) = 1 +
𝑒
L'équation différentielle proposée admet une solution analytique simple à
déterminer. La solution analytique sera considérée comme une référence pour
des fins de comparaison avec les solutions numériques.
• Déterminer la solution analytique de l'équation différentielle proposée
avec les conditions aux limites associées.
• Utiliser un échantillonnage régulier permettant la subdivision de
l'intervalle [0, 1] en (𝑛 − 1) sous intervalles identiques (n nœuds). On
prendra 𝑛 = 7, 15 𝑒𝑡 21.
• Elaborer un code numérique adéquat permettant de déterminer 𝑦𝑖 ( 1 ≤
𝑖 ≤ 𝑛) en utilisant un schéma aux différences finies précis au second ordre
et un schéma compact.
• Présenter les résultats sous la forme du tableau suivant:
Nombre de nœuds égal: 𝑛 =
𝑥 𝑦𝑒 𝑦𝑑 𝑦𝑐 𝜀𝑑 𝜀𝑐
0
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
1
• Représenter graphiquement, pour les deux méthodes numériques,
l'évolution de l'erreur relative en fonction de x pour les trois valeurs de n
proposés.
• Conclure.

A. RTIBI 53
Equations aux dérivées partielles

I. Introduction

Les simulations numériques sont utilisées dans un but de reproduire, par le calcul, le
comportement d'un système décrit par un modèle, très souvent constitué d'équations
aux dérivées partielles (traduction mathématique de lois scientifiques).

On peut retenir que le but d'une simulation numérique est de prédire par le calcul le
comportement d'un système décrit par un modèle mathématique.

II. Equation de la chaleur à une dimension

C'est une équation différentielle partielle du second ordre parabolique, à une dimension,
elle s'écrit:

𝜕𝑇 𝜕 2𝑇
=𝛼 2 𝛼 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝜕𝑡 𝜕𝑥
1. Exemples de méthodes explicites
a. Méthode FTCS (Forward Time-Central Space Method)

L'équation de la chaleur est discrétisée comme suit:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
Δ𝑡 Δ𝑥 2
On peut déduire directement:

𝛼Δ𝑡 𝑛 𝛼Δ𝑡
𝑇𝑖𝑛+1 = 𝑇𝑖𝑛 + 2
𝑛
(𝑇𝑖+1 + 𝑇𝑖−1 − 2𝑇𝑖𝑛 ) = 𝑇𝑖𝑛 (1 − 2𝑟) + 𝑟(𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1 ); =𝑟
Δ𝑥 Δ𝑥 2
qui est de l'ordre de (Δ𝑡, Δ𝑥 2 ).

Stabilité de ce schéma ?

Introduisons une perturbation infinitésimale au nœud 𝑖 à 𝑡 = 0, 𝑇𝑖0 = 𝜀, 𝑇𝑖+1


0 0
= 𝑇𝑖−1 =0
et suivons l'évolution de cette perturbation dans le temps, on obtient:

𝑇𝑖1 = 𝑇𝑖0 (1 − 2𝑟); 𝑇𝑖2 = 𝑇𝑖1 (1 − 2𝑟) = 𝜀(1 − 2𝑟)2 ; ⋯ ; 𝑇𝑖𝑛 = 𝜀(1 − 2𝑟)𝑛

Ainsi, la perturbation introduite va s'atténuer avec le temps si 0 ≤ 1 − 2𝑟 ≤


𝛼Δ𝑡 1
1 𝑐. à. 𝑑 ≤2
Δ𝑥 2

On pourra vérifier que le schéma est consistant.

b. Méthode de Richardson

C'est une méthode précise à l'ordre 2 dans le temps et dans l'espace.

A. RTIBI 54
𝑇𝑖𝑛+1 − 𝑇𝑖𝑛−1 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
2Δ𝑡 Δ𝑥 2
On déduit:

𝛼Δ𝑡 𝑛 𝛼Δ𝑡 𝑛
𝑇𝑖𝑛+1 = 𝑇𝑖𝑛−1 − 4 2
𝑇𝑖 + 2 2 (𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 ) = 𝑇𝑖𝑛−1 − 4𝑟𝑇𝑖𝑛 + 2𝑟(𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1 )
Δ𝑥 Δ𝑥

On introduit une perturbation initiale 𝑇𝑖0 = 𝜀, 𝑇𝑖1 = 0

𝑇𝑖2 = 𝜀; 𝑇𝑖3 = 𝑇𝑖1 − 4𝑟𝑇𝑖2 = 4𝑟𝜀; 𝑇𝑖4 = 𝜀(1 + 16𝑟 2 ); 𝑇𝑖5 = −𝜀(8𝑟 + 64𝑟 3 )

Donc le second membre va en augmentant et par conséquent, ce schéma d'ordre 2 dans


le temps et dans l'espace est inconditionnellement instable.

c. Schéma de Frankel-Dufort

C'est le schéma de Richardson modifié par introduction d'un terme de viscosité


numérique pour amortir les erreurs.

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛−1 𝛼 𝑛 𝑛 𝑇𝑖𝑛+1 + 𝑇𝑖𝑛−1


= 2 [𝑇𝑖+1 + 𝑇𝑖−1 − 2( )]
2Δ𝑡 Δ𝑥 2

On obtient:

1 − 2𝑟 𝑛−1 2𝑟
𝑇𝑖𝑛+1 = 𝑇𝑖 + 𝑛
(𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 )
1 + 2r 1 + 2r
C'est une méthode explicite qui a l'avantage d'être inconditionnellement stable mais
non auto démarrable. On peut la démarrer par exemple par la méthode FTCS.

Question : Vérifier la consistance et la stabilité de ce schéma.

2. Exemples de méthodes implicites

Un schéma est dit implicite lorsque l'équation aux différences finies contient plus d'une
inconnue. Les méthodes implicites offrent davantage de garantie concernant la stabilité
et la plupart d'entre elles sont inconditionnellement stables.

a. Schéma de Laasonen

La discrétisation fait apparaître plusieurs inconnues par équation:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛+1


𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1
=𝛼
2Δ𝑡 Δ𝑥 2
𝑛+1
𝑟𝑇𝑖+1 − (1 + 2𝑟)𝑇𝑖𝑛+1 + 𝑟𝑇𝑖−1
𝑛+1
= −𝑇𝑖𝑛

Stabilité du schéma ?

Perturbons comme suit: 𝑇𝑖0 = 𝜀

A. RTIBI 55
1 1
𝑇𝑖1 = 𝜀 ; ⋯ ; 𝑇𝑖𝑛 = 𝜀
1 + 2𝑟 (1 + 2𝑟)𝑛

b. Schéma de Crank Nicolson

C'est un schéma précis d'ordre deux dans le temps et dans l'espace.

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝛼 𝑇𝑖+1


𝑛+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1 𝑇𝑖+1
𝑛 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
= [ + ]
Δ𝑡 2 Δ𝑥 2 Δ𝑥 2
𝜕𝑇
Le terme de gauche est perçue comme étant une différence centrée de , en un point A
𝜕𝑡
Δ𝑡
situé à mi-chemin entre les niveaux de temps 𝑛 et 𝑛 + 1 et de pas égal à . Quant au
2
terme de droite du schéma de Crank Nicolson, il représente une moyenne du terme de
diffusion au même point A. La méthode de Crank –Nicolson peut être perçue comme
étant la somme de deux schémas: un explicite et l'autre implicite.

Schéma explicite:

𝑇𝑖𝑛+1 2 − 𝑇𝑖𝑛 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
=𝛼
Δ𝑡⁄2 Δ𝑥 2

Schéma implicite:
⁄2
𝑇𝑖𝑛+1 − 𝑇𝑖𝑛+1 𝑛+1
𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1
=𝛼
Δ𝑡⁄2 Δ𝑥 2

Cette méthode implicite est inconditionnellement stable. En effet, si on introduit une


perturbation 𝑇𝑖0 = 𝜀, celle-ci se propage comme suit:

1−𝑟 1−𝑟 2 1−𝑟 𝑛


𝑇𝑖1 = 𝜀 ; 𝑇𝑖2 =( ) 𝜀 ;⋯ ; 𝑇𝑖𝑛 =( ) 𝜀
1+𝑟 1+𝑟 1+𝑟
3. Formule bêta ou formulation implicite généralisée

C'est une forme générale de discrétisation:

𝑇𝑖𝑛+1 − 𝑇𝑖𝑛 𝑛+1


𝑇𝑖+1 𝑛+1
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛+1 𝑛
𝑇𝑖+1 𝑛
+ 𝑇𝑖−1 − 2𝑇𝑖𝑛
= 𝛼 [𝛽 + (1 − 𝛽) ]
Δ𝑡 Δ𝑥 2 Δ𝑥 2

Pour des valeurs particulières de 𝛽, la formulation bêta permet de retrouver les


schémas précédents. Ainsi:

𝛽 = 1 : on retrouve le schéma de Laasonen (méthode implicite)

𝛽 = 0 : on retrouve la méthode FTCS (méthode explicite).

𝛽 = 1⁄2 : on retrouve le schéma de Crank-Nicolson (méthode implicite).

A. RTIBI 56
Il est à noter que la formulation bêta est inconditionnellement stable pour 1⁄2 ≤ 𝛽 ≤ 1
et conditionnellement stable pour 0 ≤ 𝛽 ≤ 1⁄2.

III. Résolution de l’équation de la chaleur à 2-D par la méthode ADI

Le principe général de résolution de cette équation reste le même indépendamment du


système de coordonnées (sphériques, cylindriques ou cartésiennes). L’équation de la
chaleur bidimensionnelle et transitoire, dans un système de coordonnées cartésiennes,
s’écrit comme suit :

𝜕𝑇 𝜕 2𝑇 𝜕 2𝑇
= 𝛼 ( 2 + 2) 𝛼 𝑒𝑠𝑡 𝑢𝑛𝑒 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
𝜕𝑡 𝜕𝑋 𝜕𝑌

On va procéder à une adimensionnalisation de l’équation de la chaleur pour procurer un


caractère plus universel à la solution obtenue. L’examen de l’équation de la chaleur
montre qu’on a besoin d’introduire des facteurs d’échelle appropriés pour les
coordonnées spatiales (𝐷 : longueur ou largeur), la température 𝑇𝐶 − 𝑇𝐹 et le temps
𝑋 𝑌 𝑇−𝑇𝐹 𝑡
𝐷2 ⁄𝛼 . On aura (𝑥, 𝑦) = (𝐷 , 𝐷) , 𝜃 = 𝑇 et 𝜏 = 𝐷2⁄𝛼. L’équation de la chaleur, sous
𝐶 −𝑇𝐹
forme adimensionnelle, s’écrit :

𝜕𝜃 𝜕 2𝜃 𝜕 2𝜃
= 𝛼 ( 2 + 2)
𝜕𝜏 𝜕𝑥 𝜕𝑦

La méthode ADI, méthode implicite aux directions alternées, a été introduite par
Peaceman et Rochefort (1955) et elle a été extensivement utilisée depuis pour la
résolution de problèmes transitoires bidimensionnels car, en général, elle conduit à des
matrices tridiagonales dans les deux directions du balayage. De plus, le schéma de calcul
est très efficace car stable et consistant. La méthode ADI utilise deux équations aux
différences finies, l’une implicite par rapport à la première coordonnée et l’autre
implicite par rapport à la deuxième coordonnée. La solution pour chaque étape de temps
est obtenue en balayant le domaine horizontalement ou verticalement (ou l’inverse) en
utilisant, dans chaque balayage, une formulation implicite. On utilise des dérivations
centrées, précises à l’ordre 2, pour les dérivations en x et y. Les deux équations
discrétisées, pour faire avancer la solution de 𝜏 = 𝑛Δ𝜏 à 𝜏 + Δ𝜏 = (𝑛 + 1)Δ𝜏, sont les
suivantes :

Température implicite en x :
⁄2 ⁄2 ⁄2 ⁄2
𝜃𝑖𝑗𝑛+1 − 𝜃𝑖𝑗𝑛 𝑛+1
𝜃𝑖+1𝑗 − 2𝜃𝑖𝑗𝑛+1 𝑛+1
+ 𝜃𝑖−1𝑗 𝑛
𝜃𝑖𝑗+1 − 2𝜃𝑖𝑗𝑛 + 𝜃𝑖𝑗−1
𝑛
= +
Δ𝜏⁄2 Δ𝑥 2 Δ𝑦 2

Pour chaque nœud intérieur au domaine, on aura une équation de la forme :


𝑛+1 ⁄2 1 𝑛+1 ⁄2 𝑛+1 ⁄2
𝐴1𝑖𝑗 𝜃𝑖+1𝑗 + 𝐵𝑖𝑗 𝜃𝑖𝑗 + 𝐶𝑖𝑗1 𝜃𝑖−1𝑗 1
= 𝐷𝑖𝑗

A. RTIBI 57
Les coefficients connus 𝐴1𝑖𝑗 , 𝐵𝑖𝑗
1
, 𝐶𝑖𝑗1 𝑒𝑡 𝐷𝑖𝑗
1
peuvent être obtenus par identification avec
l’équation précédente. En tenant compte de l’ensemble des nœuds d’une ligne, on
obtient un système d’équations de la forme 𝐴𝑥̅ = 𝑏̅, où 𝐴 est une matrice tridiagonale.

Température implicite en y :
⁄2 ⁄2 ⁄2 ⁄2
𝜃𝑖𝑗𝑛+1 − 𝜃𝑖𝑗𝑛 𝑛+1
𝜃𝑖+1𝑗 − 2𝜃𝑖𝑗𝑛+1 𝑛+1
+ 𝜃𝑖−1𝑗 𝑛+1
𝜃𝑖𝑗+1 − 2𝜃𝑖𝑗𝑛+1 + 𝜃𝑖𝑗−1
𝑛+1
= +
Δ𝜏⁄2 Δ𝑥 2 Δ𝑦 2

De manière similaire, pour un nœud (i, j) donné, cet équation peut être écrite sous la
forme condensée suivante :
𝑛+1 2 𝑛+1 𝑛+1
𝐴2𝑖𝑗 𝜃𝑖𝑗−1 + 𝐵𝑖𝑗 𝜃𝑖𝑗 + 𝐶𝑖𝑗2 𝜃𝑖𝑗+1 = 𝐷𝑖𝑗2

En tenant compte de l’ensemble des colonnes et des conditions aux limites associées, on
obtient à nouveau un système linéaire de la forme 𝐴𝑥̅ = 𝑏̅ où A est une matrice
tridiagonale.

Pour introduire les conditions aux limites, on va prendre un exemple concret d’un
domaine rectangulaire de largeur L et de hauteur 𝐻(𝐻 = 2𝐿) initialement en équilibre à
la température 𝑇𝐹 . A l’instant 𝑡 = 0𝑠, on porte la température d’une paroi verticale à
𝑇𝐶 (𝑇𝐶 > 𝑇𝐹 ) et on maintient les parois horizontales adiabatiques. Le gradient de
température étant imposé dans la direction de la largeur, on prendra L comme étant une
longueur caractéristique. Ainsi, les conditions aux limites adimensionnlles associées au
problème sont telles que 𝜃 = 1 pour 𝑥 = 0 et 𝜃 = 0 pour 𝑥 = 1.
𝜕𝜃 𝜕𝜃
Sur les parois horizontales on aura : 𝜕𝑦| = 0 et 𝜕𝑦| =0
𝑦=0 𝑦=2

L’introduction des conditions aux frontières nécessite la correction de certains termes.


𝑛+1 ⁄2
Ainsi, pour un balayage implicite en 𝑥, on a 𝜃1𝑗 = 1 en 𝑥 = 0 ⇒ 𝐴12𝑗 doit être balancé
1
dans le second membre pour s’ajouter à 𝐷2𝑗 . Par contre, comme 𝜃 = 0 en 𝑥 = 1, le terme
1
𝐷𝑀−1𝑗 ne nécessite pas d’être corrigé (𝑀 étant le nombre de nœuds dans la direction
de la largeur, située sur la paroi froide).
𝜕𝜃 𝑛+1 𝑛+1 𝑛+1
Pour un balayage implicite en y, on a | = 0 ⇒ −3𝜃𝑖1 + 4𝜃𝑖2 −𝜃𝑖3 = 0 et
𝜕𝑦 𝑦=0
𝑛+1 𝑛+1
𝑛+1 4𝜃𝑖2 −𝜃𝑖3
𝜃𝑖1 = 3

Pour j = 2 :

2
4 𝑛+1 1 𝑛+1
(𝐵𝑖2 + 𝐴2𝑖2 ) 𝜃𝑖2 2
+ (𝐶𝑖2 − 𝐴2𝑖2 ) 𝜃𝑖3 2
= 𝐷𝑖2
3 3
𝑛+1 𝑛+1
𝜕𝜃 𝑛+1 𝑛+1 𝑛+1 𝑛+1 4𝜃𝑖𝑁−1 −𝜃𝑖𝑁−2
De même, 𝜕𝑦| = 0 ⇒ 3𝜃𝑖𝑁 − 4𝜃𝑖𝑁−1 +𝜃𝑖𝑁−2 = 0 et 𝜃𝑖𝑁 =
𝑦=2 3

A. RTIBI 58
Pour 𝑗 = 𝑁 − 1 :

2
4 2 𝑛+1 1 2 𝑛+1
(𝐵𝑖𝑁−1 + 𝐶𝑖𝑁−1 ) 𝜃𝑖𝑁−1 + (𝐴2𝑖𝑁−1 − 𝐶𝑖𝑁−1 ) 𝜃𝑖𝑁−2 2
= 𝐷𝑖𝑁−1
3 3
En définitive, une fois les conditions aux frontières sont prises en compte, la matrice
résultante est une matrice tridiagonale.

A. RTIBI 59

Vous aimerez peut-être aussi