Vous êtes sur la page 1sur 88

UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN‐ MOHAMED BOUDIAF  

FACULTE D’ARCHITECTURE ET DE GENIE CIVIL 
DEPARTEMENT DE GENIE CIVIL 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

COURS DE METHODES 
NUMERIQUES 
 
 
 
 

M. B. BENMANSOUR
Chapitre I : Rappels sur les systèmes d’équations
linéaires - Inversion de matrices

Plan
1. Position du problème

2. Méthode du pivot
2.1. Méthode de GAUSS-JORDAN
2.2. Méthode de GAUSS
2.3. Cas des matrices bandes

3. Méthodes itératives
3.1. Méthode de JACOBI
3.2. Méthode GAUSS-SEIDEL
3.3. Facteur de relaxation

4. Inversion de matrices

1. Position du problème

Considérons le système linéaire suivant de n équations à n inconnues :

Ce système s’écrit sous la forme :

2
si , et

i représente le numéro de ligne et j le numéro de colonne.


Une matrice est dite triangulaire si pour j>i ou pour i>j. Une matrice bande est une
matrice dont tous les éléments sont nuls sauf sur une bande autour de la diagonale principale.
Ces matrices se rencontrent dans la résolution d'équations aux dérivées partielles par la
méthode des différences finies ou dans la méthode des éléments finis.

La résolution du système précédent peut s’effectuer par deux méthodes :


- la méthode directe (dite méthode du pivot),
- la méthode itérative.

La méthode du pivot est commode pour les systèmes denses d’ordre supérieur, ainsi que pour
les matrices bandes même d’ordre élevé. La méthode itérative est mieux adaptée aux autres
matrices d’ordre élevé et comportant de nombreux éléments nuls.

2. Méthode du pivot

2.1. Méthode de GAUSS-JORDAN

2.1.1. Description de la méthode

C’est la méthode la plus utilisée. Pour la présenter, nous allons prendre l’exemple d’un
système de 4 équations à 4 inconnues :

La méthode classique de Cramer qui repose sur les déterminants, donne :

où est le déterminant de la matrice, et celui déduit de en y remplaçant la


ème
j colonne par la colonne second membre.
Pour résoudre le système, cette méthode nécessite n4 opérations si n est le rang de la matrice.
Dans la méthode du pivot, on choisit successivement chaque ligne comme ligne pivot ; le
pivot étant le 1er élément non nul de la ligne.

3
Ainsi, on divise la ligne n° 1 du système par :

On annule le 1er terme de chacun des autres lignes : à la 2ème ligne, on retranche la 1ère
multipliée par , à la 3ème ligne, on retranche la 1ère multipliée par , à la 4ème ligne, on
retranche la 1ère multipliée par .

Le système devient :

a- La 2ème ligne est considérée maintenant comme une ligne pivot, et comme un
élément pivot. On répète sur cette 2ème ligne les opérations précédentes, et on obtient après
division de cette ligne par :

On annule les autres termes de la seconde colonne ; c’est à dire : à la 1ère ligne, on retranche la
seconde multipliée par , à la 3ème ligne, on retranche la 2ème multipliée par , à la 4ème
ligne, on retranche la 2ème multipliée par .

On obtient :

a- On considère ensuite la 3ème ligne comme pivot, puis la 4ème ligne ; ce qui donne :

4
soit la solution du système :

D’une manière générale, si on applique cette procédure au système où A est une


matrice d’ordre n,

• on remarque qu’à l’issue de la 1ère étape, on obtient la matrice comportant des 0


et un 1 dans sa 1ère colonne,
• à l’issue de la 2ème étape, on a une matrice comportant des 0 et des 1 dans ses 2
premières colonnes, etc.
• à l’issue de la kième étape, on obtient un système de la forme :
avec et matrice colonne d’éléments

Pour les k premiers éléments diagonaux, on a : si


Pour les colonnes 1 à k éléments non diagonaux, on a : si et ; étant
les composantes du vecteur .
L’étape suivante consiste à prendre comme élément pivot.
On divise la (k+1) ième ligne par cet élément, ce qui donne pour j=k+1 à n :
et si

et
Pour chaque ligne , la ligne k+1 multipliée par est retranchée.

On obtient alors le système avec :

Résumé de la procédure :

1. Transformation de la matrice [A,y] en une matrice [I,y’] : et

Pour k variant de 0 à n-1, on a :

5
2. La solution xi du système résultant s’écrit alors : ; avec

Le nombre d’opérations nécessaires au passage de [A ,y](k) à [A, y](k+1) est :


n. additions (= n.a) = n. multiplications (= n.m) = (n-1).(n-k+1)
n. divisions (= n.d) = (n-k+1)
Le passage de [A ,y] à [A, y](n) nécessite environ opérations de calculs.

La méthode ainsi exposée, présente un certain nombre de défauts :

• lenteur compte tenu du nombre d'opérations si le rang n de la matrice A est grand,


• difficulté si le pivot est nul puisque la division n'est plus possible (dans ce cas, il faut
permuter les colonnes tout en veillant à la cohérence des calculs qui suivent),
• précision si le pivot est faible (<<1), les erreurs d’arrondi deviennent très importantes
et affectent toute la suite des calculs.

2.1.2. Exemple

Soit le système à résoudre :

On forme tout d’abord la matrice [A, y] :

K=1 k=1

Normalisation Réduction

K=2 k=2

Normalisation Réduction

6
K=3 k=3

Normalisation Réduction

La solution est ; d’où :

2.2. Méthode de GAUSS

On diagonalise la matrice A, et on ne fait apparaître les zéros qu’en dessous de la diagonale.


La solution xi du système nécessite 2 étapes :

• Une triangularisation de la matrice A,

Pour k variant de 0 à n-1, on a :

• Une résolution du
système
triangulaire :

D’où l’expression de la solution finale : avec j=n-1 à 1

7
Cette solution nécessite environ n3/3 opérations.
Pour les pivots nuls ou petits, on est confronté aux mêmes difficultés signalées dans la
méthode précédente de GAUSS-JORDAN.

2.3. Cas des matrices bandes

Soit le système tridiagonal suivant :

La matrice est connue par les 3n données : où

Ainsi, le système décrit par ces 3n données peut être résolu par la méthode de
triangularisation (méthode de Gauss).

3. Méthodes itératives

Nous allons décrire ces méthodes brièvement sans passer par des calculs ou des
démonstrations mathématiques complexes, car cela nous éloignera des objectifs du cours.

3.1. Méthode de JACOBI

Soit le système suivant de 3 équations à 3 inconnues :

On résout le système de la manière suivante :

8
On donne aux inconnues les valeurs arbitraires initiales , , .
Si ces valeurs sont portées au second membre de la solution précédente, on obtient :

Ce nouvel ensemble porté dans le second membre des équations précédentes donne un autre
ensemble , , , et ainsi de suite.

3.2. Méthode de GAUSS-SEIDEL

On reprend le calcul comme précédemment. Pour le système précédent par exemple, on


choisit un ensemble de valeurs , , .

On porte et dans la 1ère équation et on obtient :

C’est cette nouvelle valeur de x1, et non pas , qui est portée dans la 2ème équation du
système, donnant :

De même dans la 3ème équation, on porte et , et non et , et on obtient :

Lorsqu’une inconnue est utilisée, c’est automatiquement la plus récente valeur calculée. Ceci
assure une convergence des calculs bien plus rapide que la méthode de JACOBI.

On arrête les calculs lorsque les valeurs successives de xj sont suffisamment voisines.
Pour cela, on peut utiliser,

• soit le critère de Convergence absolue :

• soit le critère de Convergence relative :

9
Pour les systèmes où les matrices qui sont de rang élevé, il n’est pas commode de faire le test
de convergence sur chaque inconnue xj.
Dans ce cas, on fait le test soit seulement sur certaines inconnues que l'on choisit, soit les
quantités suivantes :

ou ou ou

La convergence du procédé ne dépend pas du choix des valeurs initiales , mais seulement
des valeurs des coefficients.
On montre que la convergence est assurée si on a, pour chaque valeur de i (c’est à dire pour

chaque ligne), la relation est vérifiée.

Autrement dit, il y a convergence si chaque élément diagonal est supérieur ou égal, en


module, à la somme des modules des autres éléments de sa ligne.

3.3. Facteur de relaxation


Si la convergence existe, sa rapidité dépend du choix de . En effet, plus les valeurs initiales
sont proches des valeurs réelles, et plus la convergence est rapide.

L’utilisation d’un facteur de relaxation λ définie par où


permet d’accélérer la convergence.
λ est appelée " facteur de relaxation " (dans la pratique, il est compris entre 0 et 2).

Pour , le processus diverge.

Pour s’approcher de la valeur recherchée rapidement, on prend dans un processus


itératif déjà convergent et pour un processus divergent.

Les méthodes itératives jouent un rôle très important dans la résolution numérique de
systèmes de grandes tailles et dans les systèmes (ou équations) non linéaires.

4. Inversion des matrices

Selon la méthode de Cramer, une matrice A de rang n n’est inversible que si son déterminant
∆ est différent de zéro. Dans ce cas, le produit de A par la matrice inverse A-1 donne la matrice
unitaire I.

En appliquant la méthode de Cramer sur la matrice A, on peut déterminer A-1.

10
Exemple :

qui
On obtient en utilisant la méthode de vérifie
Cramer : que :

L’algorithme de Gauss-Jordan présenté au début de ce cours (méthode du pivot) opère aussi le


passage de la matrice C=[A,y] à la matrice D=[I,X] où X est la solution du système linéaire
A.X=y ; Soit X =A-1.y .

Après les opérations de l’algorithme de Gauss-Jordan, on obtient : D=A-1.C=A-1.[A,I]=[I,A-1]


Cette méthode, de calcul de l’inverse d’une matrice qui est résumée ci-dessous, permet de
calculer A-1 avec un nombre d’opérations nettement inférieur à celui de la méthode de Cramer.

Transformation (A,I) (I,A-1)

Pour , on a :

Pour

Pour

Exemple :

Soit la matrice . Calculer A-1 par la méthode de Jordan.

11
k =1

Normalisation ; Réduction

k =2

;
Normalisation
Réduction

k =3

;
Normalisation
Réduction

Finalement, on vérifie que :

12
Chapitre II : Résolution des équations et systèmes non
linéaires
Application à la recherche de valeurs non nulles
des équations transcendantes

Plan
1. Introduction

2. Méthode itérative générale

3. Méthode de Newton-Raphson

4. Résolution d'une équation polynomiale

4.1. Application de la méthode de Newton au calcul d'une racine carrée

4.2. Application à la recherche des valeurs nulles des équations transcendantes

5. Méthode de Bairstow

6. Résolution des systèmes d'équations non-linéaires


6.1. Généralisation de la méthode de Newton-Raphson
6.2. Utilisation d'une méthode de minimisation de fonctions

1. Introduction

Dans la pratique, la plupart des problèmes se ramènent à la résolution d’une équation de la


forme :
La résolution de cette équation dépend de la classe à laquelle appartient la fonction f. Si f est
un polynôme de degré n, on sait que l’équation possède n racines complexes. Si l’équation est
transcendante, elle peut avoir un nombre fini, voire nul, ou infini de racines. Le problème est
alors de trouver la racine dont on sait l’existence et dont, parfois, on connaît une valeur
approchée.
Les méthodes de résolution sont toujours des méthodes itératives.

2. Méthode itérative générale

On suppose que l’équation a été mise sous la forme : (ceci est toujours possible en
définissant par exemple puisque lorsque , ).

À partir d’une valeur initiale x1, que l’on se donne, on engendre la suite :

13
Si la suite des mesures x1, x2, x3,…, xn converge vers une valeur x0, alors

: , et ; x0 est une racine.

Fig. 1 : Exemple de solution convergente (régime oscillatoire convergent)

Supposons que l’équation admette une racine x0 sur l’intervalle [a,b]. On peut légitimement
supposer que f(x) prendra des valeurs sur cet intervalle. Si l’on n’ajoute pas d’hypothèses
supplémentaires, on ne peut être sûr de la convergence. Il est donc impossible de donner une
condition nécessaire sans expliciter la fonction f. C’est donc une étude de cas.

3. Méthode de Newton-Raphson

Cette méthode s’applique à des équations du type , pour lesquelles on peut calculer
la dérivée de f : f’(x). Soit x1 une valeur approchée de la racine s inconnue. Posons : x2=x1+h,
et cherchons l’accroissement qu’il faut donner à x1, de façon à ce que :

Après développement en série de Taylor à l’ordre 2, on obtient :

14
ou approximativement :

c’est à dire :

et plus généralement, la solution : ,soit


Interprétation géométrique :

La valeur x2 est l’abscisse du point d’intersection avec l’axe ox de la tangente au graphe


y=f(x) en x1.

Sens de l’approximation :

Si l’on avait fait aucune approximation dans l’écriture de , on aurait obtenu,


pour la racine s, l'expression suivante :

donc :

Ce qui conduit à la conclusion suivante :

• Si ,
x2 est plus proche de s que x1, et il est du même côté : x2 est donc une meilleure
approximation. Si la racine est simple, et si f’ conserve un signe constant au voisinage
de la racine, la suite est une suite monotone bornée par 0 ; elle converge,
donc l’algorithme converge.

• Si ,
x1 et x2 sont de part et d’autre de s : l’approximation x2 peut alors être moins bonne
que x1. mais si la racine est simple, f(x2) sera de signe contraire à celui de f(x1) : f(x1) et
f(x2) seront alors de même signe et l’algorithme converge.

15
4. Résolution d’une équation polynomiale

L’application de la méthode de Newton implique le calcul du polynôme et de sa


dérivée .
Écrivons le polynôme sous la forme :

La division de par le monôme où est une valeur arbitraire donne :

où R est une constante de valeur .

En divisant de nouveau le polynôme de degré n-1 par , on obtient :

Donc :

La valeur de la constante S est donnée par : .

L’application de la formule de Newton peut donc se faire sous la forme :

Les valeurs de R et de S s’obtiennent donc au moyen des relations de récurrence qu’on établit
en égalant les puissances successives de x dans les diverses expressions du polynôme :

De même, les coefficients s’obtiennent au moyen de formules analogues :

16
On peut remarquer que le calcul de R et de S est analogue à celui du calcul des
polynômes et .

4.1. Application de la méthode de Newton au calcul d’une racine carré

Soit l’équation

La formule de Newton s'écrit :

soit la formule de récurrence :

Quand n tend vers l’infini, xn+1 tend vers xn et par conséquent

:
Cet algorithme converge quelque soit la valeur de x1 d’initialisation, pourvu que .

4.2. Application à la recherche des valeurs non nulles des équations transcendantes

Dans le cas d'un problème unidimensionnel de conduction de la chaleur dans une barre par
exemple de longueur , la solution analytique de la température obtenue par la méthode
d'orthogonalisation est la somme d'une réponse en régime transitoire et d'une réponse en
régime permanent. Selon l'axe de la barre, cette solution est de la forme :

(1)

à cette solution, on ajoute l'équation transcendante donnée par :

17
(2)

Pour déterminer la température à tout instant et en tout point , on doit


résoudre l'équation transcendante (2) afin d'obtenir les racines .

L'équation (2) est du type : et

En traçant sur le même graphe et , on obtient les courbes de la figure 2.

D'après ce graphe, on voit bien qu'il existe une solution par intervalle
où . Cette solution est l'intersection de la courbe avec celle de .

D'où pour l'intervalle comme cela est indiqué sur le graphique, on a les cinq racines
suivantes pour une valeur égale à du terme ( ):

1ère racine = 0.988241


2ème racine = 3.542166
3ème racine = 6.509659
4ème racine = 9.580092
5ème racine = 12.684082

Fig. 2 : évolution des solutions et

18
5. Méthode de Bairstow

La méthode de Bairstow permet de calculer des racines réelles ou complexes d’une équation
polynomiale à coefficients réels. La méthode consiste à extraire (le plus exactement possible)
les racines (réelles ou complexes) deux à deux (à la fin, il en reste éventuellement une),
jusqu’à épuisement des n racines.
Soit à trouver les racines de l’équation polynomiale suivante :

On effectue la division eucludiènne de f par le trinôme , où p et q sont à priori


deux nombres quelconques :

Les coefficients dépendent de p et q, de même que r et S.

Si r=S=0, alors f(x)=0 permet de donner (donc deux racines de f(x) déjà).

Si r et/ou S ne sont pas nuls, la méthode de Bairstow va consister à déterminer par


approximations successives les valeurs de p et q qui annulent r et s :

Ce système peut être non linéaire. On le supposera linéaire au voisinage de chaque couple
(p,q) fixé.

Pour cela ,on se donne 2 valeurs p0 et q0 arbitraires. On calcule alors successivement


et de telle sorte que :

Soit au premier ordre en et :

Si l’on pose :

19
et

La solution du système précédent est (Cramer) :

Les expressions qui entrent dans le calcul de δ, P et Q vont être évaluées par étapes. Les
coefficients sont liés aux coefficients du polynôme initial par l’intermédiaire ses
relations suivantes :

relations auxquelles on peut ajouter :

en ayant défini et par : et .

Ce tableau (I) permet de calculer les , r et S en fonction de p et q.

Posant maintenant :

20
, avec k=0, 1, 2, …, n-1 et

En dérivant le tableau (I) par rapport à p, on obtient :

Ce tableau (II) permet de calculer les Ci (i=0 ,1, 2, …, n-1).

Posons maintenant :

En dérivant le tableau (I) par rapport à q, il vient :

la comparaison des tableaux (II) et (III) montre que :

21
, pour

On en conclut alors :

et

Les tableaux (I) et (III) permettent de calculer les dérivée partielles :

et par conséquent, les quantités δ, P, Q recherchées sont :

Mise en œuvre de la méthode :

Le calcul du premier trinôme s’obtient à l’issue des phases de calcul suivantes :

1. On fixe arbitrairement deux valeurs p0 et q0.


2. On calcule alors les deux valeurs :

On constitue le tableau : , et le tableau .

On calcule δ, P et Q et on en déduit : et

3. Si et , alors les racines de sont les racines du polynôme initial.


4. Sinon, on remonte en 2 en reportant des valeurs et , et ainsi de suite.

22
Les deux premières racines ayant été extraites, on applique de nouveau la méthode de
Bairstow au polynôme quotient.

6. Résolution des systèmes d’équations non linéaires

6.1. Généralisation de la méthode de Newton-Raphson

La méthode Newton peut s ‘appliquer à la résolution d’un système de plusieurs équations non
linéaires :

A partir d’un couple de valeurs approchées (x1,y1) d’une solution du système, on peut
déterminer deux accroissements h et k à donner à x1 et y1 de manière à ce que :

En développant en 1er ordre, il vient :

où l’on a posé : et

Les quantités h et k s’obtiennent donc, en résolvant le système linéaire suivant :

avec :

Le calcul est alors relancé jusqu’à ce que h et k deviennent inférieures à une valeur ε que l’on
se donne (selon la précision voulue pour le calcul).
Ainsi, l’algorithme correspondant est :

avec :

ou encore :

23
Cette méthode de résolution peut être généralisée pour la résolution de système de n
équations non linéaires à n inconnues.

6.2. Utilisation d’une méthode de minimisation de fonctions

La résolution du système non linéaire suivant :

peut se ramener à la recherche du minimum de la fonction : qui


étant écrite sous la forme d’une somme de deux fonctions est positive ou nulle.

Puisque les méthodes de minimisation d’une fonction (annulation de la dérivée, par exemple)
ne donnent pas forcément le minimum absolu d’une fonction, il est nécessaire de vérifier que
le minimum trouvé est bien la solution recherchée ; c’est à dire celle pour laquelle on
a .

24
Chapitre III : Interpolation Polynomiale -
Extrapolation

Plan
1. Position du problème

2. But de l’interpolation

3. Interpolation polynomiale de Lagrange

4. Erreur de l’interpolation de Lagrange

5. Polynôme d’interpolation de Newton

1. Position du problème

Étant donné un ensemble de doublets numériques (résultats expérimentaux, par exemple), le


problème à résoudre consiste à trouver un modèle mathématique (polynomial,
trigonométrique, exponentiel, etc.), et ses paramètres significatifs (c'est à dire ses
coefficients), afin de réduire (on parle de régression) toute une information en une expression
mathématique utilisable, c’est à dire calculable, intégrable, dérivable, etc. Lorsque les
doublets sont considérés comme ‘sûrs’, au sens expérimental du mot, on tentera une
interpolation qui restituera toutes les valeurs numériques des doublets là où ils se trouvent.
Lorsque les doublets sont entachés d’incertitudes sur leurs déterminations, en particulier s’ils
sont très nombreux, on tentera une approximation qui restituera ‘au mieux’ l’information
contenue dans les doublets. On raisonne sur une fonction numérique ‘f’ à une seule variable
réelle x, connue pour N valeurs. Soit n, le nombre de paramètres du modèle mathématique à
déterminer.

Le modèle est vérifié pour tous les Le modèle est optimisé entre tous
doublets interpolation les doublets approximation

25
2. But de l’interpolation

Étant donnée une fonction f définie sur un intervalle fermé [a,b] de (a<b), pour n+1
valeurs de sa variable xi (i=0,1,2, …, n), mais inconnue ou d’expression très complexe en
dehors de ces valeurs ; il s’agit de calculer une fonction numériquement plus commode
à manier et qui coïncide avec la fonction pour les valeurs connues de f. la recherche peut
s’étendre au cas où la fonction f n’est même pas connue pour ses n+1 valeurs de définition,
mais où sont connues des valeurs de ses dérivées, par exemple. La fonction est
pratiquement une somme finie de n+1 fonctions de base linéairement indépendantes :

le but de l’interpolation est de trouver les ai pour que : où et où les


fonctions de base devront pouvoir se prêter à tous les traitements numériques courants.

Pratiquement, on pourra choisir la suite des monômes :

puisqu’on en vertu du théorème de WEIERSTRAUSS, toute fonction continue peut être


approchée uniformément par un polynôme.
Il pourrai être opportun pour simplifier les calculs, de choisir des fonctions de base qui en plus
de l’indépendance linéaire, ont des propriétés d’orthogonalité, suivant la définition d’un
produit scalaire.

Enfin, pour une fonction périodique, la base formée par les fonctions sinus et cosinus paraît
tout à fait adaptée.

3. Interpolation polynomiale de Lagrange

La méthode est ancienne, mais elle est parfaitement adaptée aux traitements informatiques.
Soit f une fonction définie sur un fermé [a,b] de (a<b), pour n+1 valeurs distinctes de sa
variable, cet ensemble étant désigné sous le nom partition (xi, ).

26
On cherche s’il existe un polynôme P(x), tel que , pour i variant de 0 à n+1

Posons : où les a0, a1, …,aj, …, am

On a donc :

Dans ce cas, trois éventualités peuvent se présenter :

• m>n système impossible aucune solution,


• m=n système de Cramer une solution unique,
• m<n système surdéterminé une solution est à chercher par la méthode des
moindres carrés.

Ici, c’est le cas où m=n qui nous intéresse. La solution existe et est unique, car le déterminant
des coefficients ( ) est un déterminant de Van der Monde, non nul et qui vaut :

Recherche de la solution :
Considérons les polynômes (de Lagrange) suivants :

; où i=0 à n.
Le produit effectué sur les indices j tels que et .

; si
Il est clair que et que :

27
Donc, ces polynômes sont de degré n, et sont tels que :
Ils sont linéairement indépendants, puisque si :

alors pour : , avec k=0 à n, on a :

Les n+1 polynômes de Lagrange forment une base de l’espace vectoriel des polynômes de
degré au plus égal à n. Sur cette base, on a :

Car, on a bien : pour i=0 à n.

Autres propriétés :

et si l’on pose :

on a alors :

Cas particuliers des abscisses équivalentes :

Soit h un réel positif, appelé pas de la partition.


On pose : et où s est un réel quelconque.

Alors l’expression de donnée dans le polynôme de Lagrange devient :

est un polynôme de degré n, à coefficients purement numériques ( ):

28

Le tableau des coefficients forme une matrice, de rang n+1, appelée matrice régulière de
Lagrange. Ces matrices peuvent être tabulées.

Exercice :

Établir la matrice régulière correspondant au cas de l’interpolation quadratique (matrice


régulière de Lagrange)

Solution
Soit les données de la fonction f suivante :

0 1 2

1 -2 -1

où :

Recherchons tout d’abord le polynôme d’interpolation de Lagrange de la fonction f . Ce


polynôme s’écrit sous la forme :

; où

i 0 0 1 1 2 2
j 1 2 0 2 0 1

On obtient alors 3 polynômes : , et .

D’où :

Détermination de la matrice régulière correspondante :

29
On a :

avec ,

On obtient alors :

D’où la matrice régulière de Lagrange correspondant à l’interpolation quadratique est la


suivante :

On peut monter également les autres cas de matrices régulières d’ordre inférieur ou supérieur
(interpolation linéaire, cubique, etc.) :

interpolation linéaire

interpolation cubique

Suivant les auteurs et/ou suivant la conduite des calculs, les matrices régulières de Lagrange
peuvent être ces matrices ou leurs transposées.

30
4. Erreur de l’interpolation de Lagrange

Pour , il s’agit d’estimer


Si on ne possède d’aucun renseignement sur f, autre que , on ne peut rien dire
sur (autre que ). Si l’on ajoute des hypothèses sur f, elles se répercuteront sur .

5. Polynôme d’interpolation de Newton :

Il n’y a pas de relation simple entre le ième polynôme de Lagrange relatif à la


partition et le (i+1)ième polynôme relatif à . Du point de vue
numérique, ceci est un inconvénient auquel remédie l’interpolation de Newton.

Exercice :
Monter que les fonctions :

forment une base de l’espace vectoriel des polynômes de degré inférieur ou égal à n sur .

Soit le polynôme développé sur la base :

tel que :
On a :
, par convention de notation

d’où : ; par convention.

Remarques :

31
Soit ensuite :

d’où l’on tire :

et : , par convention.

On peut donc dresser le tableau suivant (algorithme) :

et on peut généraliser par récurrence :

avec les mêmes remarques que précédemment :


est insensible à l’ordre et cette propriété se généralise à l’ordre k par
récurrence.

qui se généralise sans difficulté à l’ordre k.

qui se généralise sous la forme :

32
qui se généralise sous la forme :

expression utile pour déterminer l’erreur d’interpolation.

propriété qui se généralise évidemment à l’ordre n.

Finalement, le polynôme d’interpolation de Newton relatif à la partition est donnée par :

33
Chapitre IV : Approximation - Lissage des
courbes -Méthode des moindres carrés

Plan
1. Principe de la méthode

2. Lissage par un polynôme

3. Exemples de lissage

1. Principe de la méthode

Lors d’une expérimentation, on a obtenu les résultats suivant représenté sur le graphique ci-
dessous. Ces résultats sont les mesures physiques caractérisant, par exemple, la température
en fonction du temps.

On a et .

34
La fonction f(x) peut être représentée par une ligne passant par tous les points, par exemple en
utilisant l’interpolation de Lagrange. Du point de vue physique, ceci n’a pas de sens. Au
contraire, pour mieux représenter f(x) par une courbe, celle-ci doit passer entre les points
expérimentaux, voire ne passant par aucun d’entre eux comme c’est le cas de la figure ci-
dessus.

Une première méthode consiste à tracer ‘à l’œil’ la fonction g(x) censée représenter le mieux
possible f(x) décrite par les points expérimentaux. Évidemment, il est préférable d’avoir cette
représentation par une méthode plus sûre. Ainsi, on choisit une fonction g(x), censée
représenter f(x).

Dans le cas du graphique ci-dessus par exemple, g(x) est représentée par une droite de la
forme :

g(x) dépend d’un certain nombre de paramètres .

Donc, cette fonction sera de la forme . Dans le cas du graphe précédent,


on a : . On désigne les coordonnées des points expérimentaux
par où et nous formons la quantité (graphe précédent) :

Dans ce cas, on cherche de telle sorte que s soit minimal. Ainsi, s est minimal
si et seulement si :

on obtient alors un système de (r+1) équations (pas forcément linéaires) à (r+1) inconnues
: qui peut être résolu par l’une des méthodes développées au chapitre I.

35
2. Lissage par un polynôme

Dans la pratique, on utilise fréquemment un polynôme de degré r pour la représentation de


f(x). Dans ce cas, la fonction g(x) sera :

En appliquant la méthode précédente qui consiste à calculer s on obtient :

Après la minimisation, on obtient :

soit :

Dans le cas général, on a :

soit :

Pour k=0, on retrouve bien ; et pour k variant de 0 à r, on obtient un système de (r+1)


équations à (r+1) inconnues. Ces inconnues sont .

En posant :

le système précédent s’écrit :

36
Ce système peut être résolu par la méthode du pivot par exemple. Pour la résolution, il est
fortement recommandé de travailler en double précision (si on n’utilise pas le langage
MATLAB), car à partir d’un polynôme de degré 7, les erreurs d’arrondi donnent des résultats
sans signification. En général, on utilise un polynôme de faible degré, et si c’est possible des
droites de préférence. Il est souvent utile pour cela de changer d’échelles (échelles
logarithmique ou semi-logarithmique par exemple).

3. Exemples de lissage

3.1. Cas d’une droite de régression (ou droite des moindres carrés)

g(x) est un polynôme de degré 1 r=1.

Soit :

Le système précédent devient alors :

En posant :

le système précédent devient :

37
Les solutions de ce système sont :

et g(x) devient :

Pour , on a :

Ainsi, a1 s’écrit :

où est la variance des abscisses xi des points Mi.

avec :

En effet :

et en faisant x=y, on obtient :

Pour y, on définit de la même façon que pour x la variance :

38
x

Ainsi, le coefficient de corrélation entre les variables xi et yi sera défini par :

On remarque que les coefficients a1 et C sont liés par la relation :

3.2. Cas d’une fonction comportant des exponentielles

Exemple :

A la suite d’une série de mesures physiques, on a obtenu les résultats suivants dans le tableau
ci-dessous :

1 2 3 4 5 6 7 8 9 10 11
0,00 0,40 0,80 1,20 1,60 2,00 2,40 2,80 3,20 3,60 4,00

2,97 2,87 2,45 1,91 1,24 1,29 0,71 0,57 0,74 0,42 0,39

Approcher la fonction par une exponentielle.

Solution :

et il s'agit de calculer les constantes a et A à partir des mesures physiques.

On a :

La minimisation de S donne :

39
avec :

Dans la 2ème équation du système, on remplace A par sa valeur obtenue dans la 1ère équation,
et on obtient :

Cette équation est donc du type f(a) = 0, on peut la résoudre par la méthode de Newton par
exemple. Pour cela, on choisit une valeur arbitraire ‘ ’, et on calcule . En faisant
plusieurs itérations, on montre que :

Après itérations, on trouve :

d’où la fonction :

40
Chapitre V : Intégrations numériques
Méthodes d'intégration

Plan
1. Introduction

2. Méthodes d’intégrations numériques


2.1. Méthode des trapèzes
2.2. Méthode de Simpson
2.3. Formules de Newton-Cotes
2.4. Méthode de Gauss
2.5. Intégration sur un pas quelconque
2.6. Problèmes liés aux limites de la fonction
2.6.1. Intégration sur un domaine infini
2.6.2. Singularité dans l’intégrale

1. Introduction

Pourquoi utilise t-on l’intégration numérique ?

Lorsque l’intégrale ne peut pas être évaluée analytiquement ou lorsque l’intégrale n’est pas
donnée sous forme analytique mais numériquement en un certain nombre de valeurs discrètes,
l’intégration numérique peut être utilisée.

Il existe plusieurs méthodes permettant d’évaluer les intégrales de fonctions bornées sur un
intervalle. La présence de singularité dans les fonctions (ou dans certaines fonctions) rend les
calculs parfois difficiles.

2. Méthodes d’intégrations numériques

2.1. Méthode des trapèzes

Cette méthode consiste à remplacer la courbe f(x) par une ligne brisée et à calculer l’aire de
chaque trapèze, ensuite faire la somme des aires sur l’intervalle sur lequel la fonction est
définie.

41
Dans ce cas, on a :

; et
Si est l’intervalle d’intégration de f(x), qui est divisé en n intervalles
: , on a :

Dans la suite, on suppose que tous les points sont régulièrement espacés :

Ainsi, l’intégrale précédente devient :

Cette démonstration ne permet pas de mettre en évidence l’erreur d’intégration. Un


développement en série de Taylor au 1er ordre permet de faire apparaître l’erreur qui
correspond aux termes du second ordre en . Cette erreur est d’autant plus faible que le
pas est petit.

D’où :

42
Pour la plupart des fonctions, on peut obtenir une meilleure approximation en estimant
simplement par :

et l’intégrale précédente devient :

Cette méthode est appelée la méthode des trapèzes avec corrections aux extrémités. En tenant
compte de cette correction, la méthode devient d’ordre 4. Cette méthode peut donc être
utilisée pour l’intégration d’une fonction donnée numériquement à intervalles discrets. f’(a) et
f’(b) peuvent être calculées par des différences finies par exemple.

2.2. Méthode de Simpson

Cette méthode consiste à remplacer , entre et , la fonction par l’arc de parabole


passant par , et . Un développement en série de Taylor permet de démontrer la
formule de Simpson. Pour cela, on pose :

avec

Dans ce cas, on obtient :

L’aire de 2 tranches d’intervalles et s'écrit ,


soit,

On remplace par son expression utilisant les différences centrales :

43
En posant , on obtient :

soit :

L’aire sur l’intervalle est alors obtenue par :

Cette intégrale nécessite que le nombre d’intervalles soit pair. En remplaçant dans l’intégrale
précédente les par leurs expressions, on trouve :

Après regroupement des termes, et en remarquant que :

il vient alors :

soit finalement :

44
Cette méthode d’intégration est exacte pour l’intégration des polynômes jusqu’à l’ordre 3
inclus. La méthode de Simpson est une méthode d’ordre 4.

Exemple :

Calculer par la méthode de Simpson.


Avec 4 tranches, on a :
L’erreur relative est :

2.3. Formules de Newton-Cotes

Les méthodes des trapèzes et de Simpson sont des cas particuliers des formules de Newton-
Cotes.

L’intégrale est une combinaison linéaire de ; ce qui signifie que cette


intégrale est calculée de façon exacte lorsque est un polynôme de degré inférieur ou
égal à n : le nombre de valeurs est égal à n+1, on intègre sur n tranches, et les valeurs des
coefficients de la combinaison linéaire dépendent de n. La méthode des trapèzes et la méthode
de Simpson correspondent respectivement à n=1 et n=2. Le principe de la méthode de
Newton-Cotes dans le cas le plus général à pas non constant, sera donné dans la suite de ce
cours.

Les résultats de cette méthode donnent :

soit encore :

avec

où A et ak sont données par le tableau suivant :

Nom de la formule n A

Trapèzes 1 2 1 1

45
Simpson 2 3 1 4 1
Villarceau 4 45 14 64 24 64 14
Hardy 6 140 41 216 27 272 27 216 41

Remarque :

Les formules de Newton-Cotes ne doivent pas être utilisées pour ‘n’ élevé. La méthode de
Simpson est couramment utilisée.

2.4. Méthode de Gauss

C’est une méthode très précise. Elle utilise des points qui ne sont pas régulièrement espacés et
convenablement choisis. Lorsque la fonction est connue analytiquement ou lorsqu’elle
est tabulée numériquement en ces points précis, la méthode de Gauss peut être appliquée.

En développant sur une base de polynômes, l’intégrale de peut s’écrire comme


une combinaison linéaire des valeurs que prend la fonction en divers points :

Dans cette expression, la constante C est proportionnelle à (b-a) et les facteurs de


pondération dépendent de la fonction par laquelle on approche (segments de droites
pour la méthode des trapèzes, arcs de paraboles pour la méthode de Simpson). En ce qui
concerne la méthode de Gauss, on développe dans une base de polynômes orthogonaux
dont les sont les racines de ces polynômes, qui sont alors irrégulièrement espacés. Ces
polynômes sont définis sur l’intervalle . Dans ce cas, il faut faire un changement de
variable sur qui permet de transformer en ; c’est à dire :

(a)

On obtient donc :

(b)

où et sont tabulés.

Ainsi, l’intégrale de , peut être évaluée en suivant la procédure :

46
• on choisit la valeur n qui donne le nombre de points où la fonction doit être évaluée,
• on lit dans la table donnant et les n valeurs de qui sont deux à deux
symétriques par rapport à zéro (qui sont les racines du polynôme de Legendre d’ordre
n) qui correspondent à la valeur de n choisie,
• on calcule par l’équation (a), ensuite on évalue l’intégrale de (expression
(b)).

Racines et poids pour la méthode de Gauss - Legendre

2 0,5773502692 1,0000000000
3 0,0000000000 0,8888888889

0,7745966692 0,5555555556
4 0,3399810436 0,6521451549

0,8611363116 0,3478548451
5 0,0000000000 0,5688888889

0,5384693101 0,4786286705

0,9061798459 0,2369268850
6 0,2386191861 0,4679139346

0,6612093865 0,3607615730

0,9324695142 0,1713244924
7 0,0000000000 0,4179591837

0,4058451514 0,3818300505

0,7415311856 0,2797053915

0,949079123 0,1294849662

Exemple :

Calculer l’intégrale par la méthode de Gauss.

Solution :

Analytiquement, on connaît : .

47
On choisit un , et on calcule les donnés par (d). On extrait ensuite les et les du
tableau précédent.

Pour b=4 et a=0, on a :

-0,861136 0,277728 0,347855


-0,339981 1,320038 0,652145
0,339981 2,679962 0,652145
0,861136 3,722272 0,347855

On calcule ensuite l’intégrale selon l’équation (b) :

d’où :

2.5. Intégration sur un pas quelconque

Dans le cas précédent, on a soit le pas est constant, soit la fonction à intégrer est
donnée numériquement en des points qui ne sont pas régulièrement espacés et disposés de
façon quelconque.

La méthode générale pour intégrer une telle fonction consiste à :

• approcher la fonction f(x) par un polynôme quelconque,


• remplacer l’intégrale par une combinaison des .

Ainsi :

où et .

Les coefficients sont déterminés de la manière suivante :

48
On obtient alors un système linéaire de n+1 équations à n+1 inconnues et dont les inconnues
sont les coefficients donnés par :

On remarque que lorsque n=1, on obtient la formule des trapèzes. Quand les points sont
différents les uns des autres, on obtient le système de Cramer avec une solution. Et lorsque les
points sont équidistants, on obtient la formule de Newton-Cotes. Pour obtenir une bonne
approximation de l’intégrale de , il est conseillé de ne pas prendre beaucoup de points,
car le polynôme d’interpolation devient dans certains cas une mauvaise approximation.

2.6. Problèmes liés aux limites de la fonction

2.6.1. Intégration sur un domaine infini

Pour calculer l’intégrale suivante, par exemple :

49
il faut s’assurer que cette intégrale converge.

Dans ce cas, on procède de la façon suivante :

• on fait un changement de variable qui permet de transformer les bornes infinies en


bornes finies,
• on sépare l’intégrale en deux :

peut être facilement évaluée par l’une des méthodes évoquées précédemment.

En ce qui concerne le calcul de , si b est suffisamment grand, devient


négligeable, et par conséquent :

Pour le critère donné sur b (b suffisamment grand), on calcule par exemple

et .

Si , alors b (ou 2b) est pris comme borne remplaçant l’infini.

Dans la plupart des cas, on connaît la forme asymptotique de .

Si pour suffisamment grand, on écrit :

où l’intégrale peut souvent être évaluée analytiquement.

On peut également faire un changement de variables pour ramener la borne infinie de la

seconde intégrale à une valeur finie. Mais cette technique introduit souvent une
singularité.

50
2.6.2. Singularité dans l’intégrale

La meilleure méthode pour traiter les singularités est de les éliminer si possible par l’une des
nombreuses techniques algébriques ; à savoir l’intégration par partie, le changement de
variables, etc. Si on doit calculer l’intégrale par la méthode de Simpson à pas constants,
l’intervalle d’intégration doit exclure la borne où la singularité apparaît.

Exemple :

Soit à calculer l’intégrale suivante :

est infinie sur la borne inférieure.

Analytiquement, cette intégrale peut être calculée facilement :

Par la méthode de Simpson par exemple, on calcule :

où ε est suffisamment petit.

Comme il est très difficile d’approcher une singularité par un polynôme, on partage en
deux intégrales :

avec ou par exemple.

On prend un grand pas entre c et 1 et un pas petit entre ε et c.

La méthode de Gauss est la mieux adaptée en général parce qu’elle correspond à une
approximation par un polynôme de degré n élevé d’une part, et si, d’autre part, on choisit n
pair, on n’a pas besoin de la valeur de aux bornes.

Cependant si la fonction oscille autour de la singularité, ce type d’approche ne donne


pas de bons résultats.

Une autre approche possible permettant de calculer consiste à faire un changement de


lavariables en variable .

Pour le cas particulier étudié, on obtient :

51
si

et par suite :

52
Chapitre VI : Résolution numériques des équations
différentielles

Plan
1. Position du Problème

2. Méthodes de résolution des équations différentielles


2.1. Méthode d'Euler
2.2.1. Méthode de Runge-Kutta à l'ordre 2
2.2.2. Méthode de Runge-Kutta à l'ordre 4
2.2. Méthode de Runge-Kutta à pas unique
2.3. Méthode d'Adams à pas multiple
2.3.1. Formules d'Adams ouvertes
2.3.1.1. Formules d'Adams à l'ordre 1
2.3.1.2. Formules d'Adams à l'ordre 2
2.3.1.3. Formules d'Adams à l'ordre 3
2.3.1.4. Formules d'Adams à l'ordre plus élevé
2.3.2. Formules d'Adams fermées
2.4. Méthode de Prédicteur-Correcteur
2.5. Problèmes avec des conditions aux limites : Méthode de TIR
2.6. Problèmes avec des conditions aux limites : Méthode Matricielle

1. Position du Problème

Les méthodes analytiques ne sont pas suffisantes pour résoudre les problèmes d'équations
différentielles. En effet, il existe plusieurs types d'équation différentielles. Chaque type
nécessite une méthode de résolution particulière.

La résolution de la plupart des équations différentielles requiert donc l'utilisation de méthodes


numériques. Chacune de ces méthodes peut être appliquée à la résolution de la plupart des
équations différentielles.

Les équations différentielles peuvent être classées en deux catégories : les équations
différentielles aux conditions initiales et les équations différentielles aux conditions aux
limites.

Exemples :

1°) Soit l'équation différentielle suivante :

53
On donne en plus de cette équation différentielle les conditions initiales suivantes :

et

Dans cette équation, la variable indépendante peut être le temps, mais aussi toute autre
variable. Dans ce cas, on peut dire que toute équation différentielle d'ordre avec des
conditions initiales peut être remplacée par un système de équations différentielles couplées

du 1er ordre. En posant , le système précédent devient :

avec :

Ainsi, un problème aux conditions initiales est donc de la forme :

où et

On obtient alors un système de équations à inconnues. Ce système peut être résolu par
rapport à une seule variable (le temps par exemple) :

Les méthodes employées pour la résolution du système précédent se généralisent de façon


immédiate pour résoudre les systèmes de équations à inconnues.

2°) Soit l'équation de la propagation de la chaleur le long d'une barre :

Ce problème est à conditions aux limites.

Dans de nombreux cas, on trouve des problèmes où les conditions aux limites (ou les
conditions initiales) n'ont pas de sens physique.

54
2. Méthodes de résolution des équations différentielles

2.1. Méthode d'Euler

La méthode d'Euler est la méthode la plus simple et la moins précise.


Soit à résoudre l'équation différentielle suivante :

En supposant connue à l'instant t, le développement en série de Taylor de au


voisinage de donne :

à l'ordre 1, on obtient :

Pour constant, on a :

est connue à , donc, la fonction y peut être déterminée à tout autre instant ultérieur.

Exemple :

Résoudre l'équation différentielle du 1er ordre suivante :

La solution exacte de ce système est :

Selon la méthode d'Euler, la solution de ce système s'écrit :

car

55
Dans le tableau ci-dessous, donne une comparaison entre la solution numérique et la solution
exacte obtenue analytiquement pour un pas de temps s:

i ti yi exact yi Méthode d'Euler % Err. relative


1 0,1 0,90909091 0,90000000 1,00
2 0,2 0,83333333 0,81900000 1,72
3 0,3 0,76923077 0,75192390 2,25
4 0,4 0,71428571 0,69538494 2,65
5 0,5 0,66666667 0,64702892 2,95
7 0,7 0,58823529 0,56854190 3,25
9 0,9 0,52631579 0,50746495 3,58
11 1,1 0,47619048 0,45850815 3,71

D'après ce tableau, on remarque que l'erreur augmente au fur et à mesure que augmente.
Donc, cette méthode est peu précise. Elle n'est pas utilisée dans la résolution numérique des
équations différentielles. Nous l'avons utilisée pour introduire les autres méthodes et donner
une simple idée sur l'erreur commise.

2.2. Méthode de Runge-Kutta à pas unique

Les méthodes de Runge-Kutta sont bien utilisée dans la pratique, car elles présentent plusieurs
avantages (facilité de programmation, stabilité de la solution, modification simple du pas et la
connaissance de suffit pour intégrer l'équation différentielle). Les inconvénients de cette
méthode se résument au temps de calcul lent et à la difficulté de l'estimation de l'erreur locale.

2.2.1. Méthode de Runge-Kutta à l'ordre 2

Cette méthode est obtenue en prenant les différences centrées au 1er ordre :

Or est inconnue. Dans ce cas, on remplace par sa valeur

estimée dans l'équation précédente, et on obtient :

56
Pour évaluer , la fonction doit être calculée deux fois, d'où l'appellation "Formule

d'ordre 2" : la première fois pour l'obtention de et la seconde fois pour évaluer .

2.2.2 Méthode de Runge-Kutta à l'ordre 4

Dans la plupart des cas, la méthode de Runge-Kutta utilisée est celle d'ordre 4 :

Le calcul de nécessite alors 4 évaluations de la fonction , et par suite pour les fonctions
compliquées le temps de calcul devient important.

2.3. Méthode d'Adams à pas multiple

Cette méthode est l'une des catégories à pas multiples. Elle peut être classée en formules
ouvertes ou formules fermées.

2.3.1. Formules d'Adams ouvertes

Soit l'équation différentielle suivante :

(1)

Le développement en série de Taylor autour de donne :

57
Dans l'équation différentielle (1), on a :

où :

(2)

2.3.1.1. Formules d'Adams à l'ordre 1

Dans l'équation (2), on garde les deux premiers termes (à l'ordre 1) :

(3)

C'est l'équation d'Euler (ou méthode d'Euler).

2.3.1.2. Formules d'Adams à l'ordre 2

On utilise les trois premiers termes de l'équation (2) :

(4)

On remplace par son expression en fonction des différences finies à gauche, et on obtient :

58
et l'expression (3) devient :

ou encore :

Les termes d'ordre 3 sont négligés. Donc, la formule est d'ordre 2. Pour calculer , il faut
connaître et . On remarque que ne peut pas être déterminée car on ne connaît
pas . Pour démarrer cette méthode, il faut utiliser une autre méthode pour évaluer
(méthode de Runge-Kutta à l'ordre 2 par exemple).

2.3.1.3. Formules d'Adams à l'ordre 3

On utilise les 4 premiers termes de l'équation (2) :

On exprime et par leurs formules obtenues à partir des différences à gauches, et on


trouve :

D'où la solution devient après regroupement des différents termes :

On a la même remarque que précédemment, on calcule et en utilisant la méthode de


Runge-Kutta à l'ordre 4.

2.3.1.4. Formules d'Adams à l'ordre plus élevé

En utilisant le même principe, on peut exprimer, par une formule générale d'ordre ,
en fonction de et :

59
(4)

Dans le tableau suivant, on donne les valeurs de jusqu'à , ce qui correspond à une
formule d'ordre 6.

0 1 2 3 4 5 Ordre de la méthode

0 1 1
1 2

2 3

3 4

4 5

5 6

La formule la plus couramment utilisée est celle d'ordre 4 :

2.3.2. Formules d'Adams fermées

Dans ces formules, on utilise le développement en série de Taylor "en arrière" :

Dans ce développement en série de Taylor, on remarque que :

60
D'où pour , on a :

Ainsi, on obtient :

Cette formule est dite "fermée" car pour obtenir l'inconnue , il faut
calculer qui dépend lui même en général de . On utilise donc une
méthode itérative. Pour cela, on injecte une première valeur estimée de .

On obtient alors une nouvelle :

(pour l'ordre 1 par exemple)

Ensuite, on injecte pour calculer . On arrête les calculs quand la convergence est
réalisée. Si cette convergence s'effectue quand la précision est inférieure à une valeur
donnée, on a donc :

à l'ordre , on obtient la formule généralisée suivante :

61
Les valeurs de sont donnée par le tableau ci-dessous jusqu'à .

0 1 2 3 4 5 Ordre de la méthode

0 1 1
1 2

2 3

3 4

4 5

5 6

La méthode la plus couramment utilisée est celle à l'ordre 4, c'est à dire :

On constate que les formules fermées, qui sont itératives, demandent plus de temps de calcul

que les formules ouvertes, puisqu'il faut calculer de telle sorte que la différence
converge vers .
Pour le même ordre, ces formules sont bien plus précises et plus stables que celles dites
"ouvertes". Leur convergence est d'autant plus rapide que l'estimation initiale est plus
proche de la valeur exacte .

2.4. Méthode de Prédicteur-Correcteur

La combinaison des deux méthodes précédentes (formules d'Adams ouvertes et formules


d'Adams fermées) constitue la méthode de prédicteur-correcteur. Il suffit de trouver une
valeur estimée proche de la valeur finale . Le prédicteur est obtenu par une
formule ouverte de même ordre. Cette valeur est introduite dans la méthode à formule
fermée. Ceci permet d'accélérer la convergence vers la solution. Ainsi, on profite des
avantages liés à la méthode d'Adams : temps de calcul réduit et erreur estimée de troncature
réduite considérablement.

62
Pour la méthode d'Adams au 4ème ordre, on a :
Prédicteur : formules d'Adams ouvertes au 4ème ordre :

(5)

au pas précédent, on a qui est la valeur du prédicteur (modificateur)

(6)

Correcteur : obtenu à partir de la formule d'Adams fermée (au 4ème ordre par exemple) :

(7)

Les valeurs , et peuvent être calculées à partir des formules de Runge-Kutta. Étant
donné que n'existe pas, la valeur est calculée à partir des équations (5) et (6) et
va initialiser les calculs d'itérations (formule (7)). À partir de , on estime par

l'équation (5), puis par la formule (6). Cette valeur est injectée dans la formule (7) pour
amorcer les itérations.

Exercice :

Résoudre l'équation différentielle suivante par la méthode de Runge-Kutta à l'ordre 4, puis par
la méthode de prédicteur-correcteur d'ordre 4 en se limitant à une itération pour le correcteur.
On prendra et on comparera les résultats obtenus par les deux méthodes pour par
exemple :

2.5. Problèmes avec des conditions aux limites : Méthode de TIR

La méthode de TIR consiste à remplacer le problème de conditions aux limites par un


problème de conditions initiales. Les conditions aux limites qui ne sont pas des conditions

63
initiales ne peuvent se concevoir que pour des équations différentielles d'ordre au moins égal
à 2, ou pour les systèmes d'équations différentielles du 1er ordre.

Soit l'équation différentielle du second ordre suivante :

(8)

avec les conditions aux limites suivantes :

On remplace ces conditions aux limites par des conditions initiales :

où est arbitraire

En utilisant les méthodes décrites précédemment, la résolution de (8) donne une


solution qui, pour , prend la valeur . Cette solution est une
fonction de , et on cherche de telle sorte qu'on ait :

Ainsi, le problème devient une équation dont on est amené à chercher sa racine.

Pour résoudre l'équation (8), on donne 2 valeurs arbitraires et ; ce qui donne


et puis on déduit une valeur par interpolation linéaire. Ayant obtenu
et à partir de et , on en déduit dans le cas général par :

(9)

La convergence est réalisée quand et seront suffisamment proches l'une de l'autre.

64
Exemples :

• soit le système d'équations du 1er ordre suivant avec des conditions aux limites :

Cette équation du 3ème ordre peut être ramenée à un système de 3 équations du 1er ordre, en
posant :

d'où :

avec :

Ce système est à conditions aux limites. Pour le résoudre, on le transforme en un système aux
conditions initiales :

avec :

65
Ce système peut être résolu par l'une des méthodes décrites précédemment (prédicteur-
correcteur avec initialisation ou Runge-Kutta) ensuite on détermine la valeur de pour
que soit égal à 1.

• Équations non linéaires ou à coefficients fonction de l'inconnue :

On dit qu'une équation différentielle est non linéaire si , , , …, apparaissent à des


puissances différentes de 1, comme par exemple :

(10)

Si l'équation est à coefficients dépendants de l'inconnue, peut s'écrire sous la forme suivante
par exemple :

Ces équations peuvent être résolues par décomposition en un système de équations à


inconnues du 1er ordre, comme c'est le cas de l'exemple précédent (équation 10) :

Cette équation peut être écrite sous la forme :

et on remplace l'ensemble des conditions aux limites par des conditions initiales.

2.6. Problèmes avec des conditions aux limites : Méthode Matricielle

Equation différentielle du second ordre : différences finies

Soit à résoudre l'équation différentielle du second ordre suivante :

(11)

On suppose connues :

(conditions aux limites)

66
On divise l'intervalle en intervalles égaux à .

On utilise les formules d'ordre 2 aux différences centrées :

L'équation (11) devient en et pour :

Après regroupement des différents termes, on obtient :

équation qui peut être écrite aussi sous la forme suivante la plus simple :

Pour variant de 1 à , on obtient un système de équations à inconnues


(où ). La première équation de ce système correspond à et la dernière
correspond à . Ces deux équations s'écrivent, puisqu'on connaît les conditions aux
limites et :

Ainsi, le système d'équations (12) devient :

67
Ce système est défini par une matrice tridiagonale. Sa résolution est simple et rapide : (
équations à inconnues ). Pour aboutir à la précision recherchée, on résout le

système plusieurs fois avec des pas , etc. jusqu'à la convergence souhaitée.

68
Chapitre VII : Calculs des équations aux
dérivées partielles

Plan
1. Position du Problème

2. Expression des dérivées partielles

3. Conditions aux limites


3.1. Cas où le contour suit le maillage
3.2. Cas où le contour est quelconque

4. Équations du premier ordre : Méthode des caractéristiques


4.1. Courbes caractéristiques associées à une équations du premier ordre
4.2. Exemples de problèmes liés aux conditions aux limites
4.3. Système d'équations du premier ordre

5. Équations du second ordre

6. Équations elliptiques

7. Problèmes en coordonnées cylindriques

8. Discrétisation de l'équation de la Conduction en régime instationnaire

1. Position du Problème

Dans la pratique, la plupart des équations aux dérivées partielles sont du premier ou du second
ordre à deux variables indépendantes, et l’extension de ces équations à un ordre plus élevé ne
pose aucun problème pour la résolution. Si est une fonction des variables et , alors les

équations aux dérivées partielles font intervenir , , , et .

Dans la suite, nous exprimons ces quantités en fonction de leurs expressions établies à l’aide
des différences finies. Les contours du domaine de la fonction permettent de donner les
conditions aux limites.

69
2. Expression des dérivées partielles

Pour calculer , on utilise les points situés de part et d’autre de . Considérons les
développements en séries de Taylor autour de , de la fonction :

Posons où est l’un des points de la figure 1 ci-dessous :

Fig. 1 : Maillage utilisé en différences finies

Pour et , on obtient à partir du développement précédent à l’ordre 2 les dérivées

partielles premières :
soit :

(1)

On a également :

soit :

(2)

70
En additionnant les développements en séries de Taylor des fonctions et
à l’ordre 2, on obtient les dérivées partielles secondes :

soit :

soit :

Pour l’obtention des dérivées croisées, par exemple, on applique successivement les
équations (1) et (2) :

Soit :

71
3. Conditions aux limites

Dans le cas de plusieurs variables indépendantes, la limite représente le contour dans le cas de
deux variables, la surface dans le cas de trois variables, etc. En général, on impose sur le
contour (en tout point), des conditions portant soit sur la fonction (problème de Dirichlet),

soit sur le gradient de :( , problème de Neumann).

3.1. Cas où le contour suit le maillage

Dans la majorité des cas, le contour est constitué (ou approché) par des segments de droites
qui suivent le maillage. Les conditions aux limites s'expriment de la même façon que dans le
cas des équations différentielles (chapitre précédents).

Fig. 2 : Contour suivant le maillage

3.2. Cas où le contour est quelconque

Un contour quelconque est remplacé par la ligne polygonale la plus voisine. Dans le cas de la
figure 3 ci-dessous, c'est Aa, bB, Cc, dE, Ee, etc. Ainsi les équations du paragraphe précédent,
faisant intervenir les dérivées partielles, et écrites pour tous les points intérieurs A,B, C, etc.,
font intervenir les points extérieurs a, b, c, etc. Les conditions aux limites fournissent des
conditions supplémentaires sur ces points extérieurs.

Sur le contour, il faut interpoler , , à partir des nœuds voisins à l'aide de la


formule de Gregory-Newton par exemple.

72
Fig. 3 : Contour quelconque

4. Équations du premier ordre : Méthode des caractéristiques

On s'intéresse ici aux équations du premier ordre qui sont quasi-linéaires et de la forme :

Les coefficients , et ne dépendent ni de ni de . À cette équation, il faut ajouter


les conditions aux limites.

4.1. Courbes caractéristiques associées à une équations du premier ordre

L'équation précédente à résoudre est de la forme :

Considérons les vecteurs et suivants :

Cette équation se réduit à : . Ainsi, est un vecteur tangent à la surface


représentative de la solution .

Le vecteur parallèle à est :


(1)

Les courbes et obtenues à partir de ces équations sont appelées des courbes
caractéristiques.
La méthode caractéristique consiste à remplacer l'équation aux dérivées partielles précédente
par un ensemble d'équations de la forme :
73
• ou encore qui, une fois intégrée compte tenu de la constante
d'intégration, donne l'équation .

• ou encore (ou ) qui, une fois intégrée donne la valeur de


en tout point (donc ) de la caractéristique.

Ainsi, la solution recherchée satisfait à :

4.2. Exemples de problèmes liés aux conditions aux limites

Exemple 1:

Soit à résoudre la simple équation aux dérivées partielles suivantes :

En se reportant au paragraphe précédent, on a :

L'équation (1) s'écrit alors :

Cette équation est remplacée par deux autres équations :

(3)

D'après la première équation du système (3), les caractéristiques sont des droites parallèles.
Ainsi, l'expression de devient :

74
Les constantes et (ou ) sont déterminées à partir des conditions aux limites.

Exemple 2:
Soit à résoudre l'équation différentielle suivante :

Dans cette équation : ; et .

D'où :

L'équation des caractéristiques est :

Les conditions aux limites donnent :

D'où la solution :

Les constantes et sont déterminées par les conditions aux limites.

4.3. Système d'équations du premier ordre

Soit le système suivant liant les dérivées des fonctions et :

75
(4)

où les coefficients peuvent dépendre de et , mais pas de ni de . et sont


supposées connues sur une courbe .

Suivant la procédure décrite dans le paragraphe précédent, on peut écrire :

(5)

Les systèmes (4) et (5) ne définissent pas les 4 inconnues , , et de manière


unique, seulement s'ils sont linéairement dépendants; c'est à dire si le déterminant est nul.

1)

En divisant le déterminant par , on obtient une équation du second degré en , dont


la solution est l'équation différentielle des caractéristiques.

2) En remplaçant dans le déterminant la dernière colonne par celle du second membre, on


obtient :

76
et par intégration, on obtient les valeurs de et de le long des caractéristiques.

5. Équations du second ordre

Soit l'équation aux dérivées partielles suivante :

(6)

, , et peuvent dépendre de , , , et , mais pas des dérivées secondes de la


fonction .

Posons :

et :

L'équation (6) devient :

(7)

avec :

(8)

Les équations (7) et (8) comportent 3 inconnues , et . La solution n'est pas unique
si .

77
soit :

(9)

Lorsque l'équation (10) est vérifiée, le système (7) et (8) n'admet pas de solution sauf si les
autres déterminants du système sont nuls : c'est à dire en remplaçant dans le déterminant
précédent la deuxième colonne par la colonne du second membre de l'équation :

(10)

Pour pouvoir utiliser la méthode des caractéristiques, il faut que les racines de l'équation (9)
soient réelles.
En conséquence, les 3 cas suivants présentent :

• si , l'équation (9) n'a pas de racines réelles, et l'équation (6) est dite

elliptique .
• si , l'équation (9) admet une racine réelle double, et cette équation est dite

parabolique (c'est le cas de l'équation de diffusion de la chaleur où si


se confond avec la variable t).
• si , l'équation (9) admet deux solutions réelles qui sont distinctes, et cette
équation est dite hyperbolique (c'est le cas de l'équation de

propagation ).

6. Équations elliptiques

Dans cette partie, on montre comment on discrétise une équation aux dérivées partielles
elliptique avec des conditions aux limites, dans le but de la transformer en un système de
équations à inconnues.

La mise en équation à l'aide des différences finies comporte les étapes suivantes :

78
• on définit un maillage couvrant le domaine et sa frontière,
• en tout nœud intérieur au domaine, on exprime les dérivées partielles à l'aide des
différences finies (ces termes contiennent des points situés sur la frontière),
• on exprime les valeurs de la fonction en tout point sur la frontière en tenant compte
des conditions aux limites.

Ainsi, on obtient un système de équations à inconnues.

Exemple :

Résoudre l'équation de Laplace suivante :

avec les conditions aux limites suivantes :

et

• Dans un premier temps, on définit le maillage qui coïncide avec la frontière du

domaine : on choisit pas sur ( ) et m + 1 pas sur y ( )

Fig. 4 : Définition du maillage

• En chaque nœud intérieur du domaine, on exprime l'équation de Laplace à l'aide des


différences finies, ce qui permet de donner :

79
• On vérifie bien que cette équation fait intervenir les points à la frontière (
à et à ).
• On exprime les conditions aux limites portant sur , , et .

D'après les conditions aux limites imposées, l'équation précédente s'écrit pour et :

Les valeurs et donnent dans l'équation précédente :

Pour à , on a :

à l'ordre 4 s'écrit :

Soit :

On continue ainsi à exprimer les conditions aux limites, ce qui donne :

80
Pour , on obtient :

Les équations précédentes constituent un ensemble de équations. Pour variant entre 0


et , on obtient équations à inconnues (valeurs de dans les nœuds
intérieurs au domaine). Ce système d'équations peut être résolu par exemple par la méthode
de Gauss-Seidel (méthode itérative).

Principe de la méthode :

Après multiplication par et regroupement des termes, l'équation discritisée peut s'écrire
sous la forme :

Le coefficient est le plus grand en module. Donc :

Pour , on obtient :

Pour résoudre l'équation discritisée, on applique le procédé d'itérations de Gauss-Seidel


(méthode explicite). Pour cela, on se donne une valeur (distribution) arbitraire initiale ,
qui portée dans l'équation (19) au second membre pour chaque couple , donne une

nouvelle valeur , et ainsi de suite. L'arrêt des calculs se fait quand où


est la limite de convergence que l'on se donne.

Dans le cas de l'équation de Laplace, le procédé converge toujours. Pour d'autres équations
plus compliquées, ce procédé de convergence pourra diverger. Dans ce cas, on utilise un
facteur de relaxation . En général, la convergence est plus rapide lorsqu'on utilise un

81
procédé de relaxation (où ).

7. Problèmes en coordonnées cylindriques

Considérons l'équation de la conduction de la chaleur exprimée en coordonnées cartésiennes :

En coordonnées polaires, cette équation s'écrit sous la forme :

sur la domaine

Sur ce domaine , on construit un maillage en coordonnées polaires comme le montre


la figure 5 ci-dessous, avec et où et sont des entiers.

Fig. 5 : Système de maillage en coordonnées polaires

Ainsi, la température et la fonction deviennent au point :

Pour des valeurs non nulles de , les dérivées secondes de par rapport à et
s'écrivent sous la forme discrétisée suivante :

82
En utilisant les différences centrées, peut s'écrire au point sous la forme :

Ainsi, l'équation de la chaleur discrétisée est :

Soit, après regroupement des différents termes :

C'est l'équation de conduction de la chaleur discrétisée (différences finies) en coordonnées


cylindriques, obtenue pour des valeurs de non nulles ( ). Les indices et sont des
entiers (commençant par 1 dans Matlab).

A l'origine ( ), l'équation de la conduction en coordonnées polaires présente une


singularité. Cette dernière doit être éliminée. Pour cela, on utilise le Laplacien de l'équation
de la conduction non pas en coordonnées cylindriques, mais en coordonnées cartésiennes :

quand

On construit ensuite un cercle de rayon , centré en . Considérons la température


à , et , , et sont les températures sur le cercle aux 4 nœuds (intersection avec
les axes et ). Ainsi, l'équation précédente (en coordonnées cartésiennes) s'écrit sur le
cercle de rayon :

83
La rotation des axes et autour de conduit au mêmes résultats (équation de la
chaleur en coordonnées cartésiennes discrétisée). En considérant comme la moyenne
arithmétique des températures autour du cercle de rayon , l'équation précédente devient :

où est la moyenne arithmétique des valeurs de autour du cercle de rayon et de


centre et est la valeur de la température à .

Les coordonnées polaires (deux dimensions) peuvent être extrapolées en coordonnées


cylindriques (trois dimensions) pour l'obtention de l'équation de la conduction de la
chaleur discrétisée.

Pour le problème bidimensionnel en évoqué précédemment, compte tenu de la symétrie


axiale, l'équation de la conduction de la chaleur peut être réduite à :

Pour , l'équation précédente discrétisée s'écrit sous la forme :

où , , et est un entier positif.

Au centre ( ), en utilisant la règle de l'Hopital nous obtenons :

D'où, l'équation de la conduction de la chaleur en deux dimensions , s'écrit compte tenu


de la symétrie axiale du problème :

en

soit en différences finies :

pour

84
En coordonnées cylindriques, l'équation de la conduction de la chaleur est donnée par
l'expression suivante :

Les coordonnées sont représentées par :

où et sont des entiers.

La température au nœud est notée par :

et les différentes dérivées partielles deviennent :

L'équation de la chaleur discrétisée en coordonnées cylindriques au nœud devient :

pour des valeurs de non nulles.

Pour , on a :

et l'équation de conduction en devient :

en

Soit en utilisant les différences finies au nœud :

85
8. Discrétisation de l'équation de la Conduction en régime instationnaire

Dans le système de coordonnées cartésiennes (trois dimensions), l'équation de conduction de


la chaleur en régime instationnaire (temporel) s'écrit (si ):

Pour résoudre cette équation aux dérivées partielles en utilisant la méthode des différences
finies, on utilise un maillage cubique (mailles de côtés avec :

où , et sont entiers positifs, et le domaine temporel est divisé en petits intervalles de


temps de telle sorte que .

Dans ce cas, la température au point à un temps donné est


représentée par :

En utilisant la méthode des différences finies, les différents termes de l'équation ci-dessus au
dérivées partielles s'écrivent au point :

et l'équation de la conduction discrétisée en trois dimensions devient :

86
En regroupant les différents termes de cette équation, on obtient :

Cette équation ne peut être résolue que par une méthode itérative (méthode de Gauss-Seidel
par exemple).

On pose :

La convergence de la solution recherchée est assurée si la quantité est strictement positive.


Ainsi, le pas de temps et les autres pas spatiaux ( , et ) sont reliés par :

Pour amorcer le calcul itératif, on ensemence le domaine de frontière par des valeurs
arbitraires ( par exemple), et on arrête les calculs quand la

condition est réalisée ( est une précision à fixer).

87
Quelques références bibliographiques à
consulter

• A. Gourdin & M. Boumahrat ; "Méthodes numériques appliquées" ; éditions


Techniques et Documentations Lavoisier, 1989.

• A. Ralston & P. Rabinowitz; "A first course in numerical analysis" ; éditions Presses
Universitaires de Grenoble, 1991.

• M. Sibony & J. Cl. Mardon ; "Ananlyse numérique I : Systèmes linéaires et non


linéaires"; éditions Herman, 1982.

• M. Sibony ; "Ananlyse numérique III : Itérations et approximations" ; éditions


Herman, 1988.

• M. Schatzman ; "Analyse numérique : cours et exercices pour la licence" ; Inter


éditions, 1991.

• J. Baranger ; "Introduction à l'analyse numérique" ; éditions Herman, 1993.

• J.C. Vaissière & J.P. Nougier ; "Programmes et exercices sur les méthodes
numériques" ; éditions Masson, 1990.

• J.P. Nougier ; "Méthodes de calcul numérique" ; éditions Masson, 3ème édition, 1993.

• J.P. Demailly ; "Analyse numérique et équations différentielles" ; éditions Mc Graw-


Hill, 2ème édition, 1978.

• J. Stoer & R. Bulirsch ; "Introduction to numerical analysis" ; éditions Springer-


Verlag, 1980.

• P. Lascaux & R. Theodor ; "Ananlyse numérique matricielle appliquée à l'art de


l'ingénieur : Méthodes directes"; Tome 1 ; éditions Masson, 2ème édition, 1993.

• P. Lascaux & R. Theodor ; "Ananlyse numérique matricielle appliquée à l'art de


l'ingénieur : Méthodes directes"; Tome 2 ; éditions Masson, 2ème édition, 1994.

88

Vous aimerez peut-être aussi