Académique Documents
Professionnel Documents
Culture Documents
FACULTE D’ARCHITECTURE ET DE GENIE CIVIL
DEPARTEMENT DE GENIE CIVIL
COURS DE METHODES
NUMERIQUES
M. B. BENMANSOUR
Chapitre I : Rappels sur les systèmes d’équations
linéaires - Inversion de matrices
Plan
1. Position du problème
2. Méthode du pivot
2.1. Méthode de GAUSS-JORDAN
2.2. Méthode de GAUSS
2.3. Cas des matrices bandes
3. Méthodes itératives
3.1. Méthode de JACOBI
3.2. Méthode GAUSS-SEIDEL
3.3. Facteur de relaxation
4. Inversion de matrices
1. Position du problème
2
si , et
La méthode du pivot est commode pour les systèmes denses d’ordre supérieur, ainsi que pour
les matrices bandes même d’ordre élevé. La méthode itérative est mieux adaptée aux autres
matrices d’ordre élevé et comportant de nombreux éléments nuls.
2. Méthode du pivot
C’est la méthode la plus utilisée. Pour la présenter, nous allons prendre l’exemple d’un
système de 4 équations à 4 inconnues :
3
Ainsi, on divise la ligne n° 1 du système par :
On annule le 1er terme de chacun des autres lignes : à la 2ème ligne, on retranche la 1ère
multipliée par , à la 3ème ligne, on retranche la 1ère multipliée par , à la 4ème ligne, on
retranche la 1ère multipliée par .
Le système devient :
a- La 2ème ligne est considérée maintenant comme une ligne pivot, et comme un
élément pivot. On répète sur cette 2ème ligne les opérations précédentes, et on obtient après
division de cette ligne par :
On annule les autres termes de la seconde colonne ; c’est à dire : à la 1ère ligne, on retranche la
seconde multipliée par , à la 3ème ligne, on retranche la 2ème multipliée par , à la 4ème
ligne, on retranche la 2ème multipliée par .
On obtient :
a- On considère ensuite la 3ème ligne comme pivot, puis la 4ème ligne ; ce qui donne :
4
soit la solution du système :
et
Pour chaque ligne , la ligne k+1 multipliée par est retranchée.
Résumé de la procédure :
5
2. La solution xi du système résultant s’écrit alors : ; avec
2.1.2. Exemple
K=1 k=1
Normalisation Réduction
K=2 k=2
Normalisation Réduction
6
K=3 k=3
Normalisation Réduction
• Une résolution du
système
triangulaire :
7
Cette solution nécessite environ n3/3 opérations.
Pour les pivots nuls ou petits, on est confronté aux mêmes difficultés signalées dans la
méthode précédente de GAUSS-JORDAN.
Ainsi, le système décrit par ces 3n données peut être résolu par la méthode de
triangularisation (méthode de Gauss).
3. Méthodes itératives
Nous allons décrire ces méthodes brièvement sans passer par des calculs ou des
démonstrations mathématiques complexes, car cela nous éloignera des objectifs du cours.
8
On donne aux inconnues les valeurs arbitraires initiales , , .
Si ces valeurs sont portées au second membre de la solution précédente, on obtient :
Ce nouvel ensemble porté dans le second membre des équations précédentes donne un autre
ensemble , , , et ainsi de suite.
C’est cette nouvelle valeur de x1, et non pas , qui est portée dans la 2ème équation du
système, donnant :
Lorsqu’une inconnue est utilisée, c’est automatiquement la plus récente valeur calculée. Ceci
assure une convergence des calculs bien plus rapide que la méthode de JACOBI.
On arrête les calculs lorsque les valeurs successives de xj sont suffisamment voisines.
Pour cela, on peut utiliser,
9
Pour les systèmes où les matrices qui sont de rang élevé, il n’est pas commode de faire le test
de convergence sur chaque inconnue xj.
Dans ce cas, on fait le test soit seulement sur certaines inconnues que l'on choisit, soit les
quantités suivantes :
ou ou ou
La convergence du procédé ne dépend pas du choix des valeurs initiales , mais seulement
des valeurs des coefficients.
On montre que la convergence est assurée si on a, pour chaque valeur de i (c’est à dire pour
Les méthodes itératives jouent un rôle très important dans la résolution numérique de
systèmes de grandes tailles et dans les systèmes (ou équations) non linéaires.
Selon la méthode de Cramer, une matrice A de rang n n’est inversible que si son déterminant
∆ est différent de zéro. Dans ce cas, le produit de A par la matrice inverse A-1 donne la matrice
unitaire I.
où
10
Exemple :
qui
On obtient en utilisant la méthode de vérifie
Cramer : que :
Pour , on a :
Pour
Pour
Exemple :
11
k =1
Normalisation ; Réduction
k =2
;
Normalisation
Réduction
k =3
;
Normalisation
Réduction
12
Chapitre II : Résolution des équations et systèmes non
linéaires
Application à la recherche de valeurs non nulles
des équations transcendantes
Plan
1. Introduction
3. Méthode de Newton-Raphson
5. Méthode de Bairstow
1. Introduction
On suppose que l’équation a été mise sous la forme : (ceci est toujours possible en
définissant par exemple puisque lorsque , ).
À partir d’une valeur initiale x1, que l’on se donne, on engendre la suite :
13
Si la suite des mesures x1, x2, x3,…, xn converge vers une valeur x0, alors
Supposons que l’équation admette une racine x0 sur l’intervalle [a,b]. On peut légitimement
supposer que f(x) prendra des valeurs sur cet intervalle. Si l’on n’ajoute pas d’hypothèses
supplémentaires, on ne peut être sûr de la convergence. Il est donc impossible de donner une
condition nécessaire sans expliciter la fonction f. C’est donc une étude de cas.
3. Méthode de Newton-Raphson
Cette méthode s’applique à des équations du type , pour lesquelles on peut calculer
la dérivée de f : f’(x). Soit x1 une valeur approchée de la racine s inconnue. Posons : x2=x1+h,
et cherchons l’accroissement qu’il faut donner à x1, de façon à ce que :
14
ou approximativement :
c’est à dire :
Sens de l’approximation :
donc :
• Si ,
x2 est plus proche de s que x1, et il est du même côté : x2 est donc une meilleure
approximation. Si la racine est simple, et si f’ conserve un signe constant au voisinage
de la racine, la suite est une suite monotone bornée par 0 ; elle converge,
donc l’algorithme converge.
• Si ,
x1 et x2 sont de part et d’autre de s : l’approximation x2 peut alors être moins bonne
que x1. mais si la racine est simple, f(x2) sera de signe contraire à celui de f(x1) : f(x1) et
f(x2) seront alors de même signe et l’algorithme converge.
15
4. Résolution d’une équation polynomiale
Donc :
Les valeurs de R et de S s’obtiennent donc au moyen des relations de récurrence qu’on établit
en égalant les puissances successives de x dans les diverses expressions du polynôme :
16
On peut remarquer que le calcul de R et de S est analogue à celui du calcul des
polynômes et .
Soit l’équation
:
Cet algorithme converge quelque soit la valeur de x1 d’initialisation, pourvu que .
4.2. Application à la recherche des valeurs non nulles des équations transcendantes
Dans le cas d'un problème unidimensionnel de conduction de la chaleur dans une barre par
exemple de longueur , la solution analytique de la température obtenue par la méthode
d'orthogonalisation est la somme d'une réponse en régime transitoire et d'une réponse en
régime permanent. Selon l'axe de la barre, cette solution est de la forme :
(1)
17
(2)
D'après ce graphe, on voit bien qu'il existe une solution par intervalle
où . Cette solution est l'intersection de la courbe avec celle de .
D'où pour l'intervalle comme cela est indiqué sur le graphique, on a les cinq racines
suivantes pour une valeur égale à du terme ( ):
18
5. Méthode de Bairstow
La méthode de Bairstow permet de calculer des racines réelles ou complexes d’une équation
polynomiale à coefficients réels. La méthode consiste à extraire (le plus exactement possible)
les racines (réelles ou complexes) deux à deux (à la fin, il en reste éventuellement une),
jusqu’à épuisement des n racines.
Soit à trouver les racines de l’équation polynomiale suivante :
Si r=S=0, alors f(x)=0 permet de donner (donc deux racines de f(x) déjà).
Ce système peut être non linéaire. On le supposera linéaire au voisinage de chaque couple
(p,q) fixé.
Si l’on pose :
19
et
Les expressions qui entrent dans le calcul de δ, P et Q vont être évaluées par étapes. Les
coefficients sont liés aux coefficients du polynôme initial par l’intermédiaire ses
relations suivantes :
Posant maintenant :
20
, avec k=0, 1, 2, …, n-1 et
Posons maintenant :
21
, pour
On en conclut alors :
et
On calcule δ, P et Q et on en déduit : et
22
Les deux premières racines ayant été extraites, on applique de nouveau la méthode de
Bairstow au polynôme quotient.
La méthode Newton peut s ‘appliquer à la résolution d’un système de plusieurs équations non
linéaires :
A partir d’un couple de valeurs approchées (x1,y1) d’une solution du système, on peut
déterminer deux accroissements h et k à donner à x1 et y1 de manière à ce que :
où l’on a posé : et
avec :
Le calcul est alors relancé jusqu’à ce que h et k deviennent inférieures à une valeur ε que l’on
se donne (selon la précision voulue pour le calcul).
Ainsi, l’algorithme correspondant est :
avec :
ou encore :
23
Cette méthode de résolution peut être généralisée pour la résolution de système de n
équations non linéaires à n inconnues.
Puisque les méthodes de minimisation d’une fonction (annulation de la dérivée, par exemple)
ne donnent pas forcément le minimum absolu d’une fonction, il est nécessaire de vérifier que
le minimum trouvé est bien la solution recherchée ; c’est à dire celle pour laquelle on
a .
24
Chapitre III : Interpolation Polynomiale -
Extrapolation
Plan
1. Position du problème
2. But de l’interpolation
1. Position du problème
Le modèle est vérifié pour tous les Le modèle est optimisé entre tous
doublets interpolation les doublets approximation
25
2. But de l’interpolation
Étant donnée une fonction f définie sur un intervalle fermé [a,b] de (a<b), pour n+1
valeurs de sa variable xi (i=0,1,2, …, n), mais inconnue ou d’expression très complexe en
dehors de ces valeurs ; il s’agit de calculer une fonction numériquement plus commode
à manier et qui coïncide avec la fonction pour les valeurs connues de f. la recherche peut
s’étendre au cas où la fonction f n’est même pas connue pour ses n+1 valeurs de définition,
mais où sont connues des valeurs de ses dérivées, par exemple. La fonction est
pratiquement une somme finie de n+1 fonctions de base linéairement indépendantes :
Enfin, pour une fonction périodique, la base formée par les fonctions sinus et cosinus paraît
tout à fait adaptée.
La méthode est ancienne, mais elle est parfaitement adaptée aux traitements informatiques.
Soit f une fonction définie sur un fermé [a,b] de (a<b), pour n+1 valeurs distinctes de sa
variable, cet ensemble étant désigné sous le nom partition (xi, ).
26
On cherche s’il existe un polynôme P(x), tel que , pour i variant de 0 à n+1
On a donc :
Ici, c’est le cas où m=n qui nous intéresse. La solution existe et est unique, car le déterminant
des coefficients ( ) est un déterminant de Van der Monde, non nul et qui vaut :
Recherche de la solution :
Considérons les polynômes (de Lagrange) suivants :
; où i=0 à n.
Le produit effectué sur les indices j tels que et .
; si
Il est clair que et que :
27
Donc, ces polynômes sont de degré n, et sont tels que :
Ils sont linéairement indépendants, puisque si :
Les n+1 polynômes de Lagrange forment une base de l’espace vectoriel des polynômes de
degré au plus égal à n. Sur cette base, on a :
Autres propriétés :
et si l’on pose :
on a alors :
28
où
Le tableau des coefficients forme une matrice, de rang n+1, appelée matrice régulière de
Lagrange. Ces matrices peuvent être tabulées.
Exercice :
Solution
Soit les données de la fonction f suivante :
0 1 2
1 -2 -1
où :
; où
i 0 0 1 1 2 2
j 1 2 0 2 0 1
D’où :
29
On a :
avec ,
On obtient alors :
On peut monter également les autres cas de matrices régulières d’ordre inférieur ou supérieur
(interpolation linéaire, cubique, etc.) :
interpolation linéaire
interpolation cubique
Suivant les auteurs et/ou suivant la conduite des calculs, les matrices régulières de Lagrange
peuvent être ces matrices ou leurs transposées.
30
4. Erreur de l’interpolation de Lagrange
Exercice :
Monter que les fonctions :
forment une base de l’espace vectoriel des polynômes de degré inférieur ou égal à n sur .
tel que :
On a :
, par convention de notation
Remarques :
31
Soit ensuite :
et : , par convention.
32
qui se généralise sous la forme :
33
Chapitre IV : Approximation - Lissage des
courbes -Méthode des moindres carrés
Plan
1. Principe de la méthode
3. Exemples de lissage
1. Principe de la méthode
Lors d’une expérimentation, on a obtenu les résultats suivant représenté sur le graphique ci-
dessous. Ces résultats sont les mesures physiques caractérisant, par exemple, la température
en fonction du temps.
On a et .
34
La fonction f(x) peut être représentée par une ligne passant par tous les points, par exemple en
utilisant l’interpolation de Lagrange. Du point de vue physique, ceci n’a pas de sens. Au
contraire, pour mieux représenter f(x) par une courbe, celle-ci doit passer entre les points
expérimentaux, voire ne passant par aucun d’entre eux comme c’est le cas de la figure ci-
dessus.
Une première méthode consiste à tracer ‘à l’œil’ la fonction g(x) censée représenter le mieux
possible f(x) décrite par les points expérimentaux. Évidemment, il est préférable d’avoir cette
représentation par une méthode plus sûre. Ainsi, on choisit une fonction g(x), censée
représenter f(x).
Dans le cas du graphique ci-dessus par exemple, g(x) est représentée par une droite de la
forme :
Dans ce cas, on cherche de telle sorte que s soit minimal. Ainsi, s est minimal
si et seulement si :
on obtient alors un système de (r+1) équations (pas forcément linéaires) à (r+1) inconnues
: qui peut être résolu par l’une des méthodes développées au chapitre I.
35
2. Lissage par un polynôme
soit :
soit :
En posant :
36
Ce système peut être résolu par la méthode du pivot par exemple. Pour la résolution, il est
fortement recommandé de travailler en double précision (si on n’utilise pas le langage
MATLAB), car à partir d’un polynôme de degré 7, les erreurs d’arrondi donnent des résultats
sans signification. En général, on utilise un polynôme de faible degré, et si c’est possible des
droites de préférence. Il est souvent utile pour cela de changer d’échelles (échelles
logarithmique ou semi-logarithmique par exemple).
3. Exemples de lissage
3.1. Cas d’une droite de régression (ou droite des moindres carrés)
Soit :
En posant :
37
Les solutions de ce système sont :
et g(x) devient :
Pour , on a :
Ainsi, a1 s’écrit :
avec :
En effet :
38
x
Exemple :
A la suite d’une série de mesures physiques, on a obtenu les résultats suivants dans le tableau
ci-dessous :
1 2 3 4 5 6 7 8 9 10 11
0,00 0,40 0,80 1,20 1,60 2,00 2,40 2,80 3,20 3,60 4,00
2,97 2,87 2,45 1,91 1,24 1,29 0,71 0,57 0,74 0,42 0,39
Solution :
On a :
La minimisation de S donne :
39
avec :
Dans la 2ème équation du système, on remplace A par sa valeur obtenue dans la 1ère équation,
et on obtient :
Cette équation est donc du type f(a) = 0, on peut la résoudre par la méthode de Newton par
exemple. Pour cela, on choisit une valeur arbitraire ‘ ’, et on calcule . En faisant
plusieurs itérations, on montre que :
d’où la fonction :
40
Chapitre V : Intégrations numériques
Méthodes d'intégration
Plan
1. Introduction
1. Introduction
Lorsque l’intégrale ne peut pas être évaluée analytiquement ou lorsque l’intégrale n’est pas
donnée sous forme analytique mais numériquement en un certain nombre de valeurs discrètes,
l’intégration numérique peut être utilisée.
Il existe plusieurs méthodes permettant d’évaluer les intégrales de fonctions bornées sur un
intervalle. La présence de singularité dans les fonctions (ou dans certaines fonctions) rend les
calculs parfois difficiles.
Cette méthode consiste à remplacer la courbe f(x) par une ligne brisée et à calculer l’aire de
chaque trapèze, ensuite faire la somme des aires sur l’intervalle sur lequel la fonction est
définie.
41
Dans ce cas, on a :
; et
Si est l’intervalle d’intégration de f(x), qui est divisé en n intervalles
: , on a :
Dans la suite, on suppose que tous les points sont régulièrement espacés :
D’où :
où
42
Pour la plupart des fonctions, on peut obtenir une meilleure approximation en estimant
simplement par :
Cette méthode est appelée la méthode des trapèzes avec corrections aux extrémités. En tenant
compte de cette correction, la méthode devient d’ordre 4. Cette méthode peut donc être
utilisée pour l’intégration d’une fonction donnée numériquement à intervalles discrets. f’(a) et
f’(b) peuvent être calculées par des différences finies par exemple.
avec
43
En posant , on obtient :
soit :
Cette intégrale nécessite que le nombre d’intervalles soit pair. En remplaçant dans l’intégrale
précédente les par leurs expressions, on trouve :
il vient alors :
soit finalement :
44
Cette méthode d’intégration est exacte pour l’intégration des polynômes jusqu’à l’ordre 3
inclus. La méthode de Simpson est une méthode d’ordre 4.
Exemple :
Les méthodes des trapèzes et de Simpson sont des cas particuliers des formules de Newton-
Cotes.
soit encore :
avec
Nom de la formule n A
Trapèzes 1 2 1 1
45
Simpson 2 3 1 4 1
Villarceau 4 45 14 64 24 64 14
Hardy 6 140 41 216 27 272 27 216 41
Remarque :
Les formules de Newton-Cotes ne doivent pas être utilisées pour ‘n’ élevé. La méthode de
Simpson est couramment utilisée.
C’est une méthode très précise. Elle utilise des points qui ne sont pas régulièrement espacés et
convenablement choisis. Lorsque la fonction est connue analytiquement ou lorsqu’elle
est tabulée numériquement en ces points précis, la méthode de Gauss peut être appliquée.
(a)
On obtient donc :
(b)
où et sont tabulés.
46
• on choisit la valeur n qui donne le nombre de points où la fonction doit être évaluée,
• on lit dans la table donnant et les n valeurs de qui sont deux à deux
symétriques par rapport à zéro (qui sont les racines du polynôme de Legendre d’ordre
n) qui correspondent à la valeur de n choisie,
• on calcule par l’équation (a), ensuite on évalue l’intégrale de (expression
(b)).
2 0,5773502692 1,0000000000
3 0,0000000000 0,8888888889
0,7745966692 0,5555555556
4 0,3399810436 0,6521451549
0,8611363116 0,3478548451
5 0,0000000000 0,5688888889
0,5384693101 0,4786286705
0,9061798459 0,2369268850
6 0,2386191861 0,4679139346
0,6612093865 0,3607615730
0,9324695142 0,1713244924
7 0,0000000000 0,4179591837
0,4058451514 0,3818300505
0,7415311856 0,2797053915
0,949079123 0,1294849662
Exemple :
Solution :
Analytiquement, on connaît : .
47
On choisit un , et on calcule les donnés par (d). On extrait ensuite les et les du
tableau précédent.
d’où :
Dans le cas précédent, on a soit le pas est constant, soit la fonction à intégrer est
donnée numériquement en des points qui ne sont pas régulièrement espacés et disposés de
façon quelconque.
Ainsi :
où et .
48
On obtient alors un système linéaire de n+1 équations à n+1 inconnues et dont les inconnues
sont les coefficients donnés par :
On remarque que lorsque n=1, on obtient la formule des trapèzes. Quand les points sont
différents les uns des autres, on obtient le système de Cramer avec une solution. Et lorsque les
points sont équidistants, on obtient la formule de Newton-Cotes. Pour obtenir une bonne
approximation de l’intégrale de , il est conseillé de ne pas prendre beaucoup de points,
car le polynôme d’interpolation devient dans certains cas une mauvaise approximation.
49
il faut s’assurer que cette intégrale converge.
peut être facilement évaluée par l’une des méthodes évoquées précédemment.
et .
seconde intégrale à une valeur finie. Mais cette technique introduit souvent une
singularité.
50
2.6.2. Singularité dans l’intégrale
La meilleure méthode pour traiter les singularités est de les éliminer si possible par l’une des
nombreuses techniques algébriques ; à savoir l’intégration par partie, le changement de
variables, etc. Si on doit calculer l’intégrale par la méthode de Simpson à pas constants,
l’intervalle d’intégration doit exclure la borne où la singularité apparaît.
Exemple :
Comme il est très difficile d’approcher une singularité par un polynôme, on partage en
deux intégrales :
La méthode de Gauss est la mieux adaptée en général parce qu’elle correspond à une
approximation par un polynôme de degré n élevé d’une part, et si, d’autre part, on choisit n
pair, on n’a pas besoin de la valeur de aux bornes.
51
si
et par suite :
52
Chapitre VI : Résolution numériques des équations
différentielles
Plan
1. Position du Problème
1. Position du Problème
Les méthodes analytiques ne sont pas suffisantes pour résoudre les problèmes d'équations
différentielles. En effet, il existe plusieurs types d'équation différentielles. Chaque type
nécessite une méthode de résolution particulière.
Les équations différentielles peuvent être classées en deux catégories : les équations
différentielles aux conditions initiales et les équations différentielles aux conditions aux
limites.
Exemples :
53
On donne en plus de cette équation différentielle les conditions initiales suivantes :
et
Dans cette équation, la variable indépendante peut être le temps, mais aussi toute autre
variable. Dans ce cas, on peut dire que toute équation différentielle d'ordre avec des
conditions initiales peut être remplacée par un système de équations différentielles couplées
avec :
où et
On obtient alors un système de équations à inconnues. Ce système peut être résolu par
rapport à une seule variable (le temps par exemple) :
Dans de nombreux cas, on trouve des problèmes où les conditions aux limites (ou les
conditions initiales) n'ont pas de sens physique.
54
2. Méthodes de résolution des équations différentielles
à l'ordre 1, on obtient :
Pour constant, on a :
est connue à , donc, la fonction y peut être déterminée à tout autre instant ultérieur.
Exemple :
car
55
Dans le tableau ci-dessous, donne une comparaison entre la solution numérique et la solution
exacte obtenue analytiquement pour un pas de temps s:
D'après ce tableau, on remarque que l'erreur augmente au fur et à mesure que augmente.
Donc, cette méthode est peu précise. Elle n'est pas utilisée dans la résolution numérique des
équations différentielles. Nous l'avons utilisée pour introduire les autres méthodes et donner
une simple idée sur l'erreur commise.
Les méthodes de Runge-Kutta sont bien utilisée dans la pratique, car elles présentent plusieurs
avantages (facilité de programmation, stabilité de la solution, modification simple du pas et la
connaissance de suffit pour intégrer l'équation différentielle). Les inconvénients de cette
méthode se résument au temps de calcul lent et à la difficulté de l'estimation de l'erreur locale.
Cette méthode est obtenue en prenant les différences centrées au 1er ordre :
56
Pour évaluer , la fonction doit être calculée deux fois, d'où l'appellation "Formule
d'ordre 2" : la première fois pour l'obtention de et la seconde fois pour évaluer .
Dans la plupart des cas, la méthode de Runge-Kutta utilisée est celle d'ordre 4 :
Le calcul de nécessite alors 4 évaluations de la fonction , et par suite pour les fonctions
compliquées le temps de calcul devient important.
Cette méthode est l'une des catégories à pas multiples. Elle peut être classée en formules
ouvertes ou formules fermées.
(1)
57
Dans l'équation différentielle (1), on a :
où :
(2)
(3)
(4)
On remplace par son expression en fonction des différences finies à gauche, et on obtient :
58
et l'expression (3) devient :
ou encore :
Les termes d'ordre 3 sont négligés. Donc, la formule est d'ordre 2. Pour calculer , il faut
connaître et . On remarque que ne peut pas être déterminée car on ne connaît
pas . Pour démarrer cette méthode, il faut utiliser une autre méthode pour évaluer
(méthode de Runge-Kutta à l'ordre 2 par exemple).
En utilisant le même principe, on peut exprimer, par une formule générale d'ordre ,
en fonction de et :
59
(4)
Dans le tableau suivant, on donne les valeurs de jusqu'à , ce qui correspond à une
formule d'ordre 6.
0 1 2 3 4 5 Ordre de la méthode
0 1 1
1 2
2 3
3 4
4 5
5 6
60
D'où pour , on a :
Ainsi, on obtient :
Cette formule est dite "fermée" car pour obtenir l'inconnue , il faut
calculer qui dépend lui même en général de . On utilise donc une
méthode itérative. Pour cela, on injecte une première valeur estimée de .
Ensuite, on injecte pour calculer . On arrête les calculs quand la convergence est
réalisée. Si cette convergence s'effectue quand la précision est inférieure à une valeur
donnée, on a donc :
61
Les valeurs de sont donnée par le tableau ci-dessous jusqu'à .
0 1 2 3 4 5 Ordre de la méthode
0 1 1
1 2
2 3
3 4
4 5
5 6
On constate que les formules fermées, qui sont itératives, demandent plus de temps de calcul
que les formules ouvertes, puisqu'il faut calculer de telle sorte que la différence
converge vers .
Pour le même ordre, ces formules sont bien plus précises et plus stables que celles dites
"ouvertes". Leur convergence est d'autant plus rapide que l'estimation initiale est plus
proche de la valeur exacte .
62
Pour la méthode d'Adams au 4ème ordre, on a :
Prédicteur : formules d'Adams ouvertes au 4ème ordre :
(5)
(6)
Correcteur : obtenu à partir de la formule d'Adams fermée (au 4ème ordre par exemple) :
(7)
Les valeurs , et peuvent être calculées à partir des formules de Runge-Kutta. Étant
donné que n'existe pas, la valeur est calculée à partir des équations (5) et (6) et
va initialiser les calculs d'itérations (formule (7)). À partir de , on estime par
l'équation (5), puis par la formule (6). Cette valeur est injectée dans la formule (7) pour
amorcer les itérations.
Exercice :
Résoudre l'équation différentielle suivante par la méthode de Runge-Kutta à l'ordre 4, puis par
la méthode de prédicteur-correcteur d'ordre 4 en se limitant à une itération pour le correcteur.
On prendra et on comparera les résultats obtenus par les deux méthodes pour par
exemple :
63
initiales ne peuvent se concevoir que pour des équations différentielles d'ordre au moins égal
à 2, ou pour les systèmes d'équations différentielles du 1er ordre.
(8)
où est arbitraire
Ainsi, le problème devient une équation dont on est amené à chercher sa racine.
(9)
64
Exemples :
• soit le système d'équations du 1er ordre suivant avec des conditions aux limites :
Cette équation du 3ème ordre peut être ramenée à un système de 3 équations du 1er ordre, en
posant :
d'où :
avec :
Ce système est à conditions aux limites. Pour le résoudre, on le transforme en un système aux
conditions initiales :
avec :
65
Ce système peut être résolu par l'une des méthodes décrites précédemment (prédicteur-
correcteur avec initialisation ou Runge-Kutta) ensuite on détermine la valeur de pour
que soit égal à 1.
(10)
Si l'équation est à coefficients dépendants de l'inconnue, peut s'écrire sous la forme suivante
par exemple :
et on remplace l'ensemble des conditions aux limites par des conditions initiales.
(11)
On suppose connues :
66
On divise l'intervalle en intervalles égaux à .
équation qui peut être écrite aussi sous la forme suivante la plus simple :
67
Ce système est défini par une matrice tridiagonale. Sa résolution est simple et rapide : (
équations à inconnues ). Pour aboutir à la précision recherchée, on résout le
système plusieurs fois avec des pas , etc. jusqu'à la convergence souhaitée.
68
Chapitre VII : Calculs des équations aux
dérivées partielles
Plan
1. Position du Problème
6. Équations elliptiques
1. Position du Problème
Dans la pratique, la plupart des équations aux dérivées partielles sont du premier ou du second
ordre à deux variables indépendantes, et l’extension de ces équations à un ordre plus élevé ne
pose aucun problème pour la résolution. Si est une fonction des variables et , alors les
Dans la suite, nous exprimons ces quantités en fonction de leurs expressions établies à l’aide
des différences finies. Les contours du domaine de la fonction permettent de donner les
conditions aux limites.
69
2. Expression des dérivées partielles
Pour calculer , on utilise les points situés de part et d’autre de . Considérons les
développements en séries de Taylor autour de , de la fonction :
partielles premières :
soit :
(1)
On a également :
soit :
(2)
70
En additionnant les développements en séries de Taylor des fonctions et
à l’ordre 2, on obtient les dérivées partielles secondes :
soit :
soit :
Pour l’obtention des dérivées croisées, par exemple, on applique successivement les
équations (1) et (2) :
Soit :
71
3. Conditions aux limites
Dans le cas de plusieurs variables indépendantes, la limite représente le contour dans le cas de
deux variables, la surface dans le cas de trois variables, etc. En général, on impose sur le
contour (en tout point), des conditions portant soit sur la fonction (problème de Dirichlet),
Dans la majorité des cas, le contour est constitué (ou approché) par des segments de droites
qui suivent le maillage. Les conditions aux limites s'expriment de la même façon que dans le
cas des équations différentielles (chapitre précédents).
Un contour quelconque est remplacé par la ligne polygonale la plus voisine. Dans le cas de la
figure 3 ci-dessous, c'est Aa, bB, Cc, dE, Ee, etc. Ainsi les équations du paragraphe précédent,
faisant intervenir les dérivées partielles, et écrites pour tous les points intérieurs A,B, C, etc.,
font intervenir les points extérieurs a, b, c, etc. Les conditions aux limites fournissent des
conditions supplémentaires sur ces points extérieurs.
72
Fig. 3 : Contour quelconque
On s'intéresse ici aux équations du premier ordre qui sont quasi-linéaires et de la forme :
où
Les courbes et obtenues à partir de ces équations sont appelées des courbes
caractéristiques.
La méthode caractéristique consiste à remplacer l'équation aux dérivées partielles précédente
par un ensemble d'équations de la forme :
73
• ou encore qui, une fois intégrée compte tenu de la constante
d'intégration, donne l'équation .
Exemple 1:
(3)
D'après la première équation du système (3), les caractéristiques sont des droites parallèles.
Ainsi, l'expression de devient :
74
Les constantes et (ou ) sont déterminées à partir des conditions aux limites.
Exemple 2:
Soit à résoudre l'équation différentielle suivante :
D'où :
D'où la solution :
75
(4)
(5)
1)
76
et par intégration, on obtient les valeurs de et de le long des caractéristiques.
(6)
Posons :
et :
(7)
avec :
(8)
Les équations (7) et (8) comportent 3 inconnues , et . La solution n'est pas unique
si .
77
soit :
(9)
Lorsque l'équation (10) est vérifiée, le système (7) et (8) n'admet pas de solution sauf si les
autres déterminants du système sont nuls : c'est à dire en remplaçant dans le déterminant
précédent la deuxième colonne par la colonne du second membre de l'équation :
(10)
Pour pouvoir utiliser la méthode des caractéristiques, il faut que les racines de l'équation (9)
soient réelles.
En conséquence, les 3 cas suivants présentent :
• si , l'équation (9) n'a pas de racines réelles, et l'équation (6) est dite
elliptique .
• si , l'équation (9) admet une racine réelle double, et cette équation est dite
propagation ).
6. Équations elliptiques
Dans cette partie, on montre comment on discrétise une équation aux dérivées partielles
elliptique avec des conditions aux limites, dans le but de la transformer en un système de
équations à inconnues.
La mise en équation à l'aide des différences finies comporte les étapes suivantes :
78
• on définit un maillage couvrant le domaine et sa frontière,
• en tout nœud intérieur au domaine, on exprime les dérivées partielles à l'aide des
différences finies (ces termes contiennent des points situés sur la frontière),
• on exprime les valeurs de la fonction en tout point sur la frontière en tenant compte
des conditions aux limites.
Exemple :
et
79
• On vérifie bien que cette équation fait intervenir les points à la frontière (
à et à ).
• On exprime les conditions aux limites portant sur , , et .
D'après les conditions aux limites imposées, l'équation précédente s'écrit pour et :
Pour à , on a :
à l'ordre 4 s'écrit :
Soit :
80
Pour , on obtient :
Principe de la méthode :
Après multiplication par et regroupement des termes, l'équation discritisée peut s'écrire
sous la forme :
Pour , on obtient :
Dans le cas de l'équation de Laplace, le procédé converge toujours. Pour d'autres équations
plus compliquées, ce procédé de convergence pourra diverger. Dans ce cas, on utilise un
facteur de relaxation . En général, la convergence est plus rapide lorsqu'on utilise un
81
procédé de relaxation (où ).
sur la domaine
Pour des valeurs non nulles de , les dérivées secondes de par rapport à et
s'écrivent sous la forme discrétisée suivante :
82
En utilisant les différences centrées, peut s'écrire au point sous la forme :
quand
83
La rotation des axes et autour de conduit au mêmes résultats (équation de la
chaleur en coordonnées cartésiennes discrétisée). En considérant comme la moyenne
arithmétique des températures autour du cercle de rayon , l'équation précédente devient :
en
pour
84
En coordonnées cylindriques, l'équation de la conduction de la chaleur est donnée par
l'expression suivante :
Pour , on a :
en
85
8. Discrétisation de l'équation de la Conduction en régime instationnaire
Pour résoudre cette équation aux dérivées partielles en utilisant la méthode des différences
finies, on utilise un maillage cubique (mailles de côtés avec :
En utilisant la méthode des différences finies, les différents termes de l'équation ci-dessus au
dérivées partielles s'écrivent au point :
86
En regroupant les différents termes de cette équation, on obtient :
Cette équation ne peut être résolue que par une méthode itérative (méthode de Gauss-Seidel
par exemple).
On pose :
Pour amorcer le calcul itératif, on ensemence le domaine de frontière par des valeurs
arbitraires ( par exemple), et on arrête les calculs quand la
87
Quelques références bibliographiques à
consulter
• A. Ralston & P. Rabinowitz; "A first course in numerical analysis" ; éditions Presses
Universitaires de Grenoble, 1991.
• J.C. Vaissière & J.P. Nougier ; "Programmes et exercices sur les méthodes
numériques" ; éditions Masson, 1990.
• J.P. Nougier ; "Méthodes de calcul numérique" ; éditions Masson, 3ème édition, 1993.
88