Académique Documents
Professionnel Documents
Culture Documents
Version 1
1
Résumé
Ces notes de cours ne présentent qu’un résumé du contenu. Plusieurs exemples, figures et
démonstrations seront présentés lors du cours magistral, travaux dirigés et pratiques.
2
TABLE DE MATIERES
Chapitre 1 : Analyse d’erreurs
Chapitre 2 : Résolution numérique des équations non linéaires
Chapitre 3 : Résolution des systèmes d’équations linéaires : méthodes directes
Chapitre 4 : Résolution numérique des systèmes non linéaires
Chapitre 5 : Interpolation - Approximation
Chapitre 6 : Dérivation numérique
Chapitre 7 : Intégration numérique
Chapitre 8 : Résolution numérique des équations différentielles
3
Calculs numériques approchés
Chapitre 1
1. Sources d’erreur
Lors de tout calcul numérique, deux sources d’erreur interviennent de manière systématique :
Erreurs d’arrondi : comme la capacité mémoire d'un ordinateur est finie, il est donc
nécessaire de représenter les nombres réels sous forme approchée, en outre il n’est pas
possible de représenter tous les réels dans un ordinateur .
Pour un ordinateur toute information est un mot ou une séquence de bits (32 ou 64), un bit
prenant la valeur 0 ou 1.
On peut conclure que, les nombres entiers peuvent être représentés exactement dans un
ordinateur.
Si tous les calculs peuvent se faire en nombres entiers, on parle d’arithmétique en nombres entiers.
Le rapport 1/3 nécessite un nombre infini de chiffres pour représenter le résultat. Dans la pratique,
on fera appel à l’arithmétique en virgule flottante pour représenter une approximation du résultat.
On utilise les nombres à virgule flottante (ou encore la notation scientifique) dès qu'il faut écrire
un nombre très grand ou très petit en valeur absolue. Dans un ordinateur, une variable réelle
est représentée de la façon suivante :
avec n est la mantisse, b la base et e est l’exposant. Dans un ordinateur, la base est toujours égale à
2.
4
Pratiquement on partitionne le mot en deux parties, l’une contenant e et l’autre contenant n. (Le
premier bit è gauche indique le signe).
Par conséquence, nous ne disposerons que d’un nombre limité de bits pour représenter les entiers n
et e.
Soit t le nombre de bits disponibles pour coder la mantisse. En base 2, on peut alors coder les
entiers allant de 0 à ∑ .
.
2.1 Normalisation
Exemple 1 :
x= 0 0 1 2 3 *
Ou
x= 1 2 3 4 5 *
En rajoutant 1 à droite (ce qui change le signe ≤ en <) et en multipliant la mantisse par , la
valeur normalisée de la mantisse n variera dans l’intervalle
L’ensemble des nombres en virgule flottante F que l’on peut ainsi représenter constitue un sous-
ensemble de . Si l’on représente la mantisse avec un mot de t bits, les éléments f F sont définis
par :
1 …
5
| | avec et
En reportant ces nombres sur une droite on observe que les nombres en virgule flottante
ne sont pas trop espacés.
Pour décrire l’ensemble des nombres réels qui trouvent une représentation dans F on définit
l’ensemble
{ | | } { }
|| | |
{
Exemple 3
6
3. underflow si |a op b| < m).
Dans le standard IEEE (Institute of Electrical and Electronics Engineers) les situations d’overflow
et underflow ne provoquent pas l’arrêt des calculs. Un overflow produit l’infini qui se propage
dans la suite des calculs et un underflow peut produire le résultat zéro.
Référence.
Plusieurs indicateurs peuvent caractériser la précision d’un système de représentation des nombres
réels en virgule flottante, on présente souvent les mesures suivantes :
Notons toutefois que, même si ces nombres diffèrent légèrement entre eux et dépendent du schéma
d’arrondi, tous donnent une mesure qui caractérise la granularité du système en virgule flottante.
La précision machine d’une arithmétique en virgule flottante est définie comme le plus petit
nombre positif eps tel que :
La valeur de eps pour une machine avec des mots dont la mantisse comporte t bits et lorsqu’on
arrondit selon la technique dite chopping. Le nombre 1 et le plus proche nombre suivant
s’écrivent :
La distance qui sépare le nombre 1 du plus proche nombre suivant est égale à .
La précision machine définit le nombre de digits significatifs d’un nombre réel dans sa
représentation en virgule flottante. Dans un mot de 32 bits , on réserve en général 23 bits pour la
mantisse ce qui donne :
eps = ≈ 2.38×
1+eps = 1.000000238
7
ce qui donne 8 digits significatifs. Dans ce cas, il est inutile de lire ou imprimer des réels de plus que
8 digits.
4. Mesures de l’erreur
On peut envisager plusieurs façons pour mesurer l’erreur e entre une valeur approchée ̂ et une
valeur exacte x.
Erreur absolue
|̂ |
Remarquons qu’avec ̂ = 3 et x = 2 : l’erreur absolue vaut un, ce qui dans ce cas ne peut être
considéré comme “petit”. Par contre la même erreur absolue avec ̂ = + 1 et x = peut
certainement être considérée comme relativement “petite” par rapport à x.
Erreur relative
|̂ |
| |
L’utilisation de l’erreur relative pose des problèmes lorsque x prends des valeurs qui sont proches
de zéro. Pour pallier à cet inconvénient on utilise souvent dans la pratique la mesure suivante :
|̂ |
| |
En pratique, il est difficile d’évaluer les erreurs absolue et relative, car on ne connaît généralement
pas la valeur exacte de x et l’on n’a que ̂ . Pour les apprécier on introduit la notion de majorant
de l’erreur absolue et de l’erreur relative.
| ̂| ̂ ̂
8
|̂ |
| |
9
Chapitre 2 : Résolution numérique des équations non linéaires
Chapitre 2
L’objectif de ce chapitre est de s’approcher le plus près possible de la solution
quand elle existe, d’un système non linéaire. Il s’agit principalement de Résoudre
f (x) = 0 , lorsqu'une solution analytique explicite est impossible
1. Introduction
Il existe plusieurs méthodes numériques (dichotomie, point fixe, Newton, Lagrange) conduisant à
chercher numériquement les zéros de fonction d’une variable réelle. La majorité de ces
méthodes sont itératives. En d’autres mots, elles calculent des approximations successives , ,
, ... de la véritable racine de l’équation , à partir d’une valeur initiale plus au
moins bien choisie. Ce qui les distingue, entre autre, c’est leur vitesse de convergence et leur
robustesse.
On considère une fonction réelle f définie sur un intervalle [a, b], avec a < b, et continue sur cet
intervalle et on suppose que f admet une unique racine sur I =]a, b[,
2. Méthode de dichotomie
Le principe de la méthode de dichotomie, encore appelée méthode de bissection, est basé sur le
théorème de la valeur intermédiaire. La méthode est décrite comme suit : soit, [ ] , une
fonction continue sur l’intervalle [ ] . Si f(a)*f(b) , il existe donc au moins une racine de f(x)
appartenant à l’intervalle [ ]
On prend tel que :
Algorithme
Ce processus de division, par deux, de l’intervalle (à chaque itération on divise l’intervalle par
deux) de la fonction est réitéré jusqu’à la convergence pour la tolérance considérée. Ainsi, pour la
nième itération, on divise : [ ] en [ ] et [ ], avec à chaque fois
10
3. Méthode du point fixe
Définition
Soit g une fonction continue sur [a, b]. On appelle point fixe de la fonction g tout point x de [a, b]
vérifiant g(x) = x.
Soit g : [a, b] −→ [a, b] une fonction continue. Alors la fonction g(x) admet au moins un point fixe
dans [a, b].
Pour approcher les racines de f (x) = 0 par la méthode du point fixe on cherche donc une fonction g
telle que
f (x) = 0 g(x) = x
Exemple 1
La méthode du point fixe consiste à construire à partir d’une approximation initiale la suite des
nombres tel que :
[ ]
3.1 Convergence
Alors
(a) est unique.
(b) [a, b], la suite définie par converge
Si g est dérivable, il est souvent plus commode d’exprimer une condition suffisante sur la dérivée
que de vérifier directement que g est une application contractante.
Propriété
Soit g une fonction dérivable sur [a, b]. Si vérifie | | [ ] [a, b], alors g est
strictement contractante dans [a, b].
Théorème
11
b) g([a, b]) [a, b],
Alors
1. La fonction g(x) admet un unique point fixe dans [a, b].
2. Pour tout [a, b], la suite définie par : pour n supérieur à 1,
converge vers lorsque
Définitions
| |
La méthode du point fixe est dite d’ordre r si | |
a une limite finie quand n tend
vers l’infini.
On dit que la suite (en) converge avec un ordre de convergence égal à r s’il existe une constante C >
0 telle que :
| |
| |
pour n assez grand
Il est souvent délicat de déterminer un intervalle [a, b] dans lequel les hypothèses (a) et (b)
du théorème du point fixe sont vérifiées
.
Pratique utile
Soit g : une fonction de classe et soit un point fixe de g tel que | | . Alors,
il existe un voisinage I de tel que la suite définie par avec I, converge
vers .
De plus
1. Si , la convergence est géométrique
2. S’il existe un entier r tel que g soit de classe au voisinage de
et si
,
alors, la convergence est d’ordre r
4. Méthode de Newton
La méthode de NEWTON est une méthode d’analyse numérique pour trouver les approximations
successives des zéros d’une fonction à valeurs réelles. Ceci dit, on peut l’étendre aux fonctions à
valeurs complexes, ainsi qu’aux systèmes d’équations. Même si NEWTON étudiait les polynômes
à l’origine, sa méthode fonctionne bien pour des fonctions suffisamment régulières, comme les
fonctions
Il est évident que si h(x) est une fonction non nulle, alors x est une solution de f (x) = 0 si et
seulement si x est un point fixe de :
12
g(x) = x + h(x) f (x)
La méthode consiste alors à choisir la fonction h(x) de telle sorte que la méthode des
approximations successives appliquée à la fonction g(x) soit d’ordre deux. C’est à dire tel que
Convergence
Pour la vitesse de convergence, on suppose que la fonction f est de classe sur I = [a,b], que l’on
a f(a)f(b) < 0 et que les fonctions f’ et f’’ sont toutes deux strictement positives sur [a,b]. Ceci nous
garantit l’existence et l’unicité d’une racine simple de f sur [a,b]. On a donc f( ) = 0 et ( )
0.
Théorème
| | | |
| | | |
5. Méthode de la sécante
Cette méthode est également appelée méthode de Lagrange, méthode des parties proportionnelles
ou encore regula falsi.
13
La méthode de la sécante consiste à
construire une suite (xn) qui converge vers a
de la manière suivante : soit la droite
passant par (a, f (a)) et (b, f (b)), elle coupe
l’axe Ox en un point d’abscisse de ]a,b[.
On approche donc la fonction f par un
polynôme P de degré 1 et on résout P(x) = 0.
Ensuite, suivant la position de a par rapport à x0, on considère la droite passant par (a, f (a)) et
( , f ( )) si f ( ) f (a) < 0 ou celle passant par ( , f ( )) et (b, f (b)) si f ( ) f (b) < 0. On appelle
l’abscisse du point d’intersection de cette droite avec l’axe Ox. On réitère ensuite le procédé.
La méthode de la sécante est une variante de la méthode de Newton. En effet, la dérivée est
remplacée par la pente
[ ]
{
Théorème
On considère f : une fonction de classe et un zéro de f(x) tel .Alors il existe
un voisinage de I tel que la suite définissant la méthode de la sécante existe et converge vers .
De plus , si
Avec √
Code Matlab
% Méthode de la sécante
% Résolution de l’équation x - 0.2sin(x) - 0.5 = 0
f=inline('x-0.2*sin(x)-0.5'); % Fonction dont on cherche un zéro
x(1)=0; x(2)=1; % Valeurs initiales : 2 précurseurs de la suite
% Boucle calculant 8 valeurs de la suite : (3), x(4), ... , x(11)
for n=1:8
F=f(x(n+1)); % Pour ne pas évaluer 2 fois f(x(n+1)) !
x(n+2)=x(n+1)-F*(x(n+1)-x(n))/(F-f(x(n)));
end
format long
y=f(x); % Evaluation des images par f de la suite des x
[x' y'] % Affichage de la suite et de son image
14
ACCÉLÉRATION DE LA CONVERGENCE
15
Chapitre 3
La résolution des systèmes linéaires est considérée comme l’un des deux problèmes
fondamentaux de l’Analyse Numérique Matricielle, et cette résolution intervient
dans divers domaines
Introduction
Soit A une matrice carrée d’ordre n à coefficients réels inversible et soit b un vecteur. On cherche
un vecteur tel que
Ax = b (3.1)
On suppose que la matrice A, de coefficients (aij) est inversible, i.e., qu’il existe une matrice notée
, dite matrice inverse de A, telle que :
; I : Matrice identité:
Les techniques directes ramènent la résolution d’un système linéaire quelconque à celle d’un
système triangulaire. Pour chaque méthode, il est important de considérer deux aspects :
le nombre d’opérations arithmétiques nécessitées par la méthode : il est montré, par
exemple, que la méthode de Cramer est inutilisable numériquement ;
l’influence des erreurs d’arrondi sur la précision de la méthode.
L’idée des méthodes directes est de se ramener à la résolution d’un (ou de deux) système(s)
triangulaire(s).
Supposons que A soit une matrice triangulaire supérieure. Le système s’écrit alors :
Puisque A est supposée inversible, aucun des ai;i n’est nul et on peut résoudre ce système en
utilisant l’algorithme de substitution rétrograde (ou substitution arrière) suivant :
16
Entrées : ( ) une matrice triangulaire supérieure et
Sortie : tel que Ax=b
1.
2. Pour i de (n-1) à 1 par pas de -1, faire
3. Retourner
Dans la suite de ce chapitre, nous allons considérer la Méthode de Gauss : le principe est de réduire
le système à (M A) x = M b avec M A triangulaire supérieure sans calculer explicitement M. On se
ramène donc à la résolution d’un système triangulaire supérieur. Cette méthode est associée à la
factorisation A = L U de la matrice A avec L triangulaire inférieure (Lower) et U triangulaire
supérieure (Upper). Nous donnerons aussi un aperçu sur la méthode de Cholesky en fin de ce
chapitre
Algorithme
avec
Sous une hypothèse précisée plus loin, la première étape élimine dans les (n – 1) dernières
équations, la deuxième étape élimine dans les (n – 2) dernières équations et ainsi de suite, la pe
étape avec { } élimine dans les (n – p) dernières équations, jusqu’à l’élimination
de . Supposons qu’à l’étape p avec { }, le système linéaire s’écrive :
17
On écrira :
⁄ (3.2)
, j=p,…,n (3.3)
(3.4)
si ou si est très petit : lorsque A est inversible, il existe toujours (au moins)
un indice { } tel que . On permute alors la ligne p du système
linéaire avec une la ligne (ceci revient à permuter les lignes p et de A et b) avant
d’appliquer les formules (3.2) à (3.4).
Par conséquent, si pour { }, il existe un pivot non nul alors est une matrice
triangulaire supérieure. La résolution numérique de ce système est présentée au début du présent
chapitre.
Remarque
Par une étude de propagation d’erreur, on montre que l’on a intérêt à choisir le pivot de module le
plus grand possible afin d’améliorer la stabilité de la méthode.
Pour passer de l’étape p à l’étape p +1, le pivot choisi est un élément de plus grand module dans la
sous-matrice :
18
| | | |
C’est la méthode la plus stable, mais, en plus des permutations de lignes de A et b, elle nécessite
des permutations de colonnes de A et donc un changement de numérotation des inconnues.
Pour passer de l’étape p à l’étape p +1, le pivot choisi est un élément de plus grand module dans la
partie de la colonne p d’indice de ligne supérieur ou égal à p, c’est-à-dire dans l’ensemble
{ }. Le pivot choisi est donc un coefficient de la matrice A d’indices tel que :
| | | |
3. La méthode de Cholesky
La méthode de Cholesky est bien connue en analyse numérique. Soit à résoudre le système
d’équations linéaires :
Ax = b
où la matrice A est carrée, symétrique et définie positive. Cette méthode consiste à décomposer la
matrice A en un produit :
où B est une matrice triangulaire inférieure (c’est-`a-dire dont tous les éléments au-dessus de la
diagonale sont nuls) dont les termes diagonaux sont strictement positifs. Le système devient alors :
Les éléments de la matrice B s’obtiennent en identifiant les éléments correspondants dans les
matrices A et . En effet, B peut s’écrire :
19
∑
On en déduit :
20
Chapitre 4
Une classe importante de méthodes de résolution de systèmes linéaires est celle des
méthodes itératives qui donnent la solution du système comme limite d’une suite de
vecteurs.
Mx Nx b
Ou encore :
x M 1 Nx M 1b
(i )
Pour la résoudre nous calculerons par récurrence la suite des vecteurs x à partir d’un vecteur
x ( 0 ) , en choisissant la relation indiquée ci-dessous :
a11 0 ... 0
0 b ... 0
D 22
21
0 0 ... 0
a 0 ... 0
E 21
... ... ... ...
a n1 an2 ... 0
La matrice triangulaire supérieure –F
‖ ‖ ∑
On dira alors que la méthode itérative (1) converge s’il existe un vecteur tel que
‖ ‖
Définition
Soit A une matrice carrée d’ordre n. On appelle rayon spectral de A (on note (A)) la plus grande
valeur propre en module, i.e.
{| | }
Théorème
La méthode itérative converge si et seulement si
22
3.1. La Méthode de Jacobi
On suppose que A est une matrice inversible dont aucun élément de la diagonale est nul (
aii 0, i
). Cette méthode consiste à isoler le coefficient de la diagonale de chaque ligne du
système, si l’un des coefficients diagonaux est nul, il est parfois possible de permuter certaines
lignes pour éviter cette situation.
On pose : A = M - N
La relation de récurrence est la suivante :
x ( k 1) M 1 Nx ( k ) M 1b
avec M = D, N = E+ F, nous obtenons la relation suivante :
x ( k 1) D 1 ( E F ) x ( k ) D 1b
Par calculs successifs, la relation de Jacobi est la suivante :
n a ij bi
( k 1)
xi x (jk )
j 1 aii aii
j 1
Exemple 1
3 x1 x 2 x3 2
x1 5 x 2 2 x3 17
2 x1 x 2 6 x3 18
Suivant la formule décrite précédemment, la méthode de Jacobi s’écrit dans ce cas pour la
(0)
première itération à partir d’un vecteur x [0 0 0] :
1 2 1 17 8
x11 (2 0 0) x12 (2 3)
3 3 3 5 15
1 17 1 2 17
x12 (17 0 0) x22 (17 2(3))
5 5 5 3 5
1 1 2 17
x31 (18 0 0) 3 x32 (18 2( ) ) 2,655
6 6 3 5
23
k x1k x 2k x 3k
Comme pour la méthode de Jacobi, le but de la méthode de Gauss-Seidel est de résoudre le système
d’équation de la forme A x = B de manière itérative
On suppose cette fois que la matrice D est une matrice inversible dont aucun élément de la
a 0, i
diagonale est nul ( ii ). Cette méthode consiste à isoler le coefficient de la diagonale de
chaque ligne du système, si l’un des coefficients diagonaux est nul, comme pour la méthode de
Jacobi, il est parfois possible de permuter certaines lignes pour éviter cette situation.
La relation de récurrence est la suivante :
x ( k 1) M 1 Nx ( k ) M 1b
avec M = D- E, & N = F,, nous obtenons la relation suivante :
x ( k 1) ( D E ) 1 Nx ( k ) M 1b
En général, on décompose A en –E, +D, -F, les deux méthodes de Jacobi et de Gauss-Seidel se
distinguent dans la répartition des blocs entre E, D et F entre M et N
x ( k 1)
Par rapport à Jacobi, on utilise les j
, avec 1 j i 1 , déjà calculés. Ainsi, nous verrons
lors des simulations que Gauss-Seidel converge plus rapidement que Jacobi.
24
Par calculs successifs, la relation de Gauss-Seidel est la suivante :
1 i 1 n
bi aij x (jk 1) a
( k 1) (k )
xi ij x j
aii j 1 j 11
Exemple 2
3 x1 x 2 x3 2
x1 5 x 2 2 x3 17
2 x1 x 2 6 x3 18
Suivant la formule décrite précédemment, la méthode de Gauss-Seidel s’écrit dans ce
(0)
cas pour la première itération à partir d’un vecteur x [0 0 0] :
1 2 1 49 241
x11 (2 0 0) x12 (2 ) 0.47
3 3 3 15 90
1 2 49 1 241
x12 17 0 x22 17 0.47 2 2.235
5 3 15 5 90
1 2 49 241 1
x32 (18 2(0.47) 2.235) 2,784
x31 18 2 6
6 3 15 90
k x1k x 2k x 3k
25
9 0.99955 2.00030 2.99980
10 0.99983 2.00011 2.99993
On constate que pour un même nombre d’itérations, la solution approximative obtenue
par la méthode de Gauss-Seidel est plus précise. Les valeurs convergent vers la solution x=
[1 2 3] avec une convergence plus rapide.
26
Chapitre 5 : Interpolation polynomiale
Chapitre 5
Exemple 1
Les fonctions les plus faciles à évaluer numériquement sont les polynômes. Il est donc important
de savoir approximer une fonction arbitraire par des polynômes. L'interpolation polynomiale
consiste à chercher la fonction F sous forme d'un polynôme. C'est à ce cas qu'on va s'intéresser dans
ce chapitre.
Existe-t-il un polynôme P tel que :
P(xi) = yi, i = 0, . . . , n?
2. Interpolation de Lagrange
2.1. Base de Lagrange
ou encore :
27
∏
Définition : Les polynômes sont les polynômes de Lagrange de [ ] associés aux points
.
Soit f une fonction donnée définie sur R à valeurs dans R et n + 1 réels donnés distincts.
Interpoler la fonction f par un polynôme de degré n aux points consiste à résoudre le
problème suivant :
Problème (2.1) {
Exemple 2
28
Le but de l’interpolation est de remplacer une fonction f plus ou moins compliquée par une
fonction plus simple car polynômiale, mais pour justifier cet échange, il nous faut une estimation
de l’erreur commise.
Soit f une fonction réelle définie sur un intervalle [a, b] et soit a ≤ x0 < . . . < xn ≤ b, (n + 1) points
de [a, b]. On note P le polynôme d’interpolation de Lagrange de f aux points x0, . . . , xn.
Théorème 1
On suppose que ⟦ ⟧ , alors
[ ] [ ]
Remarques :
3. Polynômes de Chebyshev
Pour obtenir la meilleure estimation possible pour une fonction f donnée, il faut choisir les n + 1
points d’interpolation x0, . . . , xn de manière à minimiser le maximum sur [a, b] de la fonction
|(x−x0) . . . (x−xn)|. Si on appelle [ ] l’ensemble des polynômes de degré n +1 unitaires,
le meilleur choix des xi est donné par le polynôme q En+1([a, b]) tel que
[ ] [ ]| | [ ]| |
Il faudra de plus s’assurer que le polynôme q trouvé admet bien n+1 racines distinctes sur
l’intervalle [a, b]. On va montrer l’existence de ce polynôme qu’on appellera polynôme de
Chebyshev normalisé.
Définition – On appelle polynôme de Chebyshev de degré n le polynôme défini sur [−1, 1] par
( )
La formule donnée dans le théorème ne fait pas apparaitre de manière évidente un polynôme.
Cependant, on peut tout de suite noter que, pour tout x [−1, 1], Tn(x) [−1, 1].
Considérons la formule de Moivre :
[ ]
29
[ ⁄ ]
cos ∑
Exemple 3
( )
( )
pour lesquels il prend alternativement les valeurs 1 et −1.
[ ]| | [ ]| |
30
Chapitre 6: Dérivation numérique
Chapitre 6
On souhaite calculer la dérivée d’une fonction f qui n’est pas connue explicitement mais
uniquement ou bien par ses valeurs ou bien par un algorithme.
31
1. Introduction :
Si f est une fonction dérivable sur [a; b]; la dérivée en c ]a; b[ est définie par:
Où
Si f est une fonction continue sur [a; b]; l'intégrale de f sur [a; b] est définie par
∫ =
Où ∑
On sait déterminer "exactement" pour f définie à partir de fonctions élémentaires (exp, sinx,
ln x; …):
On sait aussi calculer ∫ en utilisant les théorèmes fondamentaux d'intégration pour une
fonction continue sur [a; b]; et on a ∫ où F(x) est une primitive de f(x)
Mais il existe des fonctions très simples comme Ou √ qui n'ont pas de
primitive connue, donc, comment peut-on intégrer de telles fonctions entre a et b?
D'autre part f peut-être connue seulement en quelques points et sa formule est inconnue (exp:
résultats expérimentaux,...), donc comment peut-on dériver ou intégrer ses fonctions?
Du point de vue numérique, la solution à ce problème est immédiate: nous avons vu, dans les
chapitres précédents, comment approximer une fonction par une fonction plus simple, facile à
dériver ou à intégrer.
De façon précise si P(x) est une approximation de f dans l'intervalle [a; b], nous nous proposons
d'étudier les approximations:
[ ]
∫ ∫
2. Dérivation numérique
La dérivation numérique nous permet de trouver une estimation de la dérivée ou de la pente d'une
fonction, en utilisant seulement un ensemble discret de points.
32
Soit f une fonction connue seulement par sa valeur en (n + 1) points donnés xi i = 0, 1… n
distincts.
Les formules de différence les plus simples basées sur l'utilisation de la ligne droite pour interpoler
les données ulilisent deux points pour estimer la dérivée.
Si on suppose que l'espace entre deux points successifs est constant, donc on pose
Formule Expression
différence progressive
différence régressive
différence centrale
On peut interpoler les données par un polynôme au lieu d'utiliser la droite, nous obtenons alors les
formules de différence qui utilisent plus de deux points. On suppose que le pas h est constant :
33
Le polynôme de Lagrange est donnée par :
Donc
Les formules de dérivées d'ordre supérieur, peuvent être trouvées à partir des dérivées du
polynôme de Lagrange ou en utilisant les formules de Taylor.
Par exemple, étant donné 3 points , équidistants, la formule de la dérivée seconde est
donnée par:
[ ]
L’erreur est en )
34
L’erreur est en )
Pour obtenir les formules de la troisième et la quatrième dérivée, on prend une combinaison
linéaire des développements de Taylor, pour f(x + 2h); f(x + h); f(x - h) et f(x - 2h):
La table suivante donne les différentes formules centrales toutes en O(h2):
[ ]
[ ]
[ ]
[ ]
En utilisant les polynômes d'interpolation de Lagrange les dérivées d'ordre p sont calculées par:
Où
Remarque :
35
1. Introduction
Nous développons ci-après quelques méthodes qui permettent de calculer, sur un intervalle fini
[a,b], l’intégrale définie ∫ d’une fonction f continue donnée. Ces méthodes sont
particulièrement utiles dans le cas où les primitives de f ne sont pas des fonctions élémentaires ou
sont trop difficiles à calculer.
la fonction à intégrer est remplacée par une fonction interpolante ou par une fonction
d’approximation ;
l’intégrale est approchée par une somme pondérée de valeurs prises par la fonction en des
points situés dans un voisinage de [a,b].
2. Méthodes classiques
On supposera dans ce qui suit que les fonctions que l’on cherche à intégrer numériquement sont
continues sur l’intervalle [a; b]. Soit = a < x1 < x2 < _ _ _ < < = b une subdivision de
l’intervalle [a; b]. La théorie élémentaire de l’intégration implique :
∫ ∑ ( )( ) [ ]
36
2.2 Rectangles à droite
Remarquons que les méthodes précédentes reviennent à interpoler f sur chaque intervalle [xj ;
xj+1] par le polynôme d’interpolation de degré 0 relatif à l’unique nœud . Ces formules seront
donc exactes pour les fonctions constantes sur [a; b] et en particulier pour .
37
L’autre méthode classique est la méthode des trapèzes basée sur la formule :
( )
∑
La méthode des trapèzes revient à interpoler f sur chaque intervalle [xj ; xj+1] par le polynôme
d’interpolation de degré 1. Cette formule sera donc exacte pour .
Nous allons maintenant définir un cadre d’étude général au problème de l’intégration approchée et
donner un certain nombre de résultats généraux qui seront admis pour ce cours.
Soit C([a; b]) l’espace vectoriel des fonctions continues sur l’intervalle [a; b] de R et f une fonction
de C([a; b]). On suppose que l’on connaît au moins les valeurs de f en certains points x0; x1,…, xn
de l’intervalle [a; b]. On cherche alors une formule d’intégration approchée de la forme :
∑ ̅
Définition 1 : Une méthode d’intégration numérique est dite d’ordre N ( ) si elle est exacte
sur .
Par exemple, la méthode des rectangles à gauche ou à droite et la méthode du point milieu sont
d’ordre 0 et celle des trapèzes est d’ordre 1.
38
En pratique, connaissant les valeurs de f aux points x0,…, xn, on remplace f par le polynôme
d’interpolation ∑ écrit dans la base de Lagrange. On a alors la formule
d’intégration approchée :
̅ ∑ ∫ (1)
| ̅ | ∫ | |
Avec : | |, ∏
4. Formules de Newton-Côtes
D’après ce qui précède, pour obtenir notre formule d’intégration approchée, on doit donc calculer
les
Pour ceci, nous allons supposer que les points d’interpolation sont équidistants, i.e., ne
dépend pas de j, que , et n 1.
Pour calculer les coefficients on peut utiliser le fait que ̅ est exacte sur [ ] ).
Par exemple pour n = 1, a=-1 et b=1, on a ̅ , or ̅ est exacte sur
[ ] ). Donc ̅ ∫ ̅ ∫ .On obtient donc
le système linéaire :
D’où
39
Chapitre 8 Résolution numérique des équations différentielles ordinaires
Chapitre 8
1. Introduction
Une équation différentielle est une équation dont l’inconnue est une fonction y(x). La forme
générale d’une telle équation s’écrit :
( ) (1)
40
Dans le cas où =0, on dira que l’équation différentielle est homogène. L’existence d’une
solution unique de l’équation différentielle est tributaire de l’imposition de certaines conditions
initiales sur y(x) et ses dérivées. Dans l’équation (1), les conditions initiales sont les valeurs de y(a),
Cependant, il faut noter que très souvent la solution analytique n’existe pas,
et on doit par conséquent approcher la solution exacte y(x) par des méthodes numériques.
2. Problème de Cauchy
( )
{ (2)
La première équation est une équation différentielle et la deuxième relation exprime une condition
de Cauchy ou condition initiale.
Définition : soit une fonction donnée, s’il existe une constante L telle que
| | | |
Théorème : si f est continue sur et L-lipschitzienne par rapport à sa deuxième variable y(t)
alors le problème de Cauchy admet une solution unique sur I, .
Remarque : Dans ce qui suit, la variable t sera systématiquement remplacée par la variable . Le
formalisme mathématique demeure inchangé.
3. Méthodes d’Euler
Afin d’atteindre la solution y(x), sur l’intervalle x [a; b], on choisit n+1 points dissemblables
, avec et et le pas de discrétisation est défini par h = (b - a)/n. La
résolution numérique consiste à discrétiser l’axe des abscisses suivant ( ).
Ensuite on cherchera un comme approximation de y au point , soit . Ainsi l’ensemble des
approximations successives { }, où tout simplement { } , constitue la solution
numérique. Ces méthodes sont itératives donc la suite { } doit être initialisée afin de calculer
ses successeurs. Soit l’équation différentielle :
( )
Trouver la solution de cette équation revient à calculer l’intégrale de f(x; y(x)) entre les bornes
et , soit :
∫ ( )
41
∫ ( )
Par conséquent, en fonction de la méthode d’intégration utilisée afin de résoudre l’intégrale (terme
de gauche), on obtient un schéma numérique donné. En utilisant par exemple la méthode des
rectangles à gauche, on obtient le schéma numérique d’Euler progressif :
En utilisant la méthode des rectangles à droite, on obtient le schéma numérique d’Euler rétrograde
( )
{
Exemple 1
n
0 0.0000 1.0000
1 0.1000 0.9524
2 0.2000 0.9118
42
3 0.3000 0.8779
4 0.4000 0.8504
5 0.5000 0.8289
6 0.6000 0.8133
7 0.7000 0.8033
8 0.8000 0.8031
9 0.9000 0.7982
10 1.000 0.8031
| |
Cela signifie que si je divise par deux le pas h, l’erreur sera divisée par deux également. Dans cette
configuration le temps de calcul est multiplié par deux.
| | | |
4. Méthode de Heun
La Méthode de Heun est une version améliorée de celle d’Euler. L’erreur sur le résultat généré par
cette méthode est proportionnelle à , meilleur que celle de la méthode d’Euler. Néanmoins, cette
méthode nécessite une double évaluation de la fonction f.
{
{ }
( )
( )
43
( )
Finalement :
( )
Cette méthode permet d’obtenir une plus grande précision (elles génèrent des solutions numériques
plus proches des solutions analytiques) que les deux méthodes précédentes. Le schéma numérique
est donné par :
{
{ }
Cette méthode et celle d’Euler rétrograde sont inconditionnellement stables, moyennant certaines
conditions de régularité sur les équations à résoudre.
La méthode de Runge-Kutta (classique) d’ordre 4, est une méthode explicite très populaire. Elle
calcule la valeur de la fonction en quatre points intermédiaires selon :
{
( ) ( )
Exemple 2
{
[ ] soit h=0.1 ,
On a :
44
( ) [( ) ]
( ) [( ) ]
[ ]
Puis on calcule
k
0 0.0000 2
1 0.1000 2.4163
2 0.2000 2.8659
3 0.3000 3.5323
4 0.4000 3.8793
5 0.5000 4.4513
6 0.6000 5.0728
7 0.7000 5.7492
8 0.8000 6.4863
9 0.9000 7.2903
10 1.000 8.1684
Bibliographie
45