Vous êtes sur la page 1sur 45

Université cadi Ayyad -Marrakech

Faculté Poly-disciplinaire- Safi

Département : Sciences de la matière physique

Analyse numérique élémentaire


Notes de cours
M. Zakaria HACHKAR

Année universitaire 2020/2021

Version 1

1
Résumé

Ce résumé constitue l’essentiel du cours d’Analyse Numérique dispensé à la Faculté Poly-


disciplinaire Safi en deuxième année Sciences de la matière physique. Le cours a pour
but de faire connaissance avec les notions élémentaires de l’Analyse Numérique dans le but
de former des utilisateurs “avertis” des techniques et méthodes de résolution numérique
appliquées aux autres sciences.

Ce cours suppose la connaissance de notions élémentaires de l’algèbre linéaire sur les


matrices et les vecteurs ainsi que les notions simples de l’analyse et de l’algèbre linéaire :
matrices et vecteurs, fonctions, dérivées, formule de Taylor, . . .. Plusieurs autres
exemples et applications seront présentés lors du cours magistral.

Ces notes de cours ne présentent qu’un résumé du contenu. Plusieurs exemples, figures et
démonstrations seront présentés lors du cours magistral, travaux dirigés et pratiques.

Ce polycopié est en continue correction. C'est pourquoi, je serai reconnaissant aux


étudiants de m'exposer toute suggestion susceptible d'en améliorer le contenu.

2
TABLE DE MATIERES
Chapitre 1 : Analyse d’erreurs
Chapitre 2 : Résolution numérique des équations non linéaires
Chapitre 3 : Résolution des systèmes d’équations linéaires : méthodes directes
Chapitre 4 : Résolution numérique des systèmes non linéaires
Chapitre 5 : Interpolation - Approximation
Chapitre 6 : Dérivation numérique
Chapitre 7 : Intégration numérique
Chapitre 8 : Résolution numérique des équations différentielles

3
Calculs numériques approchés
Chapitre 1

Dans ce chapitre on présentera dans un premier temps, quelle est


l’approximation utilisée pour représenter les nombres réels dans un ordinateur.
On discutera ensuite les conséquences de cette représentation inexacte.

1. Sources d’erreur

Lors de tout calcul numérique, deux sources d’erreur interviennent de manière systématique :

Erreurs de troncature ou de discrétisation qui proviennent de simplifications du modèle


mathématique comme par exemple le remplacement d’une dérivée par une différence finie,
le développement en série de Taylor limité, etc.

Erreurs d’arrondi : comme la capacité mémoire d'un ordinateur est finie, il est donc
nécessaire de représenter les nombres réels sous forme approchée, en outre il n’est pas
possible de représenter tous les réels dans un ordinateur .

Pour un ordinateur toute information est un mot ou une séquence de bits (32 ou 64), un bit
prenant la valeur 0 ou 1.

Nous interprétons cette représentation comme un nombre entier en base 2.

On peut conclure que, les nombres entiers peuvent être représentés exactement dans un
ordinateur.
Si tous les calculs peuvent se faire en nombres entiers, on parle d’arithmétique en nombres entiers.

Le rapport 1/3 nécessite un nombre infini de chiffres pour représenter le résultat. Dans la pratique,
on fera appel à l’arithmétique en virgule flottante pour représenter une approximation du résultat.

2. Représentation en virgule flottante

On utilise les nombres à virgule flottante (ou encore la notation scientifique) dès qu'il faut écrire
un nombre très grand ou très petit en valeur absolue. Dans un ordinateur, une variable réelle
est représentée de la façon suivante :

avec n est la mantisse, b la base et e est l’exposant. Dans un ordinateur, la base est toujours égale à
2.

4
Pratiquement on partitionne le mot en deux parties, l’une contenant e et l’autre contenant n. (Le
premier bit è gauche indique le signe).

Par conséquence, nous ne disposerons que d’un nombre limité de bits pour représenter les entiers n
et e.

Soit t le nombre de bits disponibles pour coder la mantisse. En base 2, on peut alors coder les
entiers allant de 0 à ∑ .
.

2.1 Normalisation

Pour maximiser le nombre de digits significatifs, on normalise la mantisse, c’est-à-dire on élimine


les digits nuls à gauche.

Exemple 1 :

Soit x = 0.00123456. En base 10 et avec 5 digits on peut représenter ce nombre comme:

x= 0 0 1 2 3 *

Ou
x= 1 2 3 4 5 *

Ainsi, pour un mot en base 2, on fait varier la mantisse n dans l’intervalle :

En rajoutant 1 à droite (ce qui change le signe ≤ en <) et en multipliant la mantisse par , la
valeur normalisée de la mantisse n variera dans l’intervalle

L’ensemble des nombres en virgule flottante F que l’on peut ainsi représenter constitue un sous-
ensemble de . Si l’on représente la mantisse avec un mot de t bits, les éléments f F sont définis
par :

1 …

avec di = 0 ou 1 pour i = 2, . . . , t et d1 vaut toujours 1 à cause de la normalisation. Si l’exposant


peut prendre les valeurs entières de l’intervalle [L, U] on a que

5
| | avec et

Exemple 2 : Construction de l’ensemble F pour t = 3 et e [−1, 2].

En reportant ces nombres sur une droite on observe que les nombres en virgule flottante
ne sont pas trop espacés.

Pour décrire l’ensemble des nombres réels qui trouvent une représentation dans F on définit
l’ensemble

{ | | } { }

et l’opérateur float : G → F , avec float définie par :

|| | |
{

Exemple 3

Soit l’ensemble F défini pour t = 3 et e [−1, 2] dans l’exemple 2,

Technique 3.4 0.94


chopping 3 0.875
perfect rounding 3.5 1

2.2 Underflow et Overflow

Soit op l’une des 4 opérations arithmétiques + − × ÷ et a, b deux nombres réels ; alors,


1. si |a op b| n’appartient pas à G, on est dans une situation d’erreur
2. overflow si |a op b| > M

6
3. underflow si |a op b| < m).

Dans le standard IEEE (Institute of Electrical and Electronics Engineers) les situations d’overflow
et underflow ne provoquent pas l’arrêt des calculs. Un overflow produit l’infini qui se propage
dans la suite des calculs et un underflow peut produire le résultat zéro.
Référence.

3. Précision, erreurs d’arrondi

Plusieurs indicateurs peuvent caractériser la précision d’un système de représentation des nombres
réels en virgule flottante, on présente souvent les mesures suivantes :

Précision machine (eps)


Digits significatifs
Erreur d’arrondi (u)
Erreur relative ( )

Notons toutefois que, même si ces nombres diffèrent légèrement entre eux et dépendent du schéma
d’arrondi, tous donnent une mesure qui caractérise la granularité du système en virgule flottante.

3.1 Précision machine

La précision machine d’une arithmétique en virgule flottante est définie comme le plus petit
nombre positif eps tel que :

La valeur de eps pour une machine avec des mots dont la mantisse comporte t bits et lorsqu’on
arrondit selon la technique dite chopping. Le nombre 1 et le plus proche nombre suivant
s’écrivent :

La distance qui sépare le nombre 1 du plus proche nombre suivant est égale à .

Ainsi pour une mantisse comportant t bits on a :

3.2 Digits significatifs

La précision machine définit le nombre de digits significatifs d’un nombre réel dans sa
représentation en virgule flottante. Dans un mot de 32 bits , on réserve en général 23 bits pour la
mantisse ce qui donne :

eps = ≈ 2.38×

1+eps = 1.000000238

7
ce qui donne 8 digits significatifs. Dans ce cas, il est inutile de lire ou imprimer des réels de plus que
8 digits.

4. Mesures de l’erreur

On peut envisager plusieurs façons pour mesurer l’erreur e entre une valeur approchée ̂ et une
valeur exacte x.

Erreur absolue

Elle peut être définie comme suit :

|̂ |

Remarquons qu’avec ̂ = 3 et x = 2 : l’erreur absolue vaut un, ce qui dans ce cas ne peut être
considéré comme “petit”. Par contre la même erreur absolue avec ̂ = + 1 et x = peut
certainement être considérée comme relativement “petite” par rapport à x.

Erreur relative

La remarque précédente nous conduit à la définition de l’erreur relative

|̂ |
| |

L’utilisation de l’erreur relative pose des problèmes lorsque x prends des valeurs qui sont proches
de zéro. Pour pallier à cet inconvénient on utilise souvent dans la pratique la mesure suivante :

|̂ |
| |

Cette mesure a les caractéristiques de l’erreur relative si |x| 1, et les caractéristiques de


l’erreur absolue si |x| 1.

Majoration des erreurs absolue et relative

En pratique, il est difficile d’évaluer les erreurs absolue et relative, car on ne connaît généralement
pas la valeur exacte de x et l’on n’a que ̂ . Pour les apprécier on introduit la notion de majorant
de l’erreur absolue et de l’erreur relative.

On définit un majorant de l’erreur absolue d’une valeur approchée ̂ par:

| ̂| ̂ ̂

tel que est un nombre réel positif.

On définit un majorant de l’erreur relative d’une valeur approchée ̂ par:

8
|̂ |
| |

tel que est un nombre réels positif.

9
Chapitre 2 : Résolution numérique des équations non linéaires
Chapitre 2
L’objectif de ce chapitre est de s’approcher le plus près possible de la solution
quand elle existe, d’un système non linéaire. Il s’agit principalement de Résoudre
f (x) = 0 , lorsqu'une solution analytique explicite est impossible

1. Introduction

Il existe plusieurs méthodes numériques (dichotomie, point fixe, Newton, Lagrange) conduisant à
chercher numériquement les zéros de fonction d’une variable réelle. La majorité de ces
méthodes sont itératives. En d’autres mots, elles calculent des approximations successives , ,
, ... de la véritable racine de l’équation , à partir d’une valeur initiale plus au
moins bien choisie. Ce qui les distingue, entre autre, c’est leur vitesse de convergence et leur
robustesse.

On considère une fonction réelle f définie sur un intervalle [a, b], avec a < b, et continue sur cet
intervalle et on suppose que f admet une unique racine sur I =]a, b[,

2. Méthode de dichotomie

Le principe de la méthode de dichotomie, encore appelée méthode de bissection, est basé sur le
théorème de la valeur intermédiaire. La méthode est décrite comme suit : soit, [ ] , une
fonction continue sur l’intervalle [ ] . Si f(a)*f(b) , il existe donc au moins une racine de f(x)
appartenant à l’intervalle [ ]
On prend tel que :

Algorithme

1. Si f(c)=0 c est la racine de f(x)


2. Sinon , nous testons le signe de f(a)*f(c) ( et f(c)*f(b)).
3. Si f(a)*f(c) la racine se trouve dans l’intervalle [a, c] qui est la
moitié de [a, b],
4. Si f(c)*f(b) la racine se trouve dans l’intervalle [c, b] qui est la
moitié de [a, b],

Ce processus de division, par deux, de l’intervalle (à chaque itération on divise l’intervalle par
deux) de la fonction est réitéré jusqu’à la convergence pour la tolérance considérée. Ainsi, pour la
nième itération, on divise : [ ] en [ ] et [ ], avec à chaque fois

L’algorithme est le suivant :


Pour k = 0; 1; 2; …
si f( ) = 0, stop ( ))
si f(a) f( )) < 0; b := )
sinon a :=
:= (a + b)=2
Fin k

10
3. Méthode du point fixe

Définition
Soit g une fonction continue sur [a, b]. On appelle point fixe de la fonction g tout point x de [a, b]
vérifiant g(x) = x.
Soit g : [a, b] −→ [a, b] une fonction continue. Alors la fonction g(x) admet au moins un point fixe
dans [a, b].
Pour approcher les racines de f (x) = 0 par la méthode du point fixe on cherche donc une fonction g
telle que
f (x) = 0 g(x) = x

Exemple 1

La méthode du point fixe consiste à construire à partir d’une approximation initiale la suite des
nombres tel que :

[ ]
3.1 Convergence

Si dans [a, b], g vérifie


(i) x [a, b] g(x) [a, b]
(ii) g une fonction continue,
alors
1. g possède au moins un point fixe [a, b].
2. Si g est strictement contractante, c’est à dire qu’il existe k , 0, k < 1 tel que :
[ ] [ ] | | | |

Alors
(a) est unique.
(b) [a, b], la suite définie par converge

Si g est dérivable, il est souvent plus commode d’exprimer une condition suffisante sur la dérivée
que de vérifier directement que g est une application contractante.

Propriété

Soit g une fonction dérivable sur [a, b]. Si vérifie | | [ ] [a, b], alors g est
strictement contractante dans [a, b].

Théorème

Soit [ ] une fonction donnée tels que :


a) g est une contraction stricte sur [a, b].

11
b) g([a, b]) [a, b],
Alors
1. La fonction g(x) admet un unique point fixe dans [a, b].
2. Pour tout [a, b], la suite définie par : pour n supérieur à 1,
converge vers lorsque

3.2 Vitesse de convergence


On cherche à quantifier la vitesse de convergence de la suite xn en comparant la valeur absolue de
l’erreur entre deux itérations successives.

Définitions

| |
La méthode du point fixe est dite d’ordre r si | |
a une limite finie quand n tend
vers l’infini.

On dit que la suite (en) converge avec un ordre de convergence égal à r s’il existe une constante C >
0 telle que :
| |
| |
pour n assez grand

r = 1 l’ ordre de convergence est dit linéaire ou géométrique


r > 1 superlinéaire
r = 2 quadratique

Il est souvent délicat de déterminer un intervalle [a, b] dans lequel les hypothèses (a) et (b)
du théorème du point fixe sont vérifiées
.
Pratique utile

Soit g : une fonction de classe et soit un point fixe de g tel que | | . Alors,
il existe un voisinage I de tel que la suite définie par avec I, converge
vers .
De plus
1. Si , la convergence est géométrique
2. S’il existe un entier r tel que g soit de classe au voisinage de
et si
,
alors, la convergence est d’ordre r

4. Méthode de Newton

La méthode de NEWTON est une méthode d’analyse numérique pour trouver les approximations
successives des zéros d’une fonction à valeurs réelles. Ceci dit, on peut l’étendre aux fonctions à
valeurs complexes, ainsi qu’aux systèmes d’équations. Même si NEWTON étudiait les polynômes
à l’origine, sa méthode fonctionne bien pour des fonctions suffisamment régulières, comme les
fonctions

Il est évident que si h(x) est une fonction non nulle, alors x est une solution de f (x) = 0 si et
seulement si x est un point fixe de :

12
g(x) = x + h(x) f (x)

La méthode consiste alors à choisir la fonction h(x) de telle sorte que la méthode des
approximations successives appliquée à la fonction g(x) soit d’ordre deux. C’est à dire tel que

Ceci serait le cas si on choisit par exemple


Traçons la tangente à la courbe de f passant par (b,
f(b)). L’équation de cette tangente est
y = f’(b)(x−b) + f(b).
Son intersection avec l’axe Ox a une ordonn´ee
nulle et son abscisse vaut :

On trace ensuite la tangente à la courbe au point


. Le réel est l’abscisse de
l’intersection de cette deuxième tangente avec
l’axe Ox et on réitère ce procédé.

On a alors l’algorithme de Newton suivant :

Convergence

Pour la vitesse de convergence, on suppose que la fonction f est de classe sur I = [a,b], que l’on
a f(a)f(b) < 0 et que les fonctions f’ et f’’ sont toutes deux strictement positives sur [a,b]. Ceci nous
garantit l’existence et l’unicité d’une racine simple de f sur [a,b]. On a donc f( ) = 0 et ( )
0.

Théorème
| | | |
| | | |

On peut conclure donc que la méthode de Newton est d’ordre 2 si g’’(a) 0

5. Méthode de la sécante

Cette méthode est également appelée méthode de Lagrange, méthode des parties proportionnelles
ou encore regula falsi.

13
La méthode de la sécante consiste à
construire une suite (xn) qui converge vers a
de la manière suivante : soit la droite
passant par (a, f (a)) et (b, f (b)), elle coupe
l’axe Ox en un point d’abscisse de ]a,b[.
On approche donc la fonction f par un
polynôme P de degré 1 et on résout P(x) = 0.

Ensuite, suivant la position de a par rapport à x0, on considère la droite passant par (a, f (a)) et
( , f ( )) si f ( ) f (a) < 0 ou celle passant par ( , f ( )) et (b, f (b)) si f ( ) f (b) < 0. On appelle
l’abscisse du point d’intersection de cette droite avec l’axe Ox. On réitère ensuite le procédé.

La méthode de la sécante est une variante de la méthode de Newton. En effet, la dérivée est
remplacée par la pente

On obtient la méthode itérative suivante :

[ ]
{

Pour la convergence de cette technique nous utilisons le théorème suivant

Théorème
On considère f : une fonction de classe et un zéro de f(x) tel .Alors il existe
un voisinage de I tel que la suite définissant la méthode de la sécante existe et converge vers .
De plus , si

Avec √

Code Matlab
% Méthode de la sécante
% Résolution de l’équation x - 0.2sin(x) - 0.5 = 0
f=inline('x-0.2*sin(x)-0.5'); % Fonction dont on cherche un zéro
x(1)=0; x(2)=1; % Valeurs initiales : 2 précurseurs de la suite
% Boucle calculant 8 valeurs de la suite : (3), x(4), ... , x(11)
for n=1:8
F=f(x(n+1)); % Pour ne pas évaluer 2 fois f(x(n+1)) !
x(n+2)=x(n+1)-F*(x(n+1)-x(n))/(F-f(x(n)));
end
format long
y=f(x); % Evaluation des images par f de la suite des x
[x' y'] % Affichage de la suite et de son image

14
ACCÉLÉRATION DE LA CONVERGENCE

Il y a deux façons pour accélérer la convergence :


Procédé d’Aitken.
On peut transformer la suite (xn) en une suite ( yn) qui converge vers la même limite et
cela plus vite que la suite (xn).
Méthode de Steffenson.
On transforme la fonction g(x) de façon à obtenir une méthode d’ordre plus élevée.

15
Chapitre 3

Chapitre 3 : Méthodes directes de la résolution des systèmes linéaires

La résolution des systèmes linéaires est considérée comme l’un des deux problèmes
fondamentaux de l’Analyse Numérique Matricielle, et cette résolution intervient
dans divers domaines

Introduction

Soit A une matrice carrée d’ordre n à coefficients réels inversible et soit b un vecteur. On cherche
un vecteur tel que
Ax = b (3.1)

On suppose que la matrice A, de coefficients (aij) est inversible, i.e., qu’il existe une matrice notée
, dite matrice inverse de A, telle que :

; I : Matrice identité:

On distingue deux grandes classes de méthodes de résolution numérique :


les méthodes directes ;
les méthodes itératives.

Les techniques directes ramènent la résolution d’un système linéaire quelconque à celle d’un
système triangulaire. Pour chaque méthode, il est important de considérer deux aspects :
le nombre d’opérations arithmétiques nécessitées par la méthode : il est montré, par
exemple, que la méthode de Cramer est inutilisable numériquement ;
l’influence des erreurs d’arrondi sur la précision de la méthode.

1. Résolution d’un système triangulaire

L’idée des méthodes directes est de se ramener à la résolution d’un (ou de deux) système(s)
triangulaire(s).
Supposons que A soit une matrice triangulaire supérieure. Le système s’écrit alors :

Puisque A est supposée inversible, aucun des ai;i n’est nul et on peut résoudre ce système en
utilisant l’algorithme de substitution rétrograde (ou substitution arrière) suivant :

16
Entrées : ( ) une matrice triangulaire supérieure et
Sortie : tel que Ax=b
1.
2. Pour i de (n-1) à 1 par pas de -1, faire

3. Retourner

De façon analogue, lorsque A est triangulaire inférieure, on obtient l’algorithme de substitution


progressive (ou substitution avant).

La résolution d’un système d’équations linéaires triangulaire se fait en opérations à


virgule flottante.

2. Les méthodes directes

Dans la suite de ce chapitre, nous allons considérer la Méthode de Gauss : le principe est de réduire
le système à (M A) x = M b avec M A triangulaire supérieure sans calculer explicitement M. On se
ramène donc à la résolution d’un système triangulaire supérieur. Cette méthode est associée à la
factorisation A = L U de la matrice A avec L triangulaire inférieure (Lower) et U triangulaire
supérieure (Upper). Nous donnerons aussi un aperçu sur la méthode de Cholesky en fin de ce
chapitre

2.1 Méthodes de Gauss

Algorithme

Réécrivons le système linéaire (3.1) par :

avec

Sous une hypothèse précisée plus loin, la première étape élimine dans les (n – 1) dernières
équations, la deuxième étape élimine dans les (n – 2) dernières équations et ainsi de suite, la pe
étape avec { } élimine dans les (n – p) dernières équations, jusqu’à l’élimination
de . Supposons qu’à l’étape p avec { }, le système linéaire s’écrive :

17
On écrira :

Pour passer de l’étape p à l’étape p + 1 :

Si on élimine dans les (p-1) dernières équations en multipliant pour


i=p+1,…,n , la ligne p par :

⁄ (3.2)

et en soustrayant la ligne obtenue à la ligne i, Ceci s’écrit de manière équivalente, pour


i=p+1,…,n :

, j=p,…,n (3.3)
(3.4)

Les p premières lignes sont inchangées. Le coefficient est appelé le pivot.

si ou si est très petit : lorsque A est inversible, il existe toujours (au moins)
un indice { } tel que . On permute alors la ligne p du système
linéaire avec une la ligne (ceci revient à permuter les lignes p et de A et b) avant
d’appliquer les formules (3.2) à (3.4).

Par conséquent, si pour { }, il existe un pivot non nul alors est une matrice
triangulaire supérieure. La résolution numérique de ce système est présentée au début du présent
chapitre.

Le nombre d’opérations nécessaires est qui est à comparer au nombre


d’opérations nécessaire dans la méthode de Cramer

Remarque

Par une étude de propagation d’erreur, on montre que l’on a intérêt à choisir le pivot de module le
plus grand possible afin d’améliorer la stabilité de la méthode.

2.1.1 Méthode de Gauss avec pivot total

Pour passer de l’étape p à l’étape p +1, le pivot choisi est un élément de plus grand module dans la
sous-matrice :

Le pivot choisi est donc un coefficient de la matrice A d’indices tel que :

18
| | | |

C’est la méthode la plus stable, mais, en plus des permutations de lignes de A et b, elle nécessite
des permutations de colonnes de A et donc un changement de numérotation des inconnues.

2.1.2 Méthode de Gauss avec pivot partiel

Pour passer de l’étape p à l’étape p +1, le pivot choisi est un élément de plus grand module dans la
partie de la colonne p d’indice de ligne supérieur ou égal à p, c’est-à-dire dans l’ensemble
{ }. Le pivot choisi est donc un coefficient de la matrice A d’indices tel que :

| | | |

C’est la méthode classique. Elle requiert uniquement des permutations de lignes de A et b.

3. La méthode de Cholesky

La méthode de Cholesky est bien connue en analyse numérique. Soit à résoudre le système
d’équations linéaires :

Ax = b

où la matrice A est carrée, symétrique et définie positive. Cette méthode consiste à décomposer la
matrice A en un produit :

où B est une matrice triangulaire inférieure (c’est-`a-dire dont tous les éléments au-dessus de la
diagonale sont nuls) dont les termes diagonaux sont strictement positifs. Le système devient alors :

Les éléments de la matrice B s’obtiennent en identifiant les éléments correspondants dans les
matrices A et . En effet, B peut s’écrire :

On obtient les égalités :

19

On en déduit :

Il y a opérations élémentaires qu’il est intéressant de comparer à la méthode


de Gauss quand la matrice du système est symétrique.

20
Chapitre 4

Chapitre 4 : Méthodes itératives de résolution des systèmes linéaires

Une classe importante de méthodes de résolution de systèmes linéaires est celle des
méthodes itératives qui donnent la solution du système comme limite d’une suite de
vecteurs.

1. Méthodes itérative par recherche de point fixe

Nous cherchons à résoudre le système Ax = B. on commence par décomposer la matrice A :

A = M – N, de telle façon que M soit inversible

Il est ensuite possible d’écrire le système Ax = B sous la forme :

Mx  Nx  b
Ou encore :
x  M 1 Nx  M 1b

qui définit une équation de point fixe

(i )
Pour la résoudre nous calculerons par récurrence la suite des vecteurs x à partir d’un vecteur
x ( 0 ) , en choisissant la relation indiquée ci-dessous :

x ( k 1)  M 1 Nx ( k )  M 1b (1)

Cette relation est une relation de récurrence du premier ordre.

Les décompositions de A font intervenir :

La matrice diagonale D obtenue à partir des éléments diagonaux de A

a11 0 ... 0 
0 b ... 0 
D 22

 ... ... ... ... 


 
0 0 ... a nn 
La matrice triangulaire inférieure –E

21
 0 0 ... 0 
a 0 ... 0 
 E   21
 ... ... ... ...
 
 a n1 an2 ... 0 
La matrice triangulaire supérieure –F

 0 a12 ... a1n 


0 0 ... a2 n 
F 
... ... ... ... 
 
0 0 ... 0 
Nous avons donc A = D – E – F, et nous obtiendrons la décomposition A = M – N à partir de
différents types de regroupements des matrices D, -E, -F, ce qui va nous amener à différentes
méthodes, celle de Jacobi, et celle de Gauss-Seidel.

2. Convergence des méthodes itératives

Soit ; on définit la norme :

‖ ‖ ∑

On dira alors que la méthode itérative (1) converge s’il existe un vecteur tel que

‖ ‖

pour tout choix de vecteur initial .

Définition

Soit A une matrice carrée d’ordre n. On appelle rayon spectral de A (on note (A)) la plus grande
valeur propre en module, i.e.

{| | }

On a alors le théorème fondamental suivant :

Théorème
La méthode itérative converge si et seulement si

3. Les méthodes de résolutions


Contrairement à la méthode de Gauss qui est une méthode directe appliquée à de petites matrices,
nous allons nous pencher sur les méthodes dites indirectes telle que Jacobi et Gauss-Seidel, mettant
en jeu la convergence pour des matrices de tailles plus imposantes.

22
3.1. La Méthode de Jacobi

On suppose que A est une matrice inversible dont aucun élément de la diagonale est nul (
aii  0, i
). Cette méthode consiste à isoler le coefficient de la diagonale de chaque ligne du
système, si l’un des coefficients diagonaux est nul, il est parfois possible de permuter certaines
lignes pour éviter cette situation.
On pose : A = M - N
La relation de récurrence est la suivante :

x ( k 1)  M 1 Nx ( k )  M 1b
avec M = D, N = E+ F, nous obtenons la relation suivante :

x ( k 1)  D 1 ( E  F ) x ( k )  D 1b
Par calculs successifs, la relation de Jacobi est la suivante :
n a ij bi
 
( k 1)
xi x (jk ) 
j 1 aii aii
j 1

Exemple 1

Soit le système de 3 équations à 3 inconnues:

3 x1  x 2  x3  2
x1  5 x 2  2 x3  17
2 x1  x 2  6 x3  18
Suivant la formule décrite précédemment, la méthode de Jacobi s’écrit dans ce cas pour la
(0)
première itération à partir d’un vecteur x [0 0 0] :

Première Itération Seconde itération

1 2 1 17 8
x11  (2  0  0)  x12  (2   3) 
3 3 3 5 15
1 17 1 2 17
x12  (17  0  0)  x22  (17   2(3)) 
5 5 5 3 5
1 1 2 17
x31   (18  0  0)  3 x32   (18  2( )  )  2,655
6 6 3 5

Cela permet de remplir le tableau suivant :

23
k x1k x 2k x 3k

0 0,00000 0,00000 0,00000


1 0,66667 3.40000 3.00000
2 0.53333 2.06667 2.65556
3 0.86296 2.23111 2.83333
4 0.86741 2.09407 2.91580
5 0.94057 2.06020 2.94012
6 0.95997 2.03583 2.97016
7 0.97811 2.01994 2.98069
8 0.98691 2.01210 2.98938
9 0.99242 2.00686 2.99362
10 0.99558 2.00407 2.99633
Les valeurs convergent vers la solution [1 2 3] avec une convergence assez lente

3.2. La Méthode de GAUSS-SEIDEL

Comme pour la méthode de Jacobi, le but de la méthode de Gauss-Seidel est de résoudre le système
d’équation de la forme A x = B de manière itérative
On suppose cette fois que la matrice D est une matrice inversible dont aucun élément de la
a  0, i
diagonale est nul ( ii ). Cette méthode consiste à isoler le coefficient de la diagonale de
chaque ligne du système, si l’un des coefficients diagonaux est nul, comme pour la méthode de
Jacobi, il est parfois possible de permuter certaines lignes pour éviter cette situation.
La relation de récurrence est la suivante :

x ( k 1)  M 1 Nx ( k )  M 1b
avec M = D- E, & N = F,, nous obtenons la relation suivante :

x ( k 1)  ( D  E ) 1 Nx ( k )  M 1b

En général, on décompose A en –E, +D, -F, les deux méthodes de Jacobi et de Gauss-Seidel se
distinguent dans la répartition des blocs entre E, D et F entre M et N
x ( k 1)
Par rapport à Jacobi, on utilise les j
, avec 1  j  i  1 , déjà calculés. Ainsi, nous verrons
lors des simulations que Gauss-Seidel converge plus rapidement que Jacobi.

24
Par calculs successifs, la relation de Gauss-Seidel est la suivante :

 
1  i 1 n

  bi   aij x (jk 1)  a
( k 1) (k )
xi ij x j 
aii  j 1 j 11 
 

Exemple 2

Soit le système de 3 équations à 3 inconnues identique à celui utilisé pour la précédente


méthode de Jacobi:

3 x1  x 2  x3  2
x1  5 x 2  2 x3  17
2 x1  x 2  6 x3  18
Suivant la formule décrite précédemment, la méthode de Gauss-Seidel s’écrit dans ce
(0)
cas pour la première itération à partir d’un vecteur x [0 0 0] :

Première Itération Seconde itération

1 2 1 49 241
x11  (2  0  0)  x12  (2   )  0.47
3 3 3 15 90
1 2  49 1  241 
x12  17   0   x22  17  0.47  2    2.235
5 3  15 5  90  
1  2  49  241 1
x32   (18  2(0.47)  2.235)  2,784
x31     18  2     6
6  3  15  90

Cela permet de remplir le tableau suivant :

k x1k x 2k x 3k

0 0,00000 0,00000 0,00000


1 0,66667 3.26667 2.67778
2 0.47037 2.23481 2.78432
3 0.84983 2.11630 2.93056
4 0.93808 2.04016 2.97267
5 0.97750 2.01543 2.98993
6 0.99150 2.00573 2.99621
7 0.99683 2.00515 2.99858
8 0.99881 2.00080 2.99947

25
9 0.99955 2.00030 2.99980
10 0.99983 2.00011 2.99993
On constate que pour un même nombre d’itérations, la solution approximative obtenue
par la méthode de Gauss-Seidel est plus précise. Les valeurs convergent vers la solution x=
[1 2 3] avec une convergence plus rapide.

26
Chapitre 5 : Interpolation polynomiale
Chapitre 5

Le but de l’interpolation est de remplacer une fonction f plus ou moins


compliquée par une fonction plus simple

1. Position du problème d'interpolation


Soient (xi , yi), i = 0, . . . , n, (n + 1) couples de valeurs réelles. Des telles valeurs peuvent être le
résultat de mesures effectuées expérimentalement. Le but du problème d'interpolation est de
déterminer une fonction F -appartenant à une certaine classe- qui passe par les points (xi , yi)
donnés, c'est à dire F(xi) = yi , i = 0, . . . , n.
Les points (xi , yi) sont appelés les points d'interpolation.

Exemple 1

En physique, on mesure expérimentalement la température d'un objet qui refroidit au


cours du temps. On obtient une suite de valeurs à différents temps ti. On cherche alors à
tracer la courbe de refroidissement la plus proche possible des points mesurés, et ainsi à
estimer des valeurs de la fonction en des points non mesurés.

Les fonctions les plus faciles à évaluer numériquement sont les polynômes. Il est donc important
de savoir approximer une fonction arbitraire par des polynômes. L'interpolation polynomiale
consiste à chercher la fonction F sous forme d'un polynôme. C'est à ce cas qu'on va s'intéresser dans
ce chapitre.
Existe-t-il un polynôme P tel que :
P(xi) = yi, i = 0, . . . , n?

2. Interpolation de Lagrange
2.1. Base de Lagrange

Soit , ,, . . . , , (n +1 ) réels donnés distincts. On définit n + 1 polynômes pour i = 0 à n


par :

ou encore :

27

Définition : Les polynômes sont les polynômes de Lagrange de [ ] associés aux points
.

Proposition : Les polynômes de Lagrange forment une base de l'espace vectoriel [ ]

2.2. Interpolation de Lagrange

Soit f une fonction donnée définie sur R à valeurs dans R et n + 1 réels donnés distincts.
Interpoler la fonction f par un polynôme de degré n aux points consiste à résoudre le
problème suivant :

Problème (2.1) {

Si un tel polynôme existe, il s’écrit de manière unique

car les Li forment une base de [ ]. En prenant x = xk pour 0 ≤ k ≤ n et en utilisant que


, on obtient

Proposition : L’unique solution du problème (2.1) est donc

Ce polynôme s’appelle l’interpolant de la fonction f de degré n aux points .

Exemple 2

En physique, on mesure expérimentalement la température d'un objet qui refroidit au


cours du temps. On obtient une suite de valeurs à différents temps ti. On cherche alors à
tracer la courbe de refroidissement la plus proche possible des points mesurés, et ainsi à
estimer des valeurs de la fonction en des points non mesurés.

28
Le but de l’interpolation est de remplacer une fonction f plus ou moins compliquée par une
fonction plus simple car polynômiale, mais pour justifier cet échange, il nous faut une estimation
de l’erreur commise.

2.3. Estimation de l’erreur dans l’interpolation de Lagrange

Soit f une fonction réelle définie sur un intervalle [a, b] et soit a ≤ x0 < . . . < xn ≤ b, (n + 1) points
de [a, b]. On note P le polynôme d’interpolation de Lagrange de f aux points x0, . . . , xn.

Théorème 1
On suppose que ⟦ ⟧ , alors

[ ] [ ]
Remarques :

3. Polynômes de Chebyshev

3.1. Choix des points d’interpolation

Pour obtenir la meilleure estimation possible pour une fonction f donnée, il faut choisir les n + 1
points d’interpolation x0, . . . , xn de manière à minimiser le maximum sur [a, b] de la fonction
|(x−x0) . . . (x−xn)|. Si on appelle [ ] l’ensemble des polynômes de degré n +1 unitaires,
le meilleur choix des xi est donné par le polynôme q En+1([a, b]) tel que

[ ] [ ]| | [ ]| |

Il faudra de plus s’assurer que le polynôme q trouvé admet bien n+1 racines distinctes sur
l’intervalle [a, b]. On va montrer l’existence de ce polynôme qu’on appellera polynôme de
Chebyshev normalisé.

Remarque - En faisant le changement de variable

on peut toujours se ramener à une étude sur l’intervalle [−1, 1].

Définition – On appelle polynôme de Chebyshev de degré n le polynôme défini sur [−1, 1] par

( )

La formule donnée dans le théorème ne fait pas apparaitre de manière évidente un polynôme.
Cependant, on peut tout de suite noter que, pour tout x [−1, 1], Tn(x) [−1, 1].
Considérons la formule de Moivre :

[ ]

Posons x=cos , alors √ , on en déduit que

29
[ ⁄ ]

cos ∑

En particulier Tn est un polynôme de degré n.

Exemple 3

Les formules d’addition des fonctions trigonométriques donnent :

On en déduit immédiatement que :

Proposition – Les polynômes de Chebyshev vérifient la relation de récurrence

Le coefficient du terme en de est

Théorème 2 – a des zéros simples aux n points

( )

atteint son extremum sur l’intervalle [−1, 1] aux n + 1 points,

( )
pour lesquels il prend alternativement les valeurs 1 et −1.

3.2. Estimation de l’erreur avec les polynômes de Chebyshev

On va montrer que ce polynôme est le polynôme que l’on cherchait.

Théorème 3 – Pour tout polynôme p de En([−1, 1]), on a :

[ ]| | [ ]| |

Théorème 4 – Sur l’intervalle [a, b], en choisissant les points d’interpolation

on obtient la majoration suivante :


| | [ ]| |
C’est la meilleure majoration globale que l’on puisse obtenir.

30
Chapitre 6: Dérivation numérique
Chapitre 6

On souhaite calculer la dérivée d’une fonction f qui n’est pas connue explicitement mais
uniquement ou bien par ses valeurs ou bien par un algorithme.

31
1. Introduction :
Si f est une fonction dérivable sur [a; b]; la dérivée en c ]a; b[ est définie par:

Si f est une fonction continue sur [a; b]; l'intégrale de f sur [a; b] est définie par

∫ =

Où ∑

R(h) est la somme de Riemann avec

On sait déterminer "exactement" pour f définie à partir de fonctions élémentaires (exp, sinx,
ln x; …):
On sait aussi calculer ∫ en utilisant les théorèmes fondamentaux d'intégration pour une
fonction continue sur [a; b]; et on a ∫ où F(x) est une primitive de f(x)

Mais il existe des fonctions très simples comme Ou √ qui n'ont pas de
primitive connue, donc, comment peut-on intégrer de telles fonctions entre a et b?

D'autre part f peut-être connue seulement en quelques points et sa formule est inconnue (exp:
résultats expérimentaux,...), donc comment peut-on dériver ou intégrer ses fonctions?

Du point de vue numérique, la solution à ce problème est immédiate: nous avons vu, dans les
chapitres précédents, comment approximer une fonction par une fonction plus simple, facile à
dériver ou à intégrer.

De façon précise si P(x) est une approximation de f dans l'intervalle [a; b], nous nous proposons
d'étudier les approximations:

[ ]
∫ ∫

2. Dérivation numérique

La dérivation numérique nous permet de trouver une estimation de la dérivée ou de la pente d'une
fonction, en utilisant seulement un ensemble discret de points.

2.1 Dérivée première.

32
Soit f une fonction connue seulement par sa valeur en (n + 1) points donnés xi i = 0, 1… n
distincts.
Les formules de différence les plus simples basées sur l'utilisation de la ligne droite pour interpoler
les données ulilisent deux points pour estimer la dérivée.

On suppose connue la valeur de la fonction en et ; on pose et

Si on suppose que l'espace entre deux points successifs est constant, donc on pose

Alors les formules standarts en deux points sont:

Formule Expression
différence progressive

différence régressive

différence centrale

2.2 Formules de dérivation en trois points

On peut interpoler les données par un polynôme au lieu d'utiliser la droite, nous obtenons alors les
formules de différence qui utilisent plus de deux points. On suppose que le pas h est constant :

Formule de différence progressive utilisant trois points:

Formule de différence régressive utilisant trois points:

La formule d'approximation en 3 points de la dérivée première, basée sur le polynôme


d'interpolation de Lagrange, n'utilise pas des points équidistants.
Etant donné trois points (x1; y1); (x2; y2) et (x3; y3) avec x1 < x2 < x3; la formule suivante
permet d'approcher la dérivée en un point x 2 [x1; x3]: Les dérivées aux points xi sont les
suivantes:

33
Le polynôme de Lagrange est donnée par :

L'approximation de la dérivée première est donnée par , qui peut s'ecrire :

Donc

2.3 Dérivées d'ordre supérieur.

Les formules de dérivées d'ordre supérieur, peuvent être trouvées à partir des dérivées du
polynôme de Lagrange ou en utilisant les formules de Taylor.

Par exemple, étant donné 3 points , équidistants, la formule de la dérivée seconde est
donnée par:

[ ]
L’erreur est en )

Dérivée seconde à partir du polynôme de Taylor :

34
L’erreur est en )

Pour obtenir les formules de la troisième et la quatrième dérivée, on prend une combinaison
linéaire des développements de Taylor, pour f(x + 2h); f(x + h); f(x - h) et f(x - 2h):
La table suivante donne les différentes formules centrales toutes en O(h2):

[ ]

[ ]

[ ]

[ ]

En utilisant les polynômes d'interpolation de Lagrange les dérivées d'ordre p sont calculées par:

Remarque :

La formule est exacte pour les polynômes de degrés n:


Le système linéaire donnant les a un déterminant de type Vandermonde différent de
zéro si les xi sont distincts.
Les sont indépendants de f et peuvent être calculés une fois pour toutes.

Chapitre 7 : Intégration numérique


Chapitre 6

Le but de ce chapitre est d’aborder le calcul général de l’intégrale d’une fonction


f(x) sur un domaine fini délimité par des bornes finies a et b

35
1. Introduction

Nous développons ci-après quelques méthodes qui permettent de calculer, sur un intervalle fini
[a,b], l’intégrale définie ∫ d’une fonction f continue donnée. Ces méthodes sont
particulièrement utiles dans le cas où les primitives de f ne sont pas des fonctions élémentaires ou
sont trop difficiles à calculer.

Nous distinguerons deux optiques :

la fonction à intégrer est remplacée par une fonction interpolante ou par une fonction
d’approximation ;
l’intégrale est approchée par une somme pondérée de valeurs prises par la fonction en des
points situés dans un voisinage de [a,b].

2. Méthodes classiques

On supposera dans ce qui suit que les fonctions que l’on cherche à intégrer numériquement sont
continues sur l’intervalle [a; b]. Soit = a < x1 < x2 < _ _ _ < < = b une subdivision de
l’intervalle [a; b]. La théorie élémentaire de l’intégration implique :

∫ ∑ ( )( ) [ ]

Différents choix des mènent aux méthodes classiques :

2.1 Rectangle à gauche:

On prendra dans ce cas

36
2.2 Rectangles à droite

On prendra dans ce cas

2.3 Point milieu

On prendra dans ce cas : , ce qui donne la formule du point milieu :

Remarquons que les méthodes précédentes reviennent à interpoler f sur chaque intervalle [xj ;
xj+1] par le polynôme d’interpolation de degré 0 relatif à l’unique nœud . Ces formules seront
donc exactes pour les fonctions constantes sur [a; b] et en particulier pour .

37
L’autre méthode classique est la méthode des trapèzes basée sur la formule :

( )

La méthode des trapèzes revient à interpoler f sur chaque intervalle [xj ; xj+1] par le polynôme
d’interpolation de degré 1. Cette formule sera donc exacte pour .

3. Formalisation de l’intégration approchée

Nous allons maintenant définir un cadre d’étude général au problème de l’intégration approchée et
donner un certain nombre de résultats généraux qui seront admis pour ce cours.

Soit C([a; b]) l’espace vectoriel des fonctions continues sur l’intervalle [a; b] de R et f une fonction
de C([a; b]). On suppose que l’on connaît au moins les valeurs de f en certains points x0; x1,…, xn
de l’intervalle [a; b]. On cherche alors une formule d’intégration approchée de la forme :

∑ ̅

où les sont à déterminer. On parle aussi de méthode d’intégration numérique ou formule de


quadrature

Définition 1 : Une méthode d’intégration numérique est dite d’ordre N ( ) si elle est exacte
sur .

Par exemple, la méthode des rectangles à gauche ou à droite et la méthode du point milieu sont
d’ordre 0 et celle des trapèzes est d’ordre 1.

38
En pratique, connaissant les valeurs de f aux points x0,…, xn, on remplace f par le polynôme
d’interpolation ∑ écrit dans la base de Lagrange. On a alors la formule
d’intégration approchée :

̅ ∑ ∫ (1)

Qui est exacte sur [ ]

Théorème 1 . Soit [ ] et ̅ donnée par (1). Alors on a la majoration suivante de


l’erreur d’intégration :

| ̅ | ∫ | |

Avec : | |, ∏

4. Formules de Newton-Côtes

D’après ce qui précède, pour obtenir notre formule d’intégration approchée, on doit donc calculer
les

Pour ceci, nous allons supposer que les points d’interpolation sont équidistants, i.e., ne
dépend pas de j, que , et n 1.

Calcul pratique des coefficients :

Pour calculer les coefficients on peut utiliser le fait que ̅ est exacte sur [ ] ).
Par exemple pour n = 1, a=-1 et b=1, on a ̅ , or ̅ est exacte sur
[ ] ). Donc ̅ ∫ ̅ ∫ .On obtient donc
le système linéaire :

D’où

39
Chapitre 8 Résolution numérique des équations différentielles ordinaires
Chapitre 8

Dans ce chapitre, il sera question de la résolution numérique des équations


différentielles. Les méthodes numériques abordées sont dites à un pas, car le calcul
de ne réclame que la valeur de à l’instant précédent. Une
méthode à deux pas utilisera à la fois et . Nous nous bornerons aux
méthodes numériques d’Euler, de Heun, de Crank- Nicolson et de Runge-Kutta
classique d’ordre 4

1. Introduction

Une équation différentielle est une équation dont l’inconnue est une fonction y(x). La forme
générale d’une telle équation s’écrit :

( ) (1)

Avec, est la nième dérivée de la fonction y et désigne le second membre de l’équation


différentielle.

40
Dans le cas où =0, on dira que l’équation différentielle est homogène. L’existence d’une
solution unique de l’équation différentielle est tributaire de l’imposition de certaines conditions
initiales sur y(x) et ses dérivées. Dans l’équation (1), les conditions initiales sont les valeurs de y(a),
Cependant, il faut noter que très souvent la solution analytique n’existe pas,
et on doit par conséquent approcher la solution exacte y(x) par des méthodes numériques.

2. Problème de Cauchy

Le problème de Cauchy consiste à trouver une fonction continûment dérivable


vérifiant :

( )
{ (2)

La première équation est une équation différentielle et la deuxième relation exprime une condition
de Cauchy ou condition initiale.

Définition : soit une fonction donnée, s’il existe une constante L telle que

| | | |

alors f est dite lipschitzienne de rapport L sur ou simplement L-


lipschitzienne

Théorème : si f est continue sur et L-lipschitzienne par rapport à sa deuxième variable y(t)
alors le problème de Cauchy admet une solution unique sur I, .

Remarque : Dans ce qui suit, la variable t sera systématiquement remplacée par la variable . Le
formalisme mathématique demeure inchangé.

3. Méthodes d’Euler

3.1 Algorithme d’Euler

Afin d’atteindre la solution y(x), sur l’intervalle x [a; b], on choisit n+1 points dissemblables
, avec et et le pas de discrétisation est défini par h = (b - a)/n. La
résolution numérique consiste à discrétiser l’axe des abscisses suivant ( ).
Ensuite on cherchera un comme approximation de y au point , soit . Ainsi l’ensemble des
approximations successives { }, où tout simplement { } , constitue la solution
numérique. Ces méthodes sont itératives donc la suite { } doit être initialisée afin de calculer
ses successeurs. Soit l’équation différentielle :

( )

Trouver la solution de cette équation revient à calculer l’intégrale de f(x; y(x)) entre les bornes
et , soit :

∫ ( )

Cette intégrale s’écrit en fonction des approximations et

41
∫ ( )

Par conséquent, en fonction de la méthode d’intégration utilisée afin de résoudre l’intégrale (terme
de gauche), on obtient un schéma numérique donné. En utilisant par exemple la méthode des
rectangles à gauche, on obtient le schéma numérique d’Euler progressif :

En utilisant la méthode des rectangles à droite, on obtient le schéma numérique d’Euler rétrograde

Avec la méthode du point milieu, on aura le schéma numérique d’Euler modifié :

( )
{

Exemple 1

Soit à résoudre numériquement l’équation différentielle : . On


utilisera à cet effet le schéma numérique d’Euler rétrograde :

Avec = +n h et . On discrétise l’axe des abscisses suivant 10


noeuds sur un intervalle [0 1]. Le pas de discrétisation est h et
la condition initiale est y(x0 = 0) = 1 = u0.
Nous avons appliqué le schéma numérique ci-dessus pour dix approximations :

n
0 0.0000 1.0000
1 0.1000 0.9524
2 0.2000 0.9118

42
3 0.3000 0.8779
4 0.4000 0.8504
5 0.5000 0.8289
6 0.6000 0.8133
7 0.7000 0.8033
8 0.8000 0.8031
9 0.9000 0.7982
10 1.000 0.8031

3.2 Erreur théorique

La convergence des deux schémas d’Euler est d’ordre un par rapport à h :

| |

Cela signifie que si je divise par deux le pas h, l’erreur sera divisée par deux également. Dans cette
configuration le temps de calcul est multiplié par deux.

Théorème : si f est continue sur , L-lipschitzienne par rapport à sa deuxième variable et


y(x) sur I alors l’erreur commise au point (xn; un) est majorée par :

| | | |

4. Méthode de Heun

La Méthode de Heun est une version améliorée de celle d’Euler. L’erreur sur le résultat généré par
cette méthode est proportionnelle à , meilleur que celle de la méthode d’Euler. Néanmoins, cette
méthode nécessite une double évaluation de la fonction f.

{
{ }

Le schéma numérique de cette méthode résulte de l’application de la formule de quadrature du


trapèze. Notons également que la méthode de Heun fait partie des méthodes de Runge-Kutta
explicites d’ordre deux. Afin d’illustrer le fonctionnement de cette méthode, reprenant l’équation
différentielle de l’exemple numérique précèdent et cherchons la formule analytique
correspondante :

( )

( )

43
( )

Finalement :

( )

5. Méthode de Crank - Nicolson

Cette méthode permet d’obtenir une plus grande précision (elles génèrent des solutions numériques
plus proches des solutions analytiques) que les deux méthodes précédentes. Le schéma numérique
est donné par :

{
{ }

Cette méthode et celle d’Euler rétrograde sont inconditionnellement stables, moyennant certaines
conditions de régularité sur les équations à résoudre.

6. Méthode de Runge–Kutta, d’ordre 4

La méthode de Runge-Kutta (classique) d’ordre 4, est une méthode explicite très populaire. Elle
calcule la valeur de la fonction en quatre points intermédiaires selon :

{
( ) ( )

Exemple 2

Appliquons l’algorithme de la méthode de Runge-Kutta pour résoudre l’équation


suivante:

{
[ ] soit h=0.1 ,

On a :

44
( ) [( ) ]

( ) [( ) ]

[ ]

Puis on calcule

En répétant la démarche pour les autres valeurs . on obtient les résultats


qu’on regroupe dans le tableau suivant

k
0 0.0000 2
1 0.1000 2.4163
2 0.2000 2.8659
3 0.3000 3.5323
4 0.4000 3.8793
5 0.5000 4.4513
6 0.6000 5.0728
7 0.7000 5.7492
8 0.8000 6.4863
9 0.9000 7.2903
10 1.000 8.1684

Bibliographie

[1] Manfred GILLI, METHODES NUMERIQUES ; Département d’économétrie Université de


Genève , Version : 25 mars 2006
[2] Nassima KHALDI, Notes de Cours et exercices corrigés d’Analyse numérique I Université des
Sciences et de la Technologie d’Oran Mohamed BOUDIAF, 2019
[3] CHAPITRE 2 ÉQUATIONS NON LINÉAIRES, Mat-2910 A-14 disponible sur le lien
Lien11
[4] Michael Tolley, Eléments de calcul numérique, Février 2011
[5] Rachid Touzani, ‘ Introduction à l'analyse numérique, ´ Ecole Polytech Clermont-Ferrand
[6] Thomas Cluzeau, ‘Analyse numérique’, École Nationale Supérieure d’Ingénieurs de Limoges
[7] Catherine Bolley, ‘Analyse numérique’ : Centrale Nantes, HAL Id: cel-01066570
[8] C. Brezinski, ‘’Les travaux scientifiques de Cholesky’’
[9] Karima MEBARKI, ‘’ Analyse Numérique Cours, 2`eme année licence mathématiques’’,
Université Abderrahmane Mira de Béjaia, Faculté des sciences exactes, Département de
mathématiques
[10] Souad EL BERNOUSSI, ’’Analyse numérique I’’, Université Mohammed V de Rabat, Faculté
des Sciences, Laboratoire de recherche: (LabMIA-SI)
[11] Thomas Cluzeau, ‘’Analyse numérique’’, École Nationale Supérieure d’Ingénieurs de Limoges
[12] SAMIR KENOUCHE –‘’ méthodes mathématiques et algorithmes pour la physique’’
département des sciences de la matière – umkb
[13] Meddour Belkacem, ‘’Cours de Méthodes Numériques’’, Université de ABBAS Laghrour
KHENCHELA, 2016

45

Vous aimerez peut-être aussi