Vous êtes sur la page 1sur 45

Université frères Mentouri

Faculté des Sciences de la Technologie


Tronc Commun Sciences et Techniques

Docteur Siham BENKOUDA

Chargé de Cours ‘Méthodes Numériques’


Responsable des TD ‘Méthodes Numériques”

Méthodes Numériques
(Cours et TD)

Supervisé par : Pr. Abderraouf MESSAI

Responsable du module ‘Méthodes Numériques"


Table des matières
Table des matières

Cours Méthodes Numériques 1


Chapitre 1 : Méthodes de résolution des équations non-linéaires 2

1. Introduction. Anne ee ti
2. Méthode de la bissection san nisnennrarnnneennnennnennnnrnmnannnne 2
2.1 Développement de la méthode... sen nsscmneenemennernenenes 2
22. Algorithme e la méthode... issus à
2.3. Convergence et estimation de l'erreur ss @
3. Méthode de Newton-Raphson…. " annee enemenneeenerenemenennennnesenes D
31 Interprétation graphique de la méthode. ne Ra n menene E
32 Algorithme de la méthode... res 7
33 Convergence et estimation de l'erreur iii À
4. Méthode du POIint Re... enr iinemnennennnrniennnnnnéee ie sanie ol
4.1. Exemple... and A nt et
4.2, Alcorithine ds la méisée. _—
4.3. Etude de la convergence de la méthottess
44. Estimation:de l'erreur. seras nnnreisneisn

Chapitre 2 : Résolution des systèmes d'équations linéaires (Méthodes directes) 11

1. Introduction. 5
2. Méthode de Cramer (Rappel. pense are EEE RnEn eur 2
2.1. Solution utilisant les rs NE 12
2.2. Solution utilisant la matrice inverse ni anemnennnnns LA
& Méthode: de Gauss Sn nr nn enr nn détest
3.1. Introduction (Principe) …
DB: AROTNME Su tEé
4. Méthode de Gauss avec pivot... enr snsnre seras
minsnnennenennennnmnnenneinisenne

Chapitre 3 : Résolution des systèmes d'équations linéaires (Méthodes itératives) 15

INÉTOMLOMON asser nn lens eh ir amas LS


Principe enrereee nn ennetmenine ee
Décomposition de matrice À. er Gt TS
Méthode de SA mme 16
Méthode de Gauss-Seide …. 16
Critère d'aprêt ss usessssssseeenrenennernnnnnennnnnneneenennenneneennenmennnesee
LU
Condition de: convergence. ile lentes débat era À

Ji Oo Um BE Lg M

Chapitre 4 : Intégration numérique 18


INtFOAUCTIQN si sssssssssss sisi sssssssrsssssssrssssssssssssnesss anis
ssnesnanesssresenenesssssssreinsennennssssssns LE
Méthodes des trapèzes et Simpsons nennssenenerssenrreceeenneeeeneneeeree 19
Méthode des trapèzes généralisée sisi 2Û
Méthode de Simpson généralisée... ssssnsninnssrensenesnee 2O
ÉOrMUISS des ETES nurnraensnrnnanns one annnr dencre A

Un Es Lu MJj Ha

Chapitre 5 : Equations différentielles 23

2: Introduction css mamans 28


2. Méthode d'Euler..ssis nn 24
3: Méthodes à Dm Dassin anna an La nn tan ra 2
3.1. Forme générale... … 25
3.2 Méthodes de Runge-Kutta..….... sise 20

Chapitre 6 : Interpolation 28

L Introductions de ar nn n Sn nn nt 28

. Polynôme de Lagrange ……. me 28


2,1, Formule générale... snrniennesnetnenrnnasen dress 29
2% TN M Banner nanas rennes 2)
2.3. Estimation de l'erreur. sr 30
: Méthode:de: NeWtON ice nnnnenuisnecnsni tir nensoisicn JÛ)
3.1. Forme générale... sn
3.2. Relations nécessaires pour le calcul des coefficients Es 31
3.3. Calcul des coefficients Ci unnsennnenerrennssnnnus 31

TD Méthodes numériques 33

SO tone Ds n anse en rennais t


Solétion du TO nds near AS
Soltion: du Tin ds na a a a
D cnrnisssnnernncainanennnnsnnésn sus nnnnenagnannueréinsinnsesgireniaisaeeret D
Soldtion du TER Sn non en eme sisnneni naines sind nbad ana sue t5 8 D
SO US Ed PTE Sacs ares em mm meme 0

Solo TO NE onmsonmmenmmemmmmnonmmucesmmdnmandsmsanenenennee Cl
Bibliographie

78
Cours Méthodes Numériques
Chapitre1

Méthodes de résolution des équations non-linéaires

1. Introduction

Les méthodes analytiques de résolution des équations algébriques polynômiales sont


limitées à certaines formes de faible degré telles que les équations quadratiques,
cubiques
et quartiques. Pour les équations polynômiales entières de degré supérieur à
quatre, il
n'existe guère de méthodes exactes de résolution et l'on doit employer des méthodes
numériques pour trouver les racines.

De plus, les méthodes analytiques limitées aux formes polynômiales simples sont
inütilisables pour les équations transcendantes telles que :

xe*—cosx+x+l=0

Il faudra donc recourir aux méthodes numériques qui permettent de calculer des
racines
approchées avec une précision déterminée.

Dans ce chapitre, nous présentons plusieurs techniques de résolution des équations


non
linéaires. Les méthodes proposées sont : la méthode de la bissection, de Newton-
Raphson et
du point fixe.

Définition :

Une valeur de x solution de f(x) = 0 est appelée une racine ou un zéro de la


fonctionf (x).

2. Méthode de la bissection

Cette méthode est appelée aussi « dichotomie », elle repose sur un théorème
important
c'est le théorème des valeurs intermédiaires qui est à la base de l'étude de celle-
ci ainsi que
des autres méthodes.

Théorème

Si f est une fonction continue sur l'intervalle [a, b] et si on a fa). f(b}) < 0
alors l'équation
fx) = 0 possède au moins une racine dans l'intervalle [a, b].

2.1. Développement de la méthode

On s'assure que si f(a), f(b) < 0 sur l'intervalle [a, b], la racine est unique
(c.à.d. que f
est monotone dans l'intervalle [a, b]].
On partage [a, b] en 2 intervalles, [a,c] et [c, b] tel que € = +, Si fa). f(e) < 0
cela

implique que la racine € [ae] et si f(c). f(b) < 0 cela implique qu'elle € {e, b]
(si f(c) = 0,
c serait la racine exacte). Le domaine gardé sera à son tour partagé jusqu'à
arriver à un petit
domaine selon une précision donnée dont sa moitié sera considérée comme racine
approchée de l'équation f(x) = 0.

Exemple 1 : Calculer la racine de l'équation f(x) = x° — x — 1 = 0 dans


l'intervalle [1,2]
avec la précision eps=0.001

Solution :

La fonction f(x} est un polynôme donc continue sur [1,2].

f(O)=-1,f(2)= 61 = f(1).f(2)<0, donc d'après le théorème des valeurs


intermédiaires, il existe au moins une racine € € [1,2] tel que f(c) = 0.

De plus f'(x) = 6x5 —1 vrxel142] f'(x)>0 = f 7 (f est monotone), on déduit


alors que la racine de f dans [1,2] est unique. On cherche maintenant à calculer
une
approximation de cette racine.

n a b € b—c | fc)

1 | 1.0000 | 2.0000 | 1.5000 | 0.5000 | 8.8906


2 | 1.0000 | 1.5000 | 1.2500 | 0.2500 | 1.5647
3 | 10000 | 1.2500 | 1.1250 | 0.1250 | -0.0977
4 | 11250 | 1.2500 | 1.1875 | 0.0625 | 06167

10 | 1.1300 | 1.1348 | 1.1338 | 0.001 | 0.0096


La racine approchée est c = 1.1338 obtenue après 10 itérations.

Exemple 2 : Résoudre l'équation e* = cos x dans l'intervalle [—0.5,0.5] avec


eps=0.0003.

Solution :

FR à
és

On remarque que f{c) = e° — cos 0 = 0,

Donc, € = O est la racine exacte de la fonction dans l'intervalle [—0.5,0,5].


2.2. Algorithme de la méthode

Pasi:c< (a+b)/2

Pas 2: Si b = c < eps, c est considérée racine approchée (stop).

Pas 3: Si f(c) = 0, c est considérée racine exacte {stop}.


Pas4: Sif(a). fe) < 0 Alors c— b
Sinon Ci

Pas 5 : Retour au pas 1.

23. Convergence et estimation de l'erreur

< On démontre que la méthode de la bissection est convergente (vers la solution


unique
de l'équation f(x) = 0 dans l'intervalle [a, b]}.

« On cherche à déterminer l'erreur maximale commise en utilisant la méthode de la


bissection dans l'intervalle [a, b].

a £
k À intervalle initial
Û; bi

Pour i = 1 : la longueur du premier intervalle [a,,b;] = [a,b] est b, —a; = b-—a,

Pour i = 2 : la longueur du deuxième intervalle [a,, b,] est b, — a, = _—


Pour i = 3: la longueur du troisième intervalle [az,b,] est ba — 43 == =.
Pour i = 4: la longueur du quatrième intervalle [a,, b, ] est b, — a, = —

= ba

Pour i = n: la longueur du n°" (dernier) intervalle [a,,b,] est b, — a, ===.

n by # 4 æ
La racine approchée est €, = “, Si on désigne par « la solution exacte, alors on
a :

b;;= b—
EG =tl <= == €

ba
donc, l'erreur |C, — æ| < rs {1)

« La relation (1) permet aussi de calculer à l'avance le nombre max d'itérations


nécessaires.

le Ba
& es) {2} (n ne dépend pas de f)

Comme exemple : Si l'intervalle est [1,2] et eps = 107% alors n > 9.93

On prend n = 10. Il est important de remarquer que le nombre d'itérations


nécessaire
donné par la formule ci-dessus est, dans plusieurs cas, une surestimation du nombre
réel
d'itérations nécessaire (pour le calcul on peut se contenter de 1 = 9 tout en ayant
atteint la
précision voulue).

3. Méthode de Newton-Raphson

Soit « la racine exacte de l'équation f(x) = 0. Si fest continue et continüment


dérivable
au voisinage de «, alors le développement en série de Taylor autour de x, [x étant
la valeur
initiale} s'écrit :

LD = Po) + LE (a = 20) + LE (eg) + ED (ue 0) +


À
Donc on peut écrire :
FG9 = ko) + F'Cro)(X — xo) +R
Posons x = « on trouve :
Le) = fo) + (e — x5)f'Cro) + R = 0
= Fxo)

PT Po)
En ignorant À, on obtient une nouvelle approximation x,(meilleure que x).
pee f(xo)

: ® f'Go)

On considère maintenant le développement en série de Taylor autour de x;.

De la même manière que précédemment on trouve une nouvelle valeur x, tel que :

_. _ {@)
FAT F(x)

Ainsi on obtient la relation récursive suivante :

x donné
PCxx-1)

RAT PEU A)
3.1. interprétation graphique de la méthode

+» =/(x)

x
Figure 1.1. Méthode de Newton-Raphson
tg0 représente la dérivée :
F(Xk-1) = 0
Lg) = —=———
g Xe Xe
Exemple : Trouver par la méthode de Newton-Raphson la valeur approximative de la
racine

de x° — x +2 = 0 à partir dex, = —1 pour une précision £ = 1076


Solution :

fQ)=x" -x+2=02 /f'(x) = 5x1

En appliquant la formule de Newton-Raphson, nous obtenons :

Lima — Xi + 2

RAA ET 1

Alors en partant de x, = —1, on obtient les itérations illustrées dans le tableau


suivant :
Xk

-1.000000

-1.500000

-1.331620

-1.273516

-1267237

-1.267168

ins wlnulrhlolæ

-1267168

re — el = fc — xl <e donc la racine approchée de l'équation f(x) =0 est


= —-].267168.

3.2. Algorithme de la méthode

Pasi:k 1

HET)
Pas 2: xp 6 Xp — 5
k A1 Ftees)

Pas3:Silx, — x, ,|<# Alors on arrête (x, racine apprachée)


Sinon Pasd'k —k+1
Pas 5 : Retour au pas 2.

3.3. Convergence et estimation de l'erreur


Théorème

On démontre que si f est définie sur l'intervalle [a, b] tel que :


1. fa). f(b) < 0
2. vrelab] f'(x) 20
3. vrelab] f(x) #0

Alors la méthode de Newton-Raphson engendre une suite qui converge vers la solution
unique de f(x] = 0, en partant de l'approximation x, vérifiant :

F"(xo). f(xo) > 0.


On démontre aussi que l'erreur commise en utilisant la méthode de Newton-Raphson

comme outil de résolution s'écrit :

MX — Xx1)° M = Max{|f"(x)l}, x € lab]

xl <
lt xl 2m AVEC Lin = min(|f"()l}, x € [ab]
4. Méthode du point fixe

Avant d'aborder la méthode du point fixe, il est important de définir ce que


signifie un
point fixe d'une fonction.

Définition

Soit la fonction g(x) définie dans l'intervalle [a, b]. Tout point c € [a, b] tel
que : € = g(c)
est dit point fixe de g(x).

L'équation f(x) = 0, avec f continue sur [a, b] peut être mise sous la forme x =
g(x)
tel que : f(x) = x — g(x).

Le choix d'une valeur initiale de la racine x, permet d'avoir une première


approximation x,
tel que: x, = g(xo) puis une meilleure approximation x, tel que: x, = g(x;,) ainsi
on
obtient une suite définie par la relation récursive suivante :

au = 9
Xx = 9(Xx-1)

4.1. Exemple

Soit à résoudre l'équation x° — 2 = 0 à partir de la valeur initiale x, = 1.2


Solution :

Il est possible de transformer l'équation précédente en plusieurs formes x = g(x)


par
exemple :

a) x = gx) = x +x —2

*o = 1.200

x, = 0.928
22 = —0,273
X3 = —2.293
x = —16.349

On remarque qu'on s'éloigne de la racine exacte (2'4) — Divergence.

b) x = galx) = (2 + 5x —x°)/5 on obtient :

Xo = 12000
x = 1.254
2 = 12596
x: = 1.2599
x = 12599

On remarque qu'on s'approche rapidement de la racine exacte (2 Le) = Convergence.


De là on conclue que le choix de la forme x = g(x) est capital dans la
détermination de la
convergence ou la divergence de la méthode du point fixe.

4.2, Algorithme de la méthode

Pasl:k —1

Pas 2 : Xx — g(Xx)

Pas 3: Silxy — xx | < € Alors on arrête (x racine approchée)


Sinon Pasd:k —k+1
Pas 5 : Retour au pas 2.

4.3. Etude de la convergence de la méthode

Théorème

On démontre que si g:[a,b] — [a,b] possède un point fixe dans l'intervalle [a, b]
et si
g'(x)| <= k < 1 ce point est unique.

de.
Exemple: On montre que la fonction g(x) = — possède un point fixe unique dans
l'intervalle [1,1].

Solution :
Divisons l'intervalle en 2 parties : [—1,0] et [0,1]
g(-D =g()=0ef-11]
1
g(0)=-7e [+11]

Et nous avons :

1
vxe[-10]: g(x) *= g(0) = —3<90)< g(—1) =0

vx E [0,1]: gx) / = g(0) = =2< 40) <g(1)=0


Donc g:[-1,1] - [-1,1]

En plus |g'(x)1 = [2*/al < 2/3 < 1

On conclu que le point fixe est unique dans [—1,1].


Théorème

On démontre que si la fonction g:[a,b] — [a.b] vérifie |g'(x)| < k < 1 vx e [ab],
alors
la suite définie par la relation récursive suivante :
0
Le = ÿ(Xr1)

est convergente et converge vers le point fixe unique de g dans [a,b].

4.4. Estimation de l'erreur

On démontre que l'erreur commise en utilisant la méthode du point fixe comme outil
de
résolution vérifie la relation :

cr: la solution exacte


x, : la solution approchée
” EM ni Xn=1 |

xs = Xn=2 |

k
Pi as

ln — Xl où
Chapitre 2

Résolution des systèmes d'équations linéaires (Méthodes


directes)

1. Introduction

Dans la pratique, l'ingénieur se trouve souvent confronté à des problèmes dont la


résolution passe par celle d'un système d'équations qui modélise les divers
éléments
considérés. Par exemple, la détermination des courants et tensions dans des réseaux
électriques passe par la résolution d'un système d'équations linéaires ou non
linéaires.

Dans cæ chapitre, nous allons aborder deux principales méthodes de résolution des
systèmes linéaires, à savoir la méthode d'élimination de Gauss et Gauss avec pivot.
De façon
générale, la résolution d'un système d'équations linéaires consiste à trouver un
vecteur
X = Pa %2 X3 x]7 {(X dénotera un vecteur colonne et l'indice supérieur T
désignera sa transposée]} solution de :

1% +35 + CERE put Tinln — b


Gsa% + sas + Gusts + Han = bs

Gti + Anake À AnsXa À UE nkn — b,

On peut utiliser la notation matricielle, qui est beaucoup plus pratique et surtout
plus
compacte. On écrit alors le système précédent sous la forme :

AX =
où À est la matrice :
di 3 3 . y
fl ls ms €
A ns 21 dé 8 an
Moi n2 na + run
etb=[h b: b; .… b,]".Bien entendu, la matrice À et le vecteur b sont connus. Il

reste à déterminer le vecteur Ÿ.


2. Méthode de Cramer (Rappel)

C'est certainement la méthode la plus connue de résolution des systèmes linéaires,


Toutefois, nous allons voir que c'est la moins recommandable.

2.1, Solution utilisant les déterminants

AX = b sile detA = |A| # 0 = le système possède une solution unique telle que :

+ _ lil K _W&l x _ 4,
STATS TA MC TAT

La matrice est À; est obtenue par remplacement de la colonne i de la matrice A par


le
vecteur b.

Remarque : SidetA = |A] = 0 = le nombre solutions est infini ou inexistant.

2.2. Solution utilisant la matrice inverse A7!


SidetA = |A|#0 = AT! existe.
AX = b
AT AX=b = X=A71h (A7! est calculée par la méthode des cofacteurs),
Remarque: la méthode de Cramer exige un grand nombre d'opérations de calcul
((n? + nn! — 1). Si n est élevé, le nombre d'opérations augmente et par conséquent
le
temps de calcul. De plus, pour les moyens et grands systèmes l'erreur cumulée
d’arrondi
augmente avec le nombre d'opérations et altère la précision des résultats. On va
aborder

d'autres méthodes qui nécessitent un nombre limité d'opérations de calcul, donc


rapides et
plus précises.

3. Méthode de Gauss
3.1. Introduction (principe)

Cette méthode est basée sur la transformation du système linéaire AË = b en un

système équivalent A'X = b'tel que la matrice A° est une matrice triangulaire
supérieure.

La transformation de la matrice À en A4’ et le vecteur b en b' passe par plusieurs


étapes que
nous présentons à travers l'exemple suivant :

Pour une meilleure praticabilité, on forme la matrice À telle que À = [A :b| et


qu'on
appelle matrice augmentée de A.

Exemple : Soit à résoudre par Gauss le système linéaire suivant :


% + 3x2 + 343 = 0 1 3 3:01F
2x + 2x2 = 2 Â=12 2 0!2/#,
! 3
3x1 + 2x5 + 6x3 = 11 3 2 6;11]E,
Etape 1 : élimination de x, de FE; et E,
2 3
E + E jh: EB+E-TE
F1 3 31018
ÂM=|0 4 6} 2 E,
0 7 -3:11/E,
Etape 2 : élimination de x; de E3
Es + E. (2e
RE
3 3 4)":
1 3 3! 071
A =|0 4 6! 2 |E,
: :
0 0 152115/2/E,

Par substitution inverse on obtient :


15 : 15
2 7 3

—4X5 —6X3= 2 = X3 =—-2

= x=1

M+3%+3%=0 = x =3

Donc, la solution est :


3

= |-2
1

1. Triangularisation:

3.2. Algorithme

& =
Tk

dj = way; j=k+in+li;:i=zk+iln; k=in-1


2. Substitution inverse:

x =|bh- aijxi fau s Cann—1,..,l

INA >
è
+
4. Méthode de Gauss avec pivot

Dans le processus d'élimination de la méthode de Gauss, on a supposé à chaque étape


k
(k= T,n — 1) que l'élément ayy # 0, mais cette supposition n'est pas toujours
vraie. Si
ax = 0, on cherche l'équation E,, parmi celles qui suivent E, où l'élément a, # 0
pour
faire la permutation (E, ++ E,} et ainsi avoir 44, # 0.

Aussi, on remarque que la division par de petites valeurs génère une grande erreur
ce qui
nous amène à choisir a, le plus grand en valeur absolue, c.à.d:

lan] = Max(laxl}; k<i<n

Après le choix de a}, on poursuit normalement l'étape en cours selon Gauss.


Chapitre 3

Résolution des systèmes d'équations linéaires (Méthodes


itératives)

1. Introduction
On s'intéresse à la résolution du système linéaire :
AX =b
où À est une matrice d'ordre n. Les méthodes que nous présentons ci-après sont la

généralisation aux cas n-dimensionnel des méthodes de résolution de f(x) = 0


étudiées
dans le cas monodimensionnel du chapitre 1. Ces méthodes consistent à utiliser un
vecteur

initial X (0) et de générer une séquence de vecteurs : X(0, 0). XÛ convergente le


plus
rapidement possible vers le vecteur solution.
2. Principe
On veut résoudre le système linéaire :
A = b
Ecrivons À sous la forme À = M — N (A et M doivent être régulières) alors le
système peut
s'écrire :
(M—N)# =D où MX*=NX+E
Enfin Ÿ = MIN + Mb
A partir du vecteur initial X(®), on obtient les itérations X®) telles que :

XE#D = MINXO + MID k=012. (1

3. Décomposition de la matrice A
Définissons les matrices D, Let U telles que :
D matrice Diagonale / di, = a; Vi
| | | hy=-ay si i>j
L matrice triangulaire inférieure / lj=0 si (<f
Uj=—û; Si f>i

U matrice triangulaire supérieure / ui = 0 st fj<i


À partir de cela on a la relation :
A=D-L-u

4. Méthode de Jacobi
La matrice À étant décomposée en :
A=M-N
On prend M = D et N= L + la relation (1} devient
XU4 = DL 4 U)KO + DB (2)

Qui peut être développée sous la forme suivante :

A = (b, = a2X20 = aa Xa 0° rie dinka)/a


4, (bz — a 009 — a33X309 danXn0)/a32
x. — (b, — an 1 aux TT Cul Ne

5. Méthode de Gauss-Seidel
La matrice À étant décomposée en :
A=M-N
On prend M = D—L et N= U, la relation (1) devient
XU&#1) 2 (DL) AUX + (D = L)tE

Comme l'inverse de (D — L) peut être compliquée à calculer, on préfère écrire le


système
comme suit :

KHD = pri +1) + Dix) +D"15 (3)

En développant cette récurrence vectorielle on obtient :

x, 040 = (b, de ay2X2 19) au A3 X309 ar ST es in Xp ®)/a;:


2779 = (b, D a1X,0+9 _ azaX 3 TT anXn (9) /az
de = (b, ee Ga — an7X2040 ET dues Gi

La méthode de Gauss-Seidel est donc une variante améliorée de la méthode de Jacobi.


En effet, à l'itération k + 1, au moment du calcul de X, **1), on possède déjà une
meilleure
approximation de X, que X,(*), à savoir X,*#1), De même, au moment du calcul de X,
(*#1),
on peut utiliser X, #1 et X, (#1 Qui ont été déjà calculés. Plus généralement, pour
le
calcul de X,(*+1, on peut utiliser X, +0, x, (640), x, (#1) déjà calculés et les
X,**1),
XD. XF de l'itération précédente.
6. Critère d'arrêt
On utilise le plus souvent les critères suivants :
s fa 00 — xt 1) £e i=in
ou

. 1x — 0] <e€ (erreur absolue)


ou

EU ON HI]
. £e (erreur relative)

ec LS

7. Condition de convergence
On démontre que si À est une matrice à diagonale strictement dominante {condition

suffisante), la méthode de Jacobi et de Gauss-Seidel sont convergentes. C.à.d. :


n
Y laul < lai Vi=ln.
j=i
st
Chapitre 4

Intégration numérique

1. Introduction

Dans ce chapitre nous essayerons d'aborder quelques méthodes numériques de calcul


des intégrales: méthode des trapèzes, méthode de Simpson, méthode des trapèzes
généralisée et méthode de Simpson généralisée. Souvent dans la pratique on doit
faire appel
à ces méthodes car en général la fonction à intégrer est connue en un nombre fini
de points
ou elle est difficile à intégrer. Ces techniques d'intégration consistent à
approcher la valeur
de l'intégrale à partir de plusieurs valeurs de la fonction à intégrer,

On s'intéresse donc à estimer la valeur de l'intégral de la forme :

b
= [rca

où f est une fonction continue définie dans l'intervalle [a,b]. La valeur


approximative de
l'intégral correspond à l'aire À sous la courbe de f(x).

y à

fi) À fix)

fa) +

|
|

>
0 +

Figure 5.1. Approximation de l'intégral par une surface de trapèze

L'aire correspond à la surface du trapèze donnée par :

b—a

S=—— (Ya) +f(@))


On peut partager l'intervalle [a,b] en n parties et on considère les surfaces des
trapèzes,
Prenons n = 4 petits intervalles :

Y 4

“+

Figure 5.2. Approximation de l'intégral par quatre surfaces de trapèze.


h=xig x i=03

On a la somme des surfaces des 4 trapèzes :

Î
S = SU) + FG))

SI
A = Ÿ Si => (fe) + 2/0) + 2f(2) + 2 (x) + fa)

i=1
De façon générale on peut mettre f f(x) dx sous la forme :

b
[rc dx à Y'a f(x)

i=0

où a; sont des coefficients à calculer.


2. Méthode des trapèzes et Simpson
Pourn=1l: f(x)=1 = L'idx=b-a=a1+e ‘1
fG) = x = fx dx = 2-2 = 9 “a+ab

à à ï é à bi $
La résolution du système à 2 équations donne a; = à, = ——, et on obtient donc la
formule

des trapèzes :
J FD dx = (ba) (5 f(a) +31 0)|

La formule des trapèzes peut être obtenue en approchant f(x) par le segment de
droite
joignant les deux points (a, f(a}} et Ch, f(b)).

Pourn=2: f(x)=1 = f'idx=b-a=ags1+m1+ai


FO =X = Lx dx == -L = age a+ a+ ( (=) + a +0
fR=x = ft dx = EE 2 ag ea? + as e (2) +a3 + b?

La résolution du système à 3 équations donne a, = a; =— et a = 4, et on obtient

donc la formule de Simpson :

j fe dx = (D = 0) [efta) +21 (0) +3)

La formule de Simpson peut être obtenue en approchant f(x) par la parabole passant
par

les points (a, f(a)), (=, 1) et (b,f(b}),


3. Méthode des trapèzes généralisée

Divisons l'intervalle [a,b] en n parties égales de longueur h == Les différents

intervalles engendrés sont : [xx], r,x5],.…, [xx]. En appliquant à chaque


intervalle
la formule des trapèzes on obtient :

nt À

j rodx= Y [ rodx= D CD + Ga)

f=û x

On remarque que tous les termes f(x;) sont répétés deux fois, sauf le premier et le
dernier.
On en conclue que :

b
F6 dx = 3) + Ga) + 2) + 2) + «+ Gr]

Cette formule est appelée formule des trapèzes généralisée.

4. Méthode de Simpson généralisée

On peut améliorer la précision de la formule de Simpson en la composant. Puisque la


méthode simple requiert deux intervalles, on divise alors l'intervalle
d'intégration [a,b] en

es

F
n = 2m sous-intervalles égales de longueur h =— et on utilise la méthode de Simpson

simple dans chaque paire de sous-intervalle [x2,,x2,43], Ê= 0,2, ,m — 1, On a


alors:

ri] Faite m1

b
Î food = Ÿ Î fodxs Ÿ LG) + 4f (taie) + fGais2)]

sd Lai i=û

On remarque que tous les termes de rang impair sont multipliés par 4 tandis que
ceux de rang

pair sont multipliés par 2, sauf le premier et le dernier. On en conclue que :

b
l
[60 dx + fr) + fc) + ACC) + fs) + + fn)
+ 2(FC2) + FU) + + fn-2))]

Cette formule est appelée formule de Simpson généralisée.

5. Formules des erreurs

On démontre que :

a. Erreur de trapèzes

h3

1Rr| = Eyax = TL"

h=b—a et M=Max{|f"(@)l}, £e [ab]


b. Erreur de trapèzes généralisée

ñnh°
lRrcl < Esrax = TT

h = — et M= Max{|f"'(£)l}, £e lab]

c. Erreur de Simpson

L
IR < Enax = 30"

h =— et M= Max{|f(9)]}, £e ab]

d. Erreur de Simpson généralisée


nh5
Rscl < Enrax = 180"


| n
h =

im 2
M = Max{|f(6)|}, £e [ab].
Chapitre 5

Equations différentielles

1. Introduction

La résolution des équations différentielles est probablement le domaine des


mathématiques où les applications sont les plus nombreuses. Que ce soit en
électronique,
en mécanique ou en transfert de chaleur, on aboutit souvent à la résolution
d'équations
différentielles.

Très peu d'équations différentielles sont solubles analytiquement. De plus, chaque


type
d'équation requiert une méthode particulière de résolution. Par suite, la
résolution de la
plupart des équations nécessite l'utilisation de méthodes numériques.

Dans ce chapitre, les diverses méthodes de résolution proposées sont d'autant plus
précises qu'elles sont d'ardre élevé. Nous amorçons le cours par une méthode
relativement
simple qui nous conduira progressivement à des méthodes plus complexes telle que la
méthode de Runge-Kutta d'ordre 4, qui permet d'obtenir des résultats d'une grande
précision,

l'équation différentielle du premier ordre s'écrit :

dy ,

a = /G)) ou y = f(x. y(x))

Elle possède une infinité de solutions, sauf si on fixe une valeur y, = y(x,)
(valeur initiale).
La solution est alors dite particulière. La problématique étant de trouver y(x) sur
[a, b] telle
que :

y'= f(x y)
YCX0) = Yo

On appelle problème de Cauchy l'équation différentielle à laquelle on adjoint la


condition
initiale yCxo) = vo. On démontre que la solution est unique si f vérifie la
condition de
Lipschitz ca.d. s'il existe une constante L > 0 indépendante de x,y; et y; telle
que

FC) — fil < Lys — yil V2 € Retvx € [ab].

Une condition suffisante pour que la condition de Lipschitz soit vérifiée est que f
sait
dérivable par rapport à y et que sa dérivée soit bornée.,

| x
2. Méthode d'Euler

La méthode d'Euler est de loin la méthode la plus simple de résolution numérique


d'équations différentielles et son emploi est facile. Toutefois, elle est
relativement peu
utilisée en raison de sa faible précision.

Soit y‘ = f(x, y) et y, = y(x,), la méthode permet de calculer la valeur approchée


Vas = Vas) tel que 1,4, — x, = h où h est le pas d'intégration.

La formule de calcul est tirée du développement de Taylor de y(x) au voisinage de


x,,. En
effet :

D 2 _ 3
D = y) + Ce 2,39 C0) + Ep) + Ep) + 2

En remplaçant x par x,,, dans l'équation précédente, on trouve :

, hE , RÉ
Vue) = VC) + hy'Cxs) +5 (x) "7 Gad
En considérant uniquement les deux premiers termes dans le développement de Taylor
on

obtient :

YCXn41) = Yu) + hy'(xn) + h°E(R)

RER) étant l'erreur commise si on arrête le développement au deuxième terme.


l'équation précédente est une égalité, en négligeant le terme d'erreur elle devient
une
approximation, On aboutit donc à la formule d'Euler :

Yu) € Yu) + hy'(xn)


ou encore :
Yn+i © Yn + Hf Cu Ya)
Exemple : Soit l'équation différentielle suivante :

y°=y
(0) = 1

Calculer y(1) avec h = 1, h = 0.2 et h = 0.1.


Solution :
L'intervalle de travail est [0,1].
De plus on a : f(x, y) = y.
On peut donc utiliser la méthode d'Euler :
Ones) © Gen) + feu YCxn))

a. h=1:

L'approximations de y(1) est :

| à |
y(1) = y(0) + hf(0,1) = 1 +101) = 2.
b. h=0.2:

En appliquant la formule d'Euler on obtient successivement des approximations de


y(0.2),
y(0.4), yC0.6), y(0.8) et y(1.0). La première itération produit :

(0.2) = y(0) + AfCO, 1) = 1 + 0.2 « 1 = 1.2

De manière similaire:

y(0.4) = y(0.2) + Af(0.2, 1.2) = 1.2 + 0.2 + 1.2 = 1.44

y(0.6) = y(0.4) + hf(O.4, 1.44) = 1.44 + 0.2 + 1.44 = 1.728

y(0.8) y(0.6) + Af(0.6, 1.728) = 1.728 + 0.2 + 1.728 = 2.074

y(1.0) = y(0.8) + hf(0.8, 2.074) = 2.074 + 0.2 » 2,074 = 2.489


c. h=01

En utilisant la formule d'Euler on obtient successivement des approximations de


y(0.1),

(0.2), y(0.3), y(0.4), y(0.5), y(0.6), y(0.7), y(0,8), y(0.9) et y(1.0). La


première
itération produit :

y(0.1) = y(0) + hf(0,1) = 14 0.1 +1 = 1.1

La deuxième itération donne :

(0,2) = y(0,1) + hfCO, 11) = 1.1 + 0.1 # 1.1 = 1,21


De manière similaire:

y(0.3) & y(0.2) + Af(0.2, 1.21) = 1.21 + 0.1 » 1.21 = 1.331

y(1.0) = y(0.9) + 0.1/(0.9,y(0.9)) = 2.593


Remarque : YeractelX) = 8° © Yypreto(1:0) = 61 = 2,718.

3. Méthodes à un pas
3.1. Forme générale

Les méthodes à un pas, aussi appelée méthodes à pas séparés, sont toutes de la
forme :
Yn+i = Yu + hb(xi y h}
où est une fonction quelconque. La méthode est à un pas si, pour obtenir la
solution en

X = Lys, On doit utiliser la solution numérique à x, seulement. On désigne méthodes


à pas
multiples les méthodes qui exigent également la solution numérique à 4,4, Xeon

La méthode d'Euler est bien sûr une méthode à un pas où:

(x.y) = f(x. y)

Fe]
3.2. Méthodes de Runge-Kutta

Pour améliorer la précision de la méthode d'Euler, il est préférable d'utiliser des


méthodes d'ordre aussi élevé que possible. La méthode d'Euler (d'ordre 1) ne
nécessite
qu'une seule approximation, alors que les méthodes de Rünge-Kutta exigent plusieurs
approximations. Ces méthodes sont de la forme :

Vues Va + Rail + Roko + Rika +



ka = hf(xuÿn)
k = hf (x Ms ah,y, + ak:)
ka =hf{(x, + bh,y, + Bk)

Ces méthodes donnent de faibles erreurs et sont facilement programmables.

3.2.1. Formules à deux approximations (ordre 2)

Les méthodes de Runge-Kutta d'ordre 2 sant de la forme :


Yusi © Ya + Rial + Rok

ki = Rf(xu Ya)
k, = f(x, + ah,y, + ak)

Le calcul des valeurs de a,«, À, Ra, k, et &: nécessite le calcul de y", y" et y()
à partir de
y' = ffx,y) et le développement de Taylor. On obtient ainsi un système d'équations
comprenant moins d'équations que d'inconnues et qu'il n'a donc pas de solution
unique.
Cela offre plusieurs variantes de la méthode de Runge-Kutta d'ordre 2. Les deux
méthodes
les plus couramment utilisées sont :

* Formule de la tangente améliorée

La méthode de la tangente améliorée, aussi appelée méthode du point milieu, est de


la
forme :

Ynta © Yn + RFC +23) avec Var = }h +5 1 (ns da)

L'équation précédente illustre bien pourquoi cette méthode est dite du point
milieu. On
remarque en effet que la fonction f(x,y) est évaluée au point milieu de
l'intervalle

[ns Xn+1 [8
+ Formule d'Euler-Cauchy

La méthode d'Euler-Cauchy, aussi appelée méthode d'Euler modifiée, est de la


forme :

| 2 |
Ye) = yCxa) + : EE) + fus Ya)] avec Yu = ylx,) + Rf (xs YCXA))

Pour faciliter les calculs, l'évaluation de y,,, a été scindée en deux étapes. La
variable y,
correspond tout simplement à une itération de la méthode d'Euler. On fait ainsi une
prédiction y,,, de la solution en x,,,, qui est corrigée et améliorée à la deuxième
étape. On
parle alors d'une méthode de prédiction-correction.

3.2.2. Formules à quatre approximations (ordre 4)

La formule de Runge-Kutta la plus utilisée est celle d'ordre 4. On calcul


successivement
quatre évaluations de la fonction f, ce qui peut prendre du temps pour les
fonctions
compliquées. En d'autres termes, la méthode de Runge-Kutta d'ordre 4 demande à peu
près
deux fois plus de calculs que la méthode de Runge-Kutta d'ordre 2 et quatre fois
plus que la
méthode d'Euler. La formule de Runge-Kutta d'ordre 4 est de la forme :

Yes) & YO) + 2 Ua + 2ka + 2ks +)



ki = hf(xuYCxn))

k =hf (x +2 .YGn) +)

k =hf (x + ,.y(x,) +2)

ka = hfGu + h,yCx,) + ka)

l #1

F
Chapitre 6

Interpolation

1. Introduction

À partir d'une fonction f(x) connue seulement en (n + 1) points de la forme Ci fx)


pour à = 0,1,2,...,n, peut-on construire une approximation de f(x), et ce, pour
tout x ? les
points (ef (x) sont appelés points d'interpolation et peuvent provenir de données
expérimentales ou d'une table. En d'autres termes, si l'on ne connaît que les
points
d'interpolation (x f{xi)} d'une fonction, peut-on obtenir une approximation de f(x)
pour
une valeur de x différente des x; ?

Il s'agit d'un problème d'interpolation, dont la solution est relativement simple.


Il suffit
de construire un polynôme de degré n dont la courbe passe par les (n +1) points
d'interpolation. On parle alors du polynôme d'interpolation.

2. Polynôme de Lagrange
Soit à calculer y(x) pour x = 1.5. connaissant y(1) = 2.7128 et y(2) = 7.3890

+
+

ÿ:

Yo ro

0 Xé x X1 x

Figure 4.1. Interpolation de la fonction par une droite


Les propriétés de la droite dans l'intervalle [x4,x,] nous permettent d'écrire :

Ji —ÿ _} — Yo

MX X3 — Xp

On tire y

a |
F étant la valeur approchée de y(1)

EX LE Xh

x 70 +
Xo — Xi — Xo

Yi

ei
[l

On peut alors calculer ÿ(1.5)

Cette formule est appelée polynôme de Lagrange (il s'agit ici de l'équation d'une
droite donc
un polynôme de degré 1 obtenu à partir de 2 points de mesure).

2.1. Formule générale

On démontre que le polynôme de Lagrange P,(x) de degré n pour n + 1 points de


mesures s'écrit :
(xx, )(x — 23) (x x) (x xo)fx —x3)(x— x) (x —x,)
Go — 20) Co — 22) 2 ro =) 7 Cu —20)(e, — 2) — 25) (di — 2,97
Ce — xo)(x — 23 0x — 22) (a — x)
Ca — Xo)(%u — Xi )(Xn — X2) "+ Cn = Xn-1) "

Si on pose Lx) = (x — x0)(x — 2) (x — Xe 0x — y) (K —x,)

= Pi(x) =

++

La forme simplifiée pour n + 1 points est :

© LG)
BE) no?

2.2, Théorème

On démontre que le polynôme d'interpolation de Lagrange est unique, aussi que

Lx(x) 2
1 Lx(xx)

Exemple : Calculer le polynôme de Lagrange de degré 3 pour les points de mesure


suivants :
rl = 0 | Mel |X=2| x =3
VilVn==4lm=-217=21y;=14

On à 4 point donc le degré du polynôme est< 3.

KG), Lo(x) Lx) La(x) La(x)


PaQ = > CD 2 Too) 0 * DGn) 21 Ÿ LGn)72 * LG)?

Pour À = 0:

LG) G=x)@= x) x) | (=D 2)e =) 1,


LG) — Go) =) =) @=DO=D0=-9 60 x—2%x—3)

Pour K = 1:
(x) _ _(@=x0o)(x = x2)(x = x3)_ _ (x = 0)(x = 2)(x = 3)
Lit) (xt; —xs)fxs —x3) (1 —0)(1 —2)(1 —-3)
Pour K = 2:
L20X) _ (x=xo)x=x;)x x) _(t—0)(x-1)@ 3) 1 (e—1)(x-3)
LG) — C2 = 20)@2 = 21) = 43) G 0-12 3 2"
Pour K = 3:

La(x) = (x—xo)x—x)(x 2) (x —0)(x —1)(x — 2)


Li(x3) _ Ces — X0)(X3 — x,)(x3 — x2) _ (3 — 0)(3 — 1)(3 — 2)

donc,

gx 1-5

= 2x 1}(x — 2)

PC) = 2 (re — 1) 2) 2)(-4) + pal — 2) 292) xx — 1)(x — 3)(2)


+2x@ — 1)(x—2)(14)
Pifx) = x — 2x7 + 3x — 4

2.3. Estimation de l'erreur

On démontre que l'erreur commise en interpolant f(x) (fonction d'origine) par le


polynôme de Lagrange P,(x) en n + 1 points vérifie :

M n
IF) — 2, ren [*-*
avec : M = Max{|f{#9(8)]}, £ exo.x,]

3. Méthode de Newton
3.1. Forme générale

Lorsqu'on écrit l'expression générale d'un polynôme, on pense immédiatement à la


forme suivante :

Pix) = Co + Cax + Cat + Can ++ Cox

Il en existe cependant d'autres qui sont plus appropriées au cas de


l'interpolation, par
exemple :

FiCx) = Co + CC — 20) + GX — 0) — 41) + 2 + CCR — x 0) (KE — x)

On remarque que le coefficient de C, comporte n monômes de la forme (x — x;) et


qu'en
conséquence le polynôme est de degré n.

L'aspect intéressant de cette formule apparaît lorsqu'on essaie de déterminer les


(n +1)
coefficients C;, de telle sorte que P,(x) passe par les (n+1) points
d'interpolation
(x, f (x:}). On doit donc s'assurer que :
Px) = fx) = y vi=0,1,2,.,,n

3.2. Relations nécessaires pour le calcul des coefficients C,

Pour calculer les coefficients C;, on utilise les relations suivantes :

ÀYi = Visa — Mi
My = A(Ayi) = AO) — AY = Visa — Visa — Visa Vi = Vis — Yi + Vi
My = AA y) = Yiss — Bis + Bis — M

On peut tirer les deux relations générales suivantes :

My = A yes — AE (1)

yo = Ju (Fes + (E)yez + (1)v0 02)

k = .
= RTE

Î k!

En utilisant la relation (1) on peut construire le tableau suivant :

| ay y dy AY:
THIN =yu-m = Àÿ;41 — AY = A Yiss — 4°yi = Myiss — My
0 |xo | Yo
J Ayo — a
1x1 | ày Yo — 45
1 ; Yo
se su
2 À y 1 Ra 3 Jo
3|X3 | Ya= à Lys =
4 | X4 | Yan »s
3.3. Calcul des coefficients C;
On prend un polynôme de degré 3 puis on généralise, On suppose que les points x;
sont

équidistants (Kiss x = h Vi=0n—i]

PQ) = Ca + CG — X0) + EX — 70) — 24) + GX — 40) (x — x1)(x — 2)

Pa(xo) = Co
Pix) = Co + hC,
P(x3) = Co + 2hC, + 2h°C;

PGe) = Co + 340 + GC + 6hC;

La résolution du système nous donne (utilisation de la formule (2))] :

Co = Yo

| a
C1 = Ayo/h
C, = My fair

C3 = ya/6h

y
Pa(x) = ÿe + (x - sy (x — 0) Ce — 2) + (x — 0) (x — x) — 32)

D as

Pour le cas général du polynôme d'interpolation de Newton de degré n, on obtient


l'expression suivante :

Pix) = Yo +2 (x X0) an ne. X0)(x— x) +7 42% Dee Xo)Cx — 21) (x — xs)

2h al hr"
Remarque :

- Contrairement à la méthode de Lagrange, celle de Newton exige de refaire les


calculs des
coefficients à chaque changement de données.

- Siles points x; ne sont pas équidistants, le h et ses puissances seront remplacés


par les écarts
respectifs entre les différentes valeurs x.

Exemple : Trouver le polynôme de Newton qui passe par les points équidistants
suivants :

minellrs =1lx=dil xs s

Mlro=1|»"=4|y=8/y3= 14

On a 4 points donc le degré du polynôme est n = 3. Le polynôme de Newton qui passe


par

ces 4 points est :


3 3
ÂYo y, y

PAG Vo + TG 0) + EC — 0) — 261) + EG 0) — 1) — 2)
où:h=u-M = -M=% x = 1
Xa = 0—+ y = 1

Yo = M — Yo = 3 ;
= 1 =4 À #yo= 4-41],

EP = Yi— ji = 4 8° Yo = y — Ayo = 1
X3 = 2+y, =8 My = 4 — 4 = 2

Aÿz = Ya— Y3=6


= 3py = 14 J 727 27 78

Donc,
3 1 1
P,(x)=1 +5 0) +56 — 0)(x— 1) +2 O)(x — 1)(x — 2)

1 17
P;(x) = ++ À.

ls]

Vous aimerez peut-être aussi