17 mars 2010
Table des matières
1 Introduction. 3
1.1 Erreur absolue - Erreur relative. . . . . . . . . . . . . . . . . . 3
1.2 Majorants des erreurs absolue et relative. . . . . . . . . . . . . 4
1.3 Chi¤res exactes d’un nombre décimale. . . . . . . . . . . . . . 4
4 Intégration numérique. 19
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1
4.2 Approximation d’une intégrale dé…nie. . . . . . . . . . . . . . 19
4.3 Formules de quadrature de Newton–Côtes. . . . . . . . . . . . 20
4.3.1 Méthode des trapèzes. . . . . . . . . . . . . . . . . . . 21
4.3.2 Méthode de Simpson (pour n = 2p). . . . . . . . . . . . 22
4.4 Formule de Quadrature de Gauss. . . . . . . . . . . . . . . . . 24
2
Chapitre 1
Introduction.
Le but de ce cours, est donc, de fournir les principes de base des méthodes
numériques les plus utilisées.
3
Si la valeur de x est connue on peut déterminer les valeurs de l’erreur
absolue et l’erreur relative. Mais dans la majorité des cas, elle ne l’est pas Les
erreurs absolue et relative deviennent donc inconnues, et pour les apprécier
on introduit la notion du majorant de l’erreur.
4
Chapitre 2
2.1 Introduction.
5
2.2 Séparation des racines.
Pour toutes les méthodes numériques qui suivent il faut d’abord faire la
séparation des racines, c’est–à–dire trouver des intervalles de la forme [ai ; bi ]
dans lesquels la fonction f admet une racine est une seule. Pour cela, on fait
appelle au théorème suivant.
7
Remarque 2.4.1 Une bonne approximation initiale x0 est celle qui véri…e
l’inégalité suivante
f (x0 ):f "(x0 ) > 0: (1:6)
jf (xn )j
en = j xn j ; (1:7)
m1
où m1 = min jf 0 (x)j.
[a;b]
f (xn )
Le test d’arrêt jxn+1 xn j ", ".
f 0 (x)
8
2.5 Méthode de la Sécante (ou de la fausse
position).
Dans certains cas (si f provient d’un calcul expérimentale par exemple)
on ne peut pas calculer f 0 : L’idée est alors de remplacer f 0 par le taux d’ac-
croissement de f sur un petit intervalle.
Soit c un point de [a; b] tel que f 0 (c) 6= 0. On choisie un point initial x0
tel que f (x0 ):f (c) < 0:
La sécante joingnant les points Mc (c; f (c)) et M0 (x0 ; f (x0 )) coupe l’axe
des abscisses en un point d’abscisse x1 . La sécante joingnant les points Mc
et M1 (x1 ; f (x1 )) coupe l’axe des abscisses en un point d’abscisse x2 .
En itérant le procédé on obtient une suite de points d’abscisses fxn gn 0
dé…nie par
xn c
xn+1 = xn f (xn ) ; pour tout n 1: (1.8)
f (xn ) f (c)
Dé…nition 2.5.1 L’extrémité …xe c est celle dont le signe de f coïncide avec
le signe de f ", c–à–d f (x):f "(x) > 0.
Soit pour …xer les idées, on pose f "(x) > 0 pour tout x 2 [a; b].
9
2.5.2 2nd cas.
Si f (a) < 0, alors l’extrémité …xe c = b et dans ce cas les approximations
successives données par l’algorithme
8
< x0 = a
xn b (1.10)
: xn+1 = xn f (xn ) ; pour tout n 1,
f (xn ) f (b)
x = F (x): (1.12)
10
Proposition 2.6.1 On suppose que la fonction F I ! I est une application
contractente de rapport k (0 < k < 1), i. e.
90 < k < 1; jF (x1 ) F (x2 )j k jx1 x2 j ; pour tout x1 ; x2 2 I; (1:14)
(si k > 0 on dit que F est lipschitzienne ), alors F admet un point …xe
(i. e. = F ( )) et que la suite dé…nie par l’algorithme (1:13) converge vers
ce point …xe (racine exacte de l’équation (1:1)) et en plus on a l’estimation
de l’erreur suivante
kn
jxn j jx1 x0 j : (1:15)
1 k
Remarque 2.6.2 (1) La condition (1:14) peut être remplacer par la condi-
tion suivante
90 < k < 1; jF 0 (x)j k; pour tout x 2 I: (1:16)
(2) La formule (1:15) prévoit à l’avance le nombre d’itérations nécessaires à
l’approximation de la racine :
En e¤et,
kn
jxn j jx1 x0 j "
1 k
m
1 k
kn "
jx1 x0 j
m
"(1 k)
ln
jx1 x0 j
n : (1:17)
ln k
(3) Sous la condition (1:14) (ou (1:16)) la méthode des approximations suc-
cessives converge quelque soit le choix de l’approximation initiale x0 . Il en
résulte que cette méthode est "auto correctrice".
(4) (a) Si 0 F 0 (x) k < 1, alors la suite fxn gn 0 converge vers d’une
façon monotone.
(b) Si 1 < k F 0 (x) 0, alors la suite fxn gn 0 converge vers
alternativement par exés et par défaut.
(5) Si jF 0 (x)j > 1; la suite diverge.
11
Chapitre 3
Approximation et interpolation
polynômiale.
3.1 Introduction
2- Nous pouvons chercher une fonction g d’un type préalablement choisi, telle
que yi = f (xi ) = g(xi ), pour tout i = 0; n. C’est l’interpolation.
12
car les polynômes sont très faciles à dériver, à intégrer et constituent un
espace vectoriel.
Théorème 3.2.2 Si f 2 C[a; b], alors quelque soit " > 0 il existe Pn un
polynôme de degré n, telle que max jf (x) Pn (x)j < ".
a x b
où w est une fonction positive continue par morceaux sur [a; b]. Dans ce cas,
on peut dé…nir une distance d dans cet espace de la manière suivante
p
d(f; g) = hf g; f gi pour tous f; g 2 C ([a; b])
Théorème 3.2.3 Une condition nécessaire et su¢ sante pour que la fonction
g soit une meilleure approximation de la fonction f est
i=0 j=0
13
Ceci est équivalent à
* n +
X
n X
n X
aj f; xn j
= aj ai x n i ; x n
e j
pour tout (a0 ; a1 ; : : :; an ) 2 Rn+1 :
j=0 j=0 i=0
Zb X
n Zb
n j
x f (x)w(x)dx = e
ai x2n i j
w(x)dx pour tout j = 0; n: (2.3)
a i=0 a
pour tout j = 0; n:
14
3.3 Interpolation polynômiale.
3.3.1 Introduction –Position du problème.
Soit y = f (x) une fonction dont on ne connait que les valeurs yi qu’elle
prend aux n + 1 points distincts xi , i = 0; n. On a donc
yi = f (xi ); i = 0; n: (2.5)
yi = Pn (xi ); i = 0; n: (2.6)
Le problème posé sous sa forme générale peut avoir une in…nité de solu-
tions ou non avoir point. Toutefois, il existe une seule solution si on cherche
un polynôme Pn .
Pn (x) = a0 xn + a1 xn 1
+ : : : + an ;
15
qui est un système linéaire de déterminant noté par V (x0 ; x1 ; : : ; xn ) et
donné par
xn0 xn0 1
x0 1
xn1 xn1 1
x1 1
.. .. .. ..
V (x0 ; x1 ; : : ; xn ) = . . . . 6= 0
.. .. . . . ..
. . .
xnn xnn 1
xn 1
Comme
on a
1
ci = :
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )
16
Par conséquent
(x x0 ) (x xi 1 )(x xi+1 ) (x xn )
li (x) =
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )
ou encore
Yn
x xj
li (x) = : (2.8)
x
j=0 i
xj
j6=i
X
n
On a deg Ln n et Ln (xj ) = yi li (xj ) = yj lj (xj ) = yj :
i=0
Ainsi
X
n Yn
x xj
Ln (x) = yi pour tout x 2 [min fxi g ; max fxi g]: (2.10)
i=0
x
j=0 i
xj
j6=i
17
3.3.3 Erreur de l’interpolation.
Dans la pratique l’interpolation polynômiale sert à remplacer une fonc-
tion inconnue f par une fonction simple qui est un polynôme. On dit que
l’on approxime f par le polynôme d’interpolation. Il est fondamental alors,
d’étudier l’erreur de l’interpolation.
f (n+1) ( ) Y
n
En (x) = f (x) Pn (x) = (x xi ): (2.13)
(n + 1)! i=0
Dans ce cas
Mn+1 Y
n
jf (x) Pn (x)j jx xi j ; (2.14)
(n + 1)! i=0
18
Chapitre 4
Intégration numérique.
4.1 Introduction
Soit f une fonction dé…nie sur un intervalle [a; b]. Nous supposerons l’in-
tégrale dé…nie suivant
Zb
f (x)dx.
a
Zb
I= f (x)dx. (3.1)
a
19
écrire que
X
n
I= i f (xi ) +R (3.2)
i=0
où les coe¢ cients i seront choisis de telle sorte que le reste R soit nul lorsque
f est d’un type déterminé.
Pour f quelconque on appellera la formule suivante
X
n
I t An = i f (xi ) (3.3)
i=0
La réponse est positive que sous certaines conditions sur les i et les xi .
Théorème 4.2.1 Lorsque f est continue sur [a; b], nous avons (3:4) si les
conditions suivantes sont véri…ées.
1) (3:4) est vrai pour tout polynôme P .
X n
2) j i j est bornée pour tout n.
i=0
20
b a
Dans ce cas h = .
n
En interpolant f par des polynômes de degré m par morceaux, on obtient
les formules de quadrature de Newton–Côtes suivantes
Zb X
m
f (x)dx t (b a) Hi f (xi ) (3.5)
a i=0
où
Zn
( 1)m i q [m+1]
Hi = dq
i!(m i)!m q i
0
[m+1]
et q = q(q 1)(q 2) (q m), appelé puissance généralisée.
Donc
Zx1
h
f (x)dx t (y0 + y1 ).
2
x0
De la même manière nous pouvons écrire
xZ
i+1
h
f (x)dx t (yi + yi+1 ), pout tout i = 0; n 1.
2
xi
21
Zb n 1 Z
X
xi+1
X
n 1
h
I t (yi + yi+1 )
i=0
2
h
= [(y0 + y1 ) + (y1 + y2 ) + (y2 + y3 ) (yn 2 + yn 1 )(yn 1 + yn )]
2
h
= [y0 + 2y1 + 2y2 + 2yn 1 + yn ]
2
Donc la formule des trapèzes est
b a h y0 y0 i
I= + y1 + y2 + + RT (3.6)
n 2 2
où RT est l’erreur commise par cette méthode véri…ant
h2
jRT j = (b a)f 00 ( ) ; 2]a; b[ (3.7)
12
nh3
max jf 00 (x)j
12 a x b
et dans ce cas on dit que l’erreur de la formule des trapèzes est d’ordre 2 en
h.
22
avec
Z2 Z2
( 1)2 q [3] 1
H0 = dq = (q 1)(q 2)dq = 1=6;
0!2!2 q 4
0 0
Z2 Z2
( 1)1 q [3]
H1 = dq = q(q 2)dq = 2=3 et
1!1!2 q 1
0 0
Z2 Z2
( 1)0 q [3]
H2 = dq = q(q 1)dq = 1=6.
2!0!2 q 2
0 0
D’où
Zx2
h
f (x)dx t (y0 + 4y1 + y2 ).
3
x0
23
4.4 Formule de Quadrature de Gauss.
Dé…nition 4.4.1 On appele polynômes de Legendre les expressions de la
forme
1 dn
Pn (x) = n (x2 1)n ; n 0 (3.10)
2 n! dxn
Voici les propriétés fondamentales de ces polynômes
1) Pn (1) = 1; Pn ( 1) = ( 1)n pour tout n 0.
2) deg Pn = n pour tout n 0:
Z1 Z1
3) xk Pn (x)dx = 0, k < n , Pm (x)Pn (x)dx = 0 pour tout m 6= n: On
1 1
dit dans ce cas que ces polynômes sont orthogonaux par rapport à la fonction
Zb
poids w (x) = 1(i.e. Pm (x)Pn (x)w(x)dx = kn mn ).
a
4) Le polynôme de Legendre Pn (x) possède n racines distintes et réelles com-
prise entre [ 1; 1].
On cite ci–dessous les 5 premiers polynômes
P0 (x) = 1;
P1 (x) = x;
P2 (x) = 1=2(3x2 1);
P3 (x) = 1=2(5x3 3x) et
P4 (x) = 1=8(35x4 30x2 + 3).
Considérons d’abord que la fonction y = f (t) est dé…nie sur [ 1; 1]. Le
problème est de trouver une formule de quadrature (i.e trouver les Ai et les
ti ) de la forme
Z1 Xn
f (t)dt t Ai f (ti ) (3.11)
1 i=1
qui soit exacte pour tout polynômes dont le degré est le plus grand possible.
En on déduit alors que pour résoudre ce problème il su¢ t de déterminer
les ti et les Ai à partir du système d’équations suivant
Z1 ( 2
Xn
; k pair
Ai tki = tk dt = k+1 ; ; k = 0; ; n 1,
i=1 1
0 ; k impair
24
où les ti sont les zéros du polynôme de Legendre de degré n.
D’où 8 n
> X
>
> Ai = 2
>
>
>
>
>
>
i=1
> X
>
n
>
> ti1 Ai = 0
>
>
>
< i=1
X n
(3.12)
>
> t2i Ai = 2=3
>
>
>
> i=1
> X
>
n
>
> t3i Ai = 0
>
>
>
>
>
>
i=1
: ..
.
La formule obtenue ainsi, est appelée formule de quadrature de Gauss
à n coordonnées.
Zb Z1
b a b a b+a
f (x)dx = f t+ dt, (3.13)
2 2 2
a 1
par conséquent la formule de quadrature de Gauss sur [a; b] est donnée par
Zb
aX
n
b
f (x)dx t Ai f (xi )
2 i=1
a
b a b+a
où xi = ti + , pour tout i = 1; n
2 2
25
Chapitre 5
5.1 Introduction.
Dans ce chapitre, on se propose d’étudier quelques méthodes permet-
tant de résoudre les systèmes de n équations à n inconnues de la forme
8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a21 x1 + a22 x2 + + a2n xn = b2
.. (4.1)
>
> .
>
: a x +a x +
n1 1 n2 2 +a x =b :
nn n n
Soient A = (aij ) 2 Mn (R) (l0 ensemble des matrices carrées d0 ordre n à élé-
ments dans R), B le vecteur de composantes (b1 ; b2 ; ; bn ) et X le vecteur
inconnu de composantes (x1 ; x2 ; ; xn ). Résoudre le système (4.1) revient
alors a résoudre l’équation matricielle
AX = B: (4.2)
26
l’esprit est l’utilisation des formules de Cramer données par
Il en résulte que pour la résolution du système (4.1) par ces formules nécessite
au total TCramer = (n + 1)2 n! 1 opérations élémentaires, par exemple pour
n = 5, on a TCramer = 4319 et pour n = 10, on a TCramer v 4:108 :
Dans ce cas, elle devient trés lente en temps d’execution (de calculs) dés
que n dépasse 4.
Une autre méthode consiste à calculer la matrice inverse de A, c’est–à–
dire :
A 1 A X = A 1 B d’où X = A 1 B: (4.4)
Pour cela on utilise au total TInverse = n!(n2 + n + 1) + 3n2 n opérations
élémentaires, par exemple pour n = 5, on a TInverse = 3790 et pour n = 10,
on a TInverse v 4:108 :
Cette méthode n’est donc pas plus avantageuse que la première.
Dans ce chapitre, nous fairions appelle à des méthodes numériques ayant
des temps de calcul acceptables et dont lee nombre d’opératons est d’ordre
n3 . Ces métodes peuvent être :
- Directes qui sont utilisées seulement si le nombre d’équations n’est pas
trop élevé (n 100):
- Iteratives qui sont utilisées dès que la taille du système est grande (n
100), ce qui ne les empèches pas d’être également utiles pour des petits
systèmes.
27
sous la forme suivante
8
>
> a11 x1 + a12 x2 + : : : + ain xi + : : : a1n xn = b1
>
> a22 x2 + : : : + ai2 xi + : : : a2n xn = b2
>
>
>
< .. .. .. .. ..
. . . . .
(4.5)
>
> aii xi + : : : ain xn = bi
>
> . . . .. .. ..
>
> . . .
>
:
ann xn = bn
28
5.2 Méthode de l’élimination de Gauss.
Théorème 5.2.1 Théorème de Gauss. Etant donnée une matrice carrée
A, il existe une matrice inversible M , telle que la matrice A0 = M:A soit
triangulaire supérieure.
La méthode de Gauss transforme le système (4.1) en un système triangu-
laire équivalent au système (4.5), à l’aide d’un algorithme d’élimination en
utilisant seulement les trois opérations élémentaires suivantes :
Ces 3 opérations élémentaires sont permise, car elle nous permettent d’ob-
ternir un système triangulaire équivalent au système (4.1) (i. e. ayant la même
solution).
29
Algorithme de Gauss
1- Triangularisation
w = aik =akk
(i) (4.10)
aij = aij w:akj
pour j = k + 1; : : : ; n + 1, i = k + 1; : : : ; n et k = 1; : : : ; n 1:
2- Résolution
!,
(n)
X
n
(n) (n)
xi = bi aij xj aii : (4.11)
j=i+1
Algorithme de Jordan
Transformation (A=B) v I=D 1 B 0
(
(k) (k 1) (k 1)
akk = akj =akk ; j = k + 1; : : : ; n + 1
(k) (k 1) (k 1) (k) (12)
aij = aij aik :akj ; j = k + 1; : : : ; n + 1
pour i et k = 1; : : : ; n et i 6= k:
AX = B , L (U X) = B; (4.13)
30
qui peut se décomposer en 2 systèmes trangulaires
LY = B
(4.14)
U X = Y:
Théorème 5.4.1 Une condition nécessaire et su¢ sante pour qu’une matrice
inversible A puisse se décomposer sous la forme A = L:U est que
avec Ak = (aij )ki;j=1 (i.e. les mineurs sont tous non nuls)
Algorithme de Doolittle.
8
>
> lii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< urj = arj lrk ukj j = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.15)
>
>
>
> X
r 1
>
>
: lir = air lik ukr urr i = r + 1; : : : ; n r = 1; : : : ; n
k=1
Algorithme de Crout.
8
>
> uii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< lir = air lik ukr i = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.16)
>
>
>
> X
r 1
>
>
: urj = arj lrk ukj lrr j = r + 1; : : : ; n r = 1; : : : ; n
k=1
31
Remarque 5.4.3 Le déterminant de la matrice A peut–être calculer aisé-
ment, en e¤et,
det A = det L: det U
pour la méthode de Doolittle comme det A = 1, on a
Y
n
det A = det U = ukk
k=1
A = L:LT
ou h:; :i désigne le produit scalaire dans Rn , c’est –à–dire que pour tout x et
Xn
n
y dans R on a hx; yi = xi yi :
i=1
LY = B
AX = B , L: LT X = B , (4.17)
LT X = Y:
32
L’algorithme de factorisation
8 v
> u
>
> u X
r 1
>
> l = tarr 2
lrk ; r = 1; : : : ; n
< rr
k=1 (4.18)
!
>
> X
r 1
>
>
>
: ljr = arj lrk lkj =lrr ; j = r + 1; : : : ; n et r = 1; : : : ; n
k=1
33
Chapitre 6
6.1 Introduction
Dans ce chapitre on considère le système (4.2) qui est un système d’équa-
tions linéaires d’ordre N . Nous avons vu que pour résoudre numériquement
ce système, il su¢ t de procéder à une élimination de Gauss avec ou sans
changement de pivot, ou eventuellement, de procéder à une décomposition
LU de A (ou LLT si A est symétrique dé…nie positive), puis résoudre deux
systèmes triangulaires.
34
ou B esty une matrice d’ordre N N dite matrice d’itération et C est un
vecteur de RN telle que
On dit dans ce cas que la suite x(n) converge vers la la solution exacte de
systèe (4.1) et on peut ecrire
x = Bx + C:
A=K M (5.3)
(K M ) x = b () Kx = M x + b
soit encore
1 1
x=K Mx + K b (5.4)
1 1
et dans ce cas on peut prendre B = K M et C = K b. Donc (5.1) devient
35
cas si K est diagonale ou triangulaire. Pour cela écrivons la matrice A sous
la forme
A = D E F; (5.6)
où D est la matrice diagonale formée des éléments (aii )1 i N, E est la
matrice formée des éléments sous-diagonaux de A
0 1
0 0 ::: ::: 0
B a21 0 ::: 0 C
B .. C
B ..
. C
E = B a31 a32 0 . C
B . ... ... C
@ .. 0 A
aN 1 aN 2 : : : aN (N 1) 0
et F est la matrice formée des éléments surdiagonaux de A,
0 1
0 a12 : : : : : : a1N
B 0 0 a23 a2N C
B . C
B . . . . . . .. C
F = B .. . C
B . . .. C
@ .. .. . 0 a(N 1)N A
0 0 ::: 0
36
Dé…nition 6.3.2 Soit A est une matrice carrée d’ordre m; on appele rayon
spectral de A la quantité suivante :
% (A) = max j j j
1 j m
X
m
kAkl = max jaij j (5.8)
j
i=1
et v
uX
u m X
m
kAkr = t a2ij (5.9)
i=1 j=1
Théorème 6.3.6 Si pour une morme matricielle donnée on a kBk < 1 alors
la métgode itérative (5:2) est convergente.
Dé…nition 6.3.7 Soit A = (aij )ni;j=1 est une matrice carée d’ordre m. On
dit que A est une matrice à diagonale strictement dominante si
X X
jaii j > jaij j ou jajj j > jaij j :
j6=i i6=j
37
6.4 Méthode de Jacobi
Revenons aux relation (5.3) et (5.6). Si on pose K = D et M = E + F;
on peut ecrire le système (4.1) comme suit :
X X
aii xi = bi aij xj aij xj ; pour tout i = 1; 2; N:
j<i j>i
(n+1)
Cette relation permet de calculer explicitement les composantes xi ;i =
(n+1) (n)
1; 2; :::; N; du vecteur x à partir des composantes xi ; i = 1; 2; :::N; du
(n)
vecteur x : La matrice J dé…nie par
1
J =K M = D 1 (E + F )
est appelée matrice de Jacobi.
(n+1)
X
i 1
(n+1)
X
N
(n)
aii xi + aij xj = bi aij xj ; pour tout i = 1; 2; N:
j=1 j=i+1
38
Par conséquent la relation (5.5) sera écrite composante par composante de
la manière suivante :
!
(n+1) 1 X (n+1)
X (n)
xi = bi aij xj aij xj ; 1 i N: (5.12)
aii j<i j>i
(n)
Si les composantes (xi )1 i N du vecteur x(n) sont connues, les relations
(n+1) (n+1)
(5.12) permettent de calculer successivement x1 ; x2 ; :::; de la manière
suivante :
8 Pn
>
> x1
(n+1)
= a111
(n)
>
> j=2 a1j xj + b1
>
> Pn
< x(n+1) = 1 (n+1)
a21 x1
(n)
2 a22 j=3 a2j xj + b2
> (n+1) (n+1) (n+1) Pn (n)
>
> x3 = a133 a31 x1 a32 x2 j=4 a3j xj + b3
>
>
>
: ...
39
Chapitre 7
7.1 Introduction.
Dans ce chapitre on s’intéresse aux équations di¤érentielles ordinaires du
premier ordre de la forme
8
< Trouver la fonction y 7! y(x) telle que
>
dy
(Pr) = f (x; y); pour tout x 2 [a; b] (P)
>
: dx
y(a) = y0 donné.
9M > 0 telle que 8x 2 [a; b]; 8y1 ; y2 on ait jf (x; y1 (x)) f (x; y2 (x))j jy1 (x) y2 (x)j ;
alors le problème (Pr) admet une solution unique y pour toute valeur initiale
y0 . On dit, dans ce cas, que ce problème est bien posé.
40
il devient plus commode de chercher des solutions approchées, en utilisant
les méthodes numériques conçues pour ce type de problèmes.
Comme les ordinateurs ne peuvent fournir qu’un nombre …ni de résultats,
c – à – d, qu’on ne peut pas avoir des valeurs approchées de la solution y
du problème (P) sur tout l’intervalle [a; b]. Tous commence donc par un
choix préalable d’un nombre …ni de points xi 2 [a; b]. Ceci s’appelle une
discrétisation ou un maillage du domaine (ici c’est le segment [a; b]). On
limitera donc le calcul au calcul approché de la solution en ces points.
On va cité dans ce chapitre quelques méthodes (schémas) d’intégration
à un pas, c–à–d, les méthodes qui nous permettent de calculer la valeur
approchée de la solution au point xi+1 ; notée yi+1 = y (xi+1 ) ; en fonction de
la valeur appopchée de la solution au point xi notée yi = y (xi ).
a+b
où = a ou b ou , on obtient en remplaçant par a; la formule
2
d’Euler explicite suivante
yi+1 = yi + hf (xi ; yi ) (6.1)
41
et si on remplace par b; on obtient la la formule d’Euler implicite
suivante
yi+1 = yi + hf (xi+1 ; yi+1 ) : (6.2)
Remarque 7.2.1 On peut démontrer que si (Pr) admet une solution unique
y pour toute valeur initiale y0 ; la méthode d’Euler explicite converge, c–à–d
que si on note la solution approchée de ce problème correspondant au pas h
par yh on obtient
lim [yh (x) y (x)] = 0 pour tout x 2 [a; b]
h!0
43