Académique Documents
Professionnel Documents
Culture Documents
Support de Cours
Module ANALYSE NUMERIQUE II
Chapitre I- Introduction
On considère l’Equation Di¤érentielle Ordinaire : y 0 = f (t; y)
et le problème suivant:
y 0 = f (t; y)
(1)
y(t0 ) = y0
où la fonction inconnue y est telle que
y : I0 ! Rn 0 1
y1 (t)
B C
t 7 ! y(t) = @ ... A avec I0 = [t0 ; t0 + T ] R,
yn (t)
et f une fonction donnée, dé…nie et continue sur I0 Rn à valeurs dans Rn :
Il s’agit donc d’un système d’équations di¤érentielles du premier ordre de la forme:
8
0
>
< y1 = f1 (t; y1 ::yn )
..
> .
: y 0 = f (t; ::y ::y )
n n 1 n
Nous pouvons étudier une équation di¤érentielle ordinaire du Premier ordre sans perte de généralité
puisque toute E.D.O d’ordre supérieur peut se ramener à une équation du premier ordre. En e¤et:
8 (n)
< y = f (t; y; y 0 ; :::; y (n 1)
)
(2)
:
y(t0 ); :::y (n 1)
(t0 ) donnés
8
> Y1 = y 0 1
>
> Y1
< Y2 = y 0 B C
On pose : .. . En notant Y = @ ... A puis
>
> .
>
: Y = y (n 1) Yn
n
0 1
Y2
B .. C
B . C
F (t; Y ) = B C,
@ Yn A
f (t; Y1 ; :::; Yn )
l’équation (2) devient alors une équation du premier ordre:
Y 0 (t) = F (t; Y )
Y (t0 ) donné.
Pour les di¤érentes E.D.O. rencontrées dans la pratique, on connaît rarement la solution exacte
de manière explicite, d’où l’intérêt des méthodes numériques qui permettent d’obtenir d’excellentes
approximations grâce aux performances actuelles de l’outil numérique.
si elle unique,
si elle est stable par rapport aux perturbations sur la donnée initiale ou par rapport aux erreurs
d’arrondi.
Dé…nitions:
3. La solution (I; y) sera Maximale s’in n’existe aucune solution locale qui la prolonge.
4. (I; y) est une solution globale du problème dans I0 si elle est solution locale et si I = I0 :
Résultat d’existence Locale:
Théorème de Cauchy-Péano:
Si f est continue au voisinage de (t0; y0 ) dans I0 Rn ; où I0 = [t0 ; t0 + T ]:
D’autre part, étant donné une solution locale, il existe au moins une solution
maximale qui la prolonge.
THEOREME:
Soit f dé…nie et continue dans I0 Rn ; telle que:
9l 2 L1 (I0 ) (intégrable sur I0 ) / 8(t; y) 2 I0 Rn ; < f (t; y); y > l(t)(1 + kyk2 )
où < :; : > désigne le produit scalaire dans Rn et k:k la norme associée.
Alors le problème de Cauchy (1) admet au moins une solution globale dans I0 :
Résultat d’unicité
THEOREME
alors le problème (1) admet une solution globale unique et toute solution locale sera
Résultat de régularité
Si y 2 C 1 (I0 ) est solution du problème (1) et si f est p f ois dérivable en (t; y(t))
alors y est (p + 1) fois dérivable en t et on a y (p+1) (t) = f (p) (t; y(t));
DEFINITION
On dit que la fonction f : I Rn ! Rn est Lipschitzienne en y s’il existe une
constante réelle L strictement positive telle que :
THEOREME DE CAUCHY-LIPSCHITZ
y 0 = f (t; y); t 2 I0
Alors le problème de Cauchy: (1)
y(t0 ) = y0
admet une solution et une seule y 2 C (I0 ; Rn ):
1
DEMONSTRATION
Soit F : y 2 C 0 ([t0 ; t0 + T ]) 7! F (y) 2 C 0 ([t0 ; t0 + T ]) dé…nie par:
Zt
F (y)(t) = y0 + f (s; y(s))ds
t0
2L(s t0 )
kykL = max e ky(s)k
s2I0
Donc F est contractante donc F admet un point …xe unique y 2 C 0 (I0 ) d’après le
théorème du point …xe de Banach.
Il existe donc une solution unique pour le problème (1) qui est ce point …xe y:
NOTION DE TRAJECTOIRE
Dé…nition
On appelle Trajectoire ou Orbite partant de y0 l’ensemble:
Ty0 = fy(t) 2 R (ou Rn ) = y est solution de (P )g
On déduit alors du théorème de Cauchy-Lipschitz le résultat suivant:
PROPOSITION
Si y0 ; z0 2 R sont deux données initiales distinctes alors les trajectoires
En e¤et : Supposons Ty0 \ Tz0 6= ? alors les courbes y(t) et z(t) se coupent en un
point E et par conséquent, en prenant ce point E comme donnée initiale, il ne peut
passer qu’une seule solution d’après le théorème, d’où le résultat.
yn+1 = yn + h f (tn ; yn )
y0 donné.
obtient:
y(tn+1 ) ' y(tn ) + hf (tn ; y(tn ))
D’où l’approximation:
yn+1 = yn + h f (tn ; yn )
Une autre manière d’introduire le schéma d’Euler est la suivante:
On intégre entre tn et tn+1 l’èquation di¤érentielle y 0 (t) = f (t; y(t)) pour obtenir:
tZn+1 tZn+1
càd y(tn+1 ) y(tn ) ' hf (tn ; y(tn )); d’où le schéma d’Euler .
Remarque
Si on applique la formule des Rectangles à droite :
tZn+1
THEOREME
Soit la fonction f 2 C 1 (I; Rn ) et Lipschitzienne en y: Alors l’erreur d’approximation
eL(tn t0 )
1
jen j h max jy"(t)j
2L t2I
REMARQUE
L’hypothèse " f Lipschitzienne" dans ce théorème sera satisfaite si par exemple la
Avant de démontrer le théorème énoncons le lemme suivant qui est une version
LEMME 1.1
Si (an ) est une suite de réels positifs telle que 8n 2 N , an+1 A an + B ,
A; B des constantes positives, alors:
n
1. an a0 An + B AA 1
1
enK 1
an a0 enK + B ; 8n 2 N
K
3. Si la suite (an ) véri…e une inégalité sous la forme:
an+1 A an + Bn ; 8n 2 N , alors on a:
X
n 1
n
an a0 A + An i 1
Bi
i=0
h2 enhL 1
jen j je0 j enhL + M
2 hL
h nhL
or e0 = 0 , d’où: jen j 2
Me L 1 et puisque nh = tn t0 T; 8n 2 N ; alors:
h e(tn t0 )L 1 hM T L
jen j M (e 1) O(h)
2 L 2L
D’où: limh!0 max0 n N jen j = 0 ,
plus précises.
numérique d’Euler-implicite:
h
yn+1 = yn + ff (tn ; yn ) + f (tn+1 ; yn+1 )g
2
Pour éviter cet inconvenient tout en gardant un schéma numérique du même ordre,
on procède comme suit:
On calcule d’abord une valeur ’de prédiction’, qui provient du schéma
d’Euler-explicite:
yg
n+1 = yn + h f (tn ; yn )
h
yn+1 = yn + ff (tn; yn ) + f (tn+1 ; yg
n+1 )g
2
càd:
h
yn+1 = yn + ff (tn; yn ) + f (tn+1; yn + h f (tn ; yn ))g
2
Le calcul de yn+1 s’obtient alors directement et explicitement à partir de la valeur de
yn :
Le schéma Euler-Prédicteur-Correcteur s’écrit:
8
< yg
n+1 = yn + h f (tn ; yn )
:
yn+1 = yn + h2 ff (tn; yn ) + f (tn+1 ; yg
n+1 )g
Remarque
Les valeurs calculées yn , à partir du schéma d’Euler yn+1 = yn + h f (tn ; yn ) sont en
yg
n+1 = yen + h[f (tn ; yen ) + n] + n:
Alors on a:
yg
n+1 = yen + h[f (tn ; yen ) + n] + n
) eg
n+1 = een +h[ f (tn ; y(tn )) f (tn ; yen )] + "n h n n:
jeg
n+1 j (1 + hL) jeen j + j"n j + h + :
h2
Or on a montré que :j"n j 2
maxt2I jy"(t)j :
h2
Donc: jeg
n+1 j (1 + hL) jeen j + 2
M +h + :
h2
Posons D 2
M +h + :
Donc jeg
n+1 j (1 + hL) jeen j + D
nhL
jeg
n+1 j enhL jee0 j + D e hL
1
enhL 1 h2
càd: jeg
n+1 j enhL jee0 j + hL
(2M +h + )
eT L 1 h
) jeg
n+1 j eT L jee0 j +
( M + + ):
L 2 h
On en déduit que quand h ! 0; l’erreur dûe aux erreurs d’arrondis est en h
donc cette erreur ! 1
et l’erreur dûe à la méthode est en h2 M;donc ! 0:
C
En étudiant la fonction '; on obtient : '0 (h) = B h2
q
) ' admet un minimum en h = e
h= C
B
:
et si h < e
h; '(h) risque d’être trop grande
yn+1 = yn + hn (tn ; yn ; hn )
y0 = h , h donné dans R
où est continue dans son domaine [t0 ; t0 + T ] R [0; h ] ; hn tn+1 tn et
h = max0 n N hn :
Remarque
zn+1 = zn + hn (tn ; zn ; hn ) + n
(2)
z0 donné dans R
Le problème ici est de savoir comment varie la solution en fonction des
perturbations n ,
autrement dit si les perturbations sont "petites" est-ce que zn la solution
du problème perturbé est proche de yn la solution du problème initial?
DEFINITION
On dit que la méthode (1) est stable s’il existe une constante
M; indépendante de h telle que
X1
N
max jyn zn j M jy0 z0 j + j nj
0 n N
n=0
Cette dé…nition signi…e que pour un schéma stable, une petite perturba-
tion sur les données entraine une faible perturbation sur la solution.
Cette propriété est très importante pour réduire l’e¤et des erreurs d’arrondi.
2-CONSISTANCE D’UN SCHEMA NUMERIQUE
DEFINITION
On dit que la méthode numérique (1) est consistante avec l’équation di¤érentielle
y 0 = f (t; y) si:
X1
N
lim jy(tn+1 ) y(tn ) hn (tn ; y(tn ) ; hn )j = 0:
h!0
n=0
X1
N
lim j"n j = 0
h!0
n=0
3- CONVERGENCE D’UN SCHEMA NUMERIQUE
Le schéma numérique (1) est dit convergent s’il satisfait:
DEMONSTRATION:
(: Supposons que 8t 2 [t0 ; t0 + t]; 8y 2 R , (t; y; 0) = f (t; y)
et montrons que le schéma est consistant:
Soit l’erreur de consistance à l’étape n :
"n = y(tn+1 ) y(tn ) hn (tn ; y(tn ) ; hn )
X1
N X1
N X1
N
) j nj j nj + hn j nj :
n=0 n=0 n=0
X1
N
Or on remarque que j nj est en fait une somme de Riemann puisque,
n=0
si on pose: g(t) jf (t; y(t)) (t; y(t); 0)j
NX1 X
N 1
alors on a: j nj = hn g(cn ); cn 2 [tn ; tn+1 ];
n=0 n=0
tZ
0 +T tZ
0 +T
X1
N
D’où: limh!0 j nj = g(t)dt = jf (t; y(t)) (t; y(t); 0)j dt:
n=0 t0 t0
D’autre part, on a:
j nj = j (cn ; y(cn ); 0) (tn ; y(tn ); hn )j
X1
N
cette intégrale est nulle , donc limh!0 j n j) = 0
n=0
càd le schéma est consistant.
Réciproquement, supposons que la méthode numérique est consistante
X1
N
donc limh!0 j n j) = 0
n=0
tZ
0 +T
DEMONSTRATION
Considérons le schéma (1) et le schéma perturbé (2), on a :
X1
N
j"n j = O(hp )
n=0
X1
N
càd j"n j Chp , C une constante positive indépendante de h:
n=0
PROPOSITION
Si la méthode à un pas est stable et d’ordre p alors l’erreur à chaque
étape n véri…e:
8n 2 N, jen j M fj h j + Chp g
EXEMPLE:
Le schéma d’Euler est bien d’ordre 1; si f est Lipschitzienne.
En e¤et: le schéma est alors stable et on a de plus grâce à
la formule de Taylor :
Si y 2 C 1([t0; t0 + T ]) : n = y(tn+1 ) y(tn ) hn f (tn ; y(tn ))
h2n
) n = hn y 0 (tn ) + 2
y"(cn ) hn y 0 (tn )), cn 2 [t0 ; t0 + T ]:
h2n h2n
) n = 2
y"(cn ) ) j nj 2
M; où M = supt2[t ;t +T ] jy"(t)j :
0 0
X1
N X1
N
) j"n j Mh hn = M hT; avec h = max0 n N hn
n=0 n=0
X1
N
) j"n j = O(h):
n=0
8(t; y) 2 [t0 ; t0 + T ]) R,
8
>
> (t; y; 0) = f (t; y)
>
> @
(t; y; 0) = 21 f (1) (t; y)
< @h
(S) :
>
> :
>
>
: @p 1
@hp 1
(t; y; 0) = p1 f (p 1) (t; y)
= @f
@t
(t; y(t)+ @f
@y
(t; y(t)) y 0 t) = @f
@t
(t; y(t))+ @f
@y
(t; y(t)):f (t; y(t))
0 1)
) y"(t) = f (t; y(t)):
Et pour tout k 0; on a:
@f (k) @f (k)
f (k+1) (t) (t; y(t)) + (t; y(t)):f (t; y(t))
@t @y
Démonstration du théorème:
Soit "n = y(tn+1) y(tn) hn (tn ; y(tn) ; hn ) l’erreur de consistance en
tn :
hpn 1 @ (p 1)
= (tn ; y(tn ) ; 0) + hn @@h (tn ; y(tn ) ; 0) + ::: + (p 1)! @hp 1
(tn ; y(tn ); 0) + O(hp ):
Pp
D’où: "n = 1
k=0 hk+1
n k (tn ; y(tn )) + O(hp+1 )
Réciproquement:
Supposons que le schéma est d’ordre p: Supposons ( par l’absurde) que
le système (S) n’est pas satisfait.
PN 1 PN 1 k+1
) n=0 j"n j hk n=0 hj k (tn ; y(tn ))j +T:O(h )
n=0
1
j"n j Chp ) n=0 j"n j
h k Chp k ! 0 qd h ! 0:
PN 1 PN R t0 +1
D’où: 0 = limh!0 h j" j = limh!0n=0
k
n
n=0
1
hj k (tn ; y(tn ))j = t0 j k (t; y(t))j dt
(Sommes de Riemann).
R t0 +1
Donc t0
j k (t; y(t))j dt = 0; donc k (t; y(t)) = 0; 8t 2 [t0 ; t0 +T ];
D’où le résultat.
CHAPITRE III
EXEMPLES DE SCHEMAS NUMERIQUES A UN PAS
1- Méthode de Taylor-2
h2 (1)
yn+1 = yn +h f (tn ; y n )+ f (tn ; y n )
2
y0 donné
(t; y; 0) = f (t; y)
() la consistance) et @
@h
(t; y; 0) = 1
2
f (1) (t; y )/:
yn+1 = yn + h (tn ; y n ; h)
h (1) hp 1 (p 1)
où (t; y; h)= f (t; y)+ f (t; y) + :::+ f (t; y)
2 p!
On considère les points intermédiaires: tn;i = tn +ci h; où les coe¢ cients ci sont
choisis tels que:
ci 2 [0; 1]; 0 c1 c2 ::::: cr 1
On obtient :
R tn;i R ci
y(tn;i ) = y(tn )+ tn
f (t; y(t))dt = y(tn ) + h 0
f (tn +sh; y(tn +sh))ds
R t+1 R1
et y(tn+1) = y(tn)+ tn
f (t; y(t))dt = y(tn ) + h 0
f (tn +sh; y(tn +sh))ds:
Z ci X
r
g(s)ds ' aij g(cj )
0 j=1
Z 1 Xr
et g(s)ds ' bj g(cj )
0 j=1
On obtient donc:
8 Pr
>
> y(tn;i )' y(t n ) + h j=1 aij f (tn +cj h; y(tn +cj h))
>
>
< P
(RKr ) y(tn+1 )' y(tn ) + h rj=1 bj f (tn +cj h; y(tn +cj h))
>
>
>
> Pr Pr
:
j=1 aij =ci ; i = 1; :::; r et j=1 bj = 1
X
i 1
yn;i = y n +h aij f (tn +cj h; yn;j )
j=1
Proposition
Le schéma de Runge-Kutta implicite (RKr ) admet une et une
seule solution si la matrice A véri…e la condition suivante:
L la constante de Lipschitz de f:
, F i (Y ) = Yi ; i = 1; :::; r:
Donc montrons
0 que1F est contractante.
jy1 j
B jy2 j C
B C
On note: jY j = B
B :
C;
C
@ : A
jyr j
et si X; Y sont des vecteurs de Rr ; on notera X Y si Xi Y i ; i = 1; :::; r:
P P
On a: jFi (Y ) Fi (Z)j = y + h rj=1 aij f (t + cj h; y j ) [y + h rj=1 aij f (t + cj h; z j )]
P P
h rj=1 jaij j L jyj zj j = hL rj=1 jaij j jyj zj j = hL(A: jY Zj )i ; i = 1; :::; r
jF (Y ) F (Z)j hL jAj : jY Zj
Exemples usuels:
0 0
1. r = 1 : donné par le tableau 1
: le schéma s’écrit: yn;1 = yn et yn+1= yn+hf (tn; yn);
c’est le schéma d’Euler .
0 0 0
2. r = 2 : donné par le tableau: 1 1 0 :
1 1
2 2
h
yn+1 = yn + fk n;1 +2k n;2 +2k n;3 +k n;4 g
6
avec kn;1 = f (tn; yn)
h h
kn;2 = f (tn + ; yn + kn;1 )
2 2
h h
kn;3 = f (tn + ; yn + kn;2 )
2 2
kn;4 = f (tn + h; yn + h kn;3 )
Démonstration:
Le schéma Runge-Kutta explicie s’écrit:
yn+1 = y n +h (tn ; y n ; h) avec:
X
r
(t; y; h) = bi f (t + ci h; y i )
i=1
X
i 1
avec yi = y+h aij f (t + cj h; yj ); i = 1; :::; r
j=1
On applique alors le théorème sur l’ordre d’un schéma à un
pas:
Il su¢ t de calculer les dérivées successives de par rapport
à h et chercher des conditions su¢ santes pour véri…er les
critères correspondants:
Ordre 1 si
Pr Pr
(t; y; 0) = f (t; y) , i=1 bi f (t; y) = f (t; y) , i=1 bi = 1:
Ordre 2 si de plus @
@h
(t; y; 0) = 21 f
0 1)
(t; y) :
@
Calculons @h
(t; y; h) :
Pr
On a: @@h (t; y; h) = i=1 bi [ci @f
@t
(t + ci h; y i )+ @y i @f
: (t + ci h; y i )]
@h @y
P
Or @y@h = ij=11 aij f
i
(t + cj h; yj )
Pi 1 @y
+h aij [cj @f
j=1 @t
(t + cj h; y j )+ @hj : @f
@y
(t + cj h; y j )]
P
)pour h = 0 : @y i
@h jh=0
= ij=11 aij f (t; y)
P
= f (t; y) ij=11 aij = f (t; y)ci ;
P
sous la condition ij=11 aij = ci:
P
) @@h (t; y; 0) = ri=1 bi [ci @f
@t
(t; y) + ci f (t; y) @f
@y
(t; y)]
Pr P
= i=1 bi ci f (1) (t; y) = f (1) (t; y) ri=1 bi ci
P
D’où: le schéma sera d’ordre 2 si: ri=1 bici = 12 ;
en plus des 2 conditions précédentes.
Ordre 3 : cherchons des conditions supplémentaires
su¢ santes pour avoir @@h (t; y; 0) = 13 f 3)(t; y) :
2
2
0
On a:
@2
@h2
(t; y; h)
P
@
= @h f ri=1 bi [ci @f
@t
(t + ci h; y i )+ @y i @f
: (t + ci h; y i )]g
@h @y
Pr 2 2
= i=1 bi [c2i @@t2f (t + ci h; y i ) + ci @y i @ f
:
@h @t@y
(t + ci h; y i )
2 @yi @ 2 f
+ @y
@h
i @ f
fci @t@y (t + ci h; yi ) + @h @y 2
(t + ci h; yi )g
@2y
+ @h2i @f
@y
(t + ci h; yi )]
@ 2 yi Pi 1 @y j @f
Or @h 2 =
@f
j=1 aij [cj @t (t + cj h; y j )+ @h : @y (t + cj h; y j )]
Pi 1 @yj @f
+ j=1 aij [cj @f
@t
(t + cj h; yj ) + : (t
@h @y
+ cj h; yj )]
P
+h( ij=11 aij [cj :::)
Donc en h = 0;on a:
@ 2 yi Pi 1
@h2 jh=0
= aij [cj @f
j=1 @t
(t; y) + cj f (t; y) @f
@y
(t; y)]
P @y
+ ij=11 aij [cj @f
@t
(t; y) + @hj : @f
@y
(t; y)]
Pi 1
= 2 j=1 aij [cj @f
@t
(t; y) + cj f (t; y) @f
@y
(t; y)]
Pi 1
= 2 j=1 aij cj f (1) (t; y)
2 Pr 2 2
) @@h2 (t; y; 0) = i=1 bi [c2i @@t2f (t; y) + ci @y i
: @ f (t; y)
@h jh=0 @t@y
2 2
+ @y
@h
i @ f
fci @t@y (t; y) + @yi
: @ f (t; y)g
@h jh=0 @y 2
2
+ @@hy2i jh=0 : @f
@y
(t; y)]
2 Pr 2 2
) @@h2 (t; y; 0) = i=1 bi [c2i @@t2f (t; y) + c2i f (t; y) @t@y
@ f
(t; y)
@ f 2 2 2
+ci f (t; y)ci @t@y (t; y) + c2i f (t; y) @@yf2 (t; y)g
Pi 1
+2 aij cj [ @f
j=1 @t
(t; y) + f (t; y) @f
@y
(t; y)] @f
@y
(t; y)
P 2 P @2f
= ri=1 bi c2i @@t2f +2 ri=1 bi c2i f @t@y
P 2
+ ri=1 bi c2i f 2 @@yf2
P P 2
+2 ij=11 bi aij cj @f @f
@t @y
+ 2 ij=11 bi aij cj f (t; y)( @f @y
);
( le tout en (t; y) )
(1) (1)
Or on a f (2)(t; y) = @f@t (t; y) + f (t; y) @f@y (t; y)
@2f 2 2 2
= @t2
@ f
+ 2f: @t@y + @@yf2 f + @f @f
@t @y
+( @f
@y
)2 f (t; y)
Pr Pr
2
i=1 bi ci = 1
3
et 1 i r
bi aij cj = 61 :
1 j i
On procède de même pour obtenir des conditions su¢ santes pour l’ordre
4 en calculant @@h (t; y; 0): 3
3
On considère une subdivision t0 < t1 < ::: < tN de [t0 ; T ]; équidistante et on pose
T
h = ti+1 ti = :
N
La méthode ici, initiée par J.C.Adams vers 1860, consiste à utiliser l’information obtenue à partir
de plusieurs pas précédents : yn ; yn 1 ; :::; yn r+1 pour obtenir une approximation numérique plus
précise de la solution y à l’étape tn+1 .
Ces méthodes ont l’avantage de pouvoir choisir un ordre élevé de convergence selon le modèle étudié
et la nature du problème de Cauchy associé et selon la précision exigée.
On étudiera ici les principales méthodes numériques suivantes:
1- les méthodes d’Adams explicites.
2-les méthodes d’Adams implicites.
3- les méthodes de prédiction-correction
4- les méthodes de di¤érentiation rétrograde.
En intégrant l’équation
R tn+1 di¤érentielle sur [tn ; tn+1 ]; on obtient:
y(tn+1 ) = y(tn ) + tn f (t; y(t))dt
On applique alors une formule d’intégration numérique en approchant f par son polynôme d’interpolation
Pr 1 (t); de degré r 1 tel que:
où fj f (tj ; yj ):
Pr 1 R tn+1 j 1
) y(tn+1 ) ' y(tn ) + j=0 tn i=0 (t tn i )f [tn ; tn 1 ; :::; tn j ]dt
P Rt
) y(tn+1 ) ' y(tn ) + rj=01 f [tn ; tn 1 ; :::; tn j ] tnn+1 j 1
i=0 (t tn i )dt
d’où le schéma numérique:
P Rt
yn+1 = yn + rj=01 f [tn ; tn 1 ; :::; tn j ] tnn+1 j 1
i=0 (t tn i )dt
j
r fn
or on a: f [tn ; tn 1 ; :::; tn j ] = j!hj
t tn
) en posant le changement de variable: s = h
;
Pr 1 j
yn+1 = yn + h j=0 j r fn avec
1
R1 j 1 s+j 1 R1
j = j! 0 i=0 (i + s)ds = ds 0
j
Les coe¢ cients peuvent être tabulés (calculés au préalable) puisqu’ils ne
dépendant pas de h ni de f:
5
Ainsi on obtient : 0 = 1; 1 = 21 ; 2 = 12 ; 3 = 38 ; :::
Exemples:
r = 2 : yn+1 = yn + h [ 32 fn 1
f ]
2 n 1
h
r = 3 : yn+1 = yn + 12
[23 fn 16 fn 1 + 5 fn 2 ]
h
r = 4 : yn+1 = yn + 24
[ 55 fn 59 fn 1 + 37 fn 2 9 fn 3 ]
Remarque:
Pour une formule multipas à 3 pas par exemple il faut d’abord déterminer les valeurs de y0 ; y1 ; y3 :
Comme y0 est donné, on calcule y1 ; y2 à l’aide d’une méthode numérique simple comme par exemple le
schéma d’Euler.
2- Méthodes d’Adams-implicites
ou Adams-Moulton
On considère maintenant le polynôme Pr (t) d’interpolation
aux points tn+1 ; tn ; tn 1 ; ::tn r+1 tel que:
où fj f (tj ; yj ):
Ce polynôme s’écrit:
Pr j 1
P (t) = j=0 i=0 (t tn+1 i )f [tn+1 ; :::; tn+1 j ]
Pr s+j 2 j
= j=0 r fn+1 ;
j
t tn s+j 2 (s+j 2)::::(s 1)
où s = h
et j!
.
j
D’où le schéma
R t numérique:
yn+1 = yn + tnn+1 P (t)dt
et avec le changement de variable,
r = 1 : yn+1 = yn + h [ 12 fn+1 + 21 fn ]
h
r = 2 : yn+1 = yn + 12
[5 fn+1 + 8fn fn 1 ]
h
r = 4 : yn+1 = yn + 24
[9 fn+1 + 19fn 5fn 1 + fn 2 ]
Ces équations sont non-linéaires en l’inconnue yn+1 qu0 il faut résoudre par une méthode numérique
à chaque étape, comme par exemple la méthode de Newton-Raphson.
On peut les écrire sous la forme générale:
Etapes de l’algorithme:
P: (Prédiction)
Pr 1 j
On calcule la valeur yd
n+1 = yn + h j=0 j r fn
à l’aide d’une méthode d’Adams explicite
E: (Evaluation)
On évalue çàd on calcule fd
n+1 = f (tn+1 ; yd
n+1 )
C: (Correction)
On corrige l’approximation en calculant yn+1 = An + h B fd
n+1
E: (Evaluation)
On calcule fn+1 = f (tn+1 ; yn+1 )
Exemple:
Considérons le schéma d’Adams-implicite à 2 pas, çàd r = 2 :
h
yn+1 = yn + 12 [5 fn+1 + 8fn fn 1 ]
On montrera en exercice que ce schéma est d’ordre 3;
alors que le schéma d’Adams-explicite à 2 pas qui s’écrit:
est d’ordre 2 seulement.
Appliquons cette méthode de prédiction-correction à ce schéma :
3 1
Etape P : On calcule la valeur yd
n+1 = yn + h [ 2 fn f ]
2 n 1
Pr j
r yn+1 j 1 1
Pr 1 j
) Q0 (tn+1 ) = j=1 j!hj i=1 ih= h j=1 j r yn+1
Pr Pr
i=0 i y(n+1 r)+i =h i=0 i f(n+1 r)+i , r 6= 0
Pr Pr
, i=0 i yN 0 +i = h i=0 i fN 0 +i , avec N 0 n+1 r
Théorème:
Une méthode multipas de la forme:
Pr Pr
i=0 i yN 0 +i = h i=0 i fN 0 +i ( avec N 0 n+1 r)
suivantes:
8 Pr
< i=0 i =0
: Pr Pr
i=0 i iq = q i=0 i iq 1
; q = 1; :::; p
Démonstration
On suppose f de classe C p ; donc y est de classe C p+1 :
Appliquons la formule de Taylor p à la fonction y :
Pp iq hq (q) p+1
On a: y(t + ih) = y(t) + q=1 q!
y (t) + (ih)
(p+1)!
y (p+1) ( i )
Pr Pr Pp hq (q)
Pr
) i=0 i y(t + ih) = i=0 i y(t) + q=1 q! y (t) i=0 iq i
h p+1 Pr p+1 (p+1)
+ (p+1)! i=0 ii y ( i)
Pr Pp hq (q)
Pr
= i=0 i y(t) + q=1 q! y (t) i=0 iq i +O(hp+1 )
Donc P
au point tN 0 +i = tN 0 P
+ ih; on obtient:
r r
"n = P i=0 i y(t 0
N +i ) h Pi=0 i f (tN 0 +i ; y(tN 0 +i )
= i=0 i y(tN 0 +i ) h ri=0 i y 0 (tN 0 +i )
r
Pr Pp hq (q)
Pr Pr
= y(tN 0 ) i=0 i + q=1 q! y (t)[ i=0 iq i q i=0 i iq 1
] + O(hp+1 ):
Remarque:
PN 1 PN 1
n=0 j"n j ! 0 qd h ! 0 , çad, si n=0 j"n j = O(h);
Donc le schéma
Prest consistantPsir Pr
i=0 i = 0 et i=0 i i = i=0 i:
pas r:
Pr
P (z) = i=0 i zi; z 2 C
Condition de Dahlquist:
On dit que le polynôme P satisfait la condition de Dahlquist
8
< Toutes les racines de P sont de module 1
si: :
et les racines de module égal à 1 sont racines simples
Remarque:
Pr
Si le schéma est consistant, alors i=0 i = 0 ) 1 est une racine de P:
Théorème
Une méthode multipas est stable si et seulement si
Exemples:
Pour les méthodes d’Adams-Bashfort, on a:
P j
yn+1 = yn + h rj=01 j r fn
) r = 1; r 1 = 1; j = 0; j = 1; ::; r 2:
) P (r) = z r z r 1 = z r 1 (z 1)
) les racines de P sont 0 et 1; et 1 est une racine simple.
Remarque: P Pr Pr
Si P véri…e la condition de Dahlquist et si ri=0 i = 0 et i=0 i i = i=0 i;
Exemple de Dahlquist:
En fait c’est un contre-exemple: on construit un schéma explicite à 2 pas
avec: N 0 = n 2 + 1 = n 1
P P
donc 2i=0 i yn 1+i = h 2i=0 i fn 1+i
Schéma explicite donc 2 = 0: On choisit 2 = 1:
) yn+1 + 1 yn + 0 yn 1 = h( 0 fn 1 + 1 fn ):
La racine 5 est de module > 1 donc la condition de Dahlquist n’est pas satisfaite.
y 0 = y; y(0) = 1: On obtient:
0
= 4(1 h)2 + 5 + 2h = 9 + 4h2 6h = 9 6h + O(h2 )
0 2
) '9 6h = 9(1 3
h) (pour h petit)
p 1
) 0 ' 3(1 h) '3 h
3
alors que la solution exacte qui est y(t) = et véri…e: y(tn ) = etn eT donc bornée.
En e¤et, ce schéma est consistant (par construction) donc s’il était de plus stable,