Académique Documents
Professionnel Documents
Culture Documents
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Résolution numérique des Équations Différentielles Ordinaires (EDO)
Introduction
Problème de Cauchy
Les équations du premier ordre
Les systèmes du 1er ordre
Les équations différentielles d’ordre >1
Approximation numérique des EDO d’ordre 1
Schémas classiques
Etude des méthodes à un pas
Stabilité et consistance
Consistance et ordre de consistance
Méthodes à pas multiple
Introduction
Introduction
On s’intéresse ici à des problèmes physiques où l’inconnue est une fonction :
Chute libre : Trouver la vitesse v (t) satisfaisant
mv 0 (t) = mg − kv (t)2 ∀t
9 avril 2020 1 / 50
Introduction
Equation différentielle
Une équation différentielle est une relation faisant intervenir les dérivées d’une fonction
inconnue y (t) à déterminer sur un intervalle [t0 , T ] :
Définition
L’ordre d’une équation différentielle est déterminé par l’ordre maximal de la dérivée de la
fonction inconnue (variable dépendante).
Exemple
Ordre 1 : y 0 (t) = ty (t) alors F (t, y , y 0 ) = y 0 (t) − ty (t).
Ordre 2 : y 00 (x ) = y 0 (x ) − y (x ) alors F (x , y , y 0 , y 00 ) = y 00 (x ) − y 0 (x ) + y (x ).
9 avril 2020 2 / 50
Problème de Cauchy et Équations de premier ordre
Théorème de Cauchy
Si on suppose que la fonction f est continue par rapport aux deux variables t et y et que f est
uniformément Lipschitzienne par rapport à y , c’est à dire que
Théorème de Cauchy
Si on suppose que la fonction f est continue par rapport aux deux variables t et y et que f est
uniformément Lipschitzienne par rapport à y , c’est à dire que
Théorème de Cauchy
Si on suppose que la fonction f est continue par rapport aux deux variables t et y et que f est
uniformément Lipschitzienne par rapport à y , c’est à dire que
Théorème de Cauchy
Si on suppose que la fonction f est continue par rapport aux deux variables t et y et que f est
uniformément Lipschitzienne par rapport à y , c’est à dire que
Théorème de Cauchy
Si on suppose que la fonction f est continue par rapport aux deux variables t et y et que f est
uniformément Lipschitzienne par rapport à y , c’est à dire que
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
Remarque
Le problème de Cauchy est un problème d’évolution, c’est à dire à partir de la condition initiale, on
peut calculer la solution à l’instant t comme suit :
Z t
y (t) = y (t0 ) + f (s, y (s)) ds, (2)
t0
La solution (2) ne donne pas y de façon explicite sauf dans des cas simples.
Système du 1er ordre
Il s’écrit sous la forme suivante :
(
Y 0 (t) = F (t, Y (t)), t ∈ [t0 , T ],
(3)
Y (t0 ) = Y0 ,
9 avril 2020 6 / 50
Les équations différentielles d’ordre >1
9 avril 2020 6 / 50
Les équations différentielles d’ordre >1
9 avril 2020 6 / 50
Les équations différentielles d’ordre >1
9 avril 2020 6 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Les équations différentielles d’ordre >1
Exemples
1 Le problème du pendule satisfait les hypothèses du Théorème de Cauchy.
En effet : la fonction F de (5) vérifie pour tous Y et Z de R2 :
|F1 (Y ) − F1 (Z )| = |y2 − z2 | 6 kY − Z k,
|F2 (Y ) − F2 (Z )| = ω 2 |sin(y1 ) − sin(z1 )| 6 ω 2 kY − Z k, puisque
y1 − z1 y1 + z1
|sin(y1 ) − sin(z1 )| = 2|sin( )cos( )| 6 |y1 − z1 | 6 kY − Z k.
2 2
Donc il admet une solution unique. Cependant, on ne peut pas expliciter sa solution à l’aide de
fonctions usuelles. Cette solution peut s’exprimer à l’aide d’une fonction spéciale appelée fonction “sinus
amplitude” de Jacobi, mais c’est beaucoup plus compliqué que de rechercher une approximation numérique
de la solution en utilisant une des méthodes que nous allons exposer dans ce cours.
(
y 0 (t) = y (t)1/2 , t ∈ [0, 1],
2 Le problème ne satisfait pas les hypothèses du Théorème
y (0) = y0 ,
de Cauchy. Il admet au moins deux solutions distinctes y1 (t) = 0 et y2 (t) = (t/2)2 .
9 avril 2020 7 / 50
Approximation numérique des ODE d’ordre 1
Objectif et Vocabulaire
Objectif
Le but est d’étudier des méthodes numériques consistantes et stables permettant le calcul
de bonnes approximations de la solution exacte de l’EDO (1).
Au niveau numérique, on ne peut pas évaluer la solution y (t) en tout point t.
On va chercher une approximation de la solution pour certaines valeurs de la variable
indépendante t que l’on notera ti .
La méthode la plus célèbre est celle de Euler.
Vocabulaire
La distance entre ti+1 et ti est notée hi = ti+1 − ti , on l’appelle le pas du temps.
On utilisera généralement un pas de temps constant noté h.
On note y (ti ) la solution analytique évaluée en t = ti .
On note yi la solution approchée de y (ti ) obtenue par une méthode numérique.
9 avril 2020 8 / 50
Approximation numérique des ODE d’ordre 1
Objectif et Vocabulaire
Objectif
Le but est d’étudier des méthodes numériques consistantes et stables permettant le calcul
de bonnes approximations de la solution exacte de l’EDO (1).
Au niveau numérique, on ne peut pas évaluer la solution y (t) en tout point t.
On va chercher une approximation de la solution pour certaines valeurs de la variable
indépendante t que l’on notera ti .
La méthode la plus célèbre est celle de Euler.
Vocabulaire
La distance entre ti+1 et ti est notée hi = ti+1 − ti , on l’appelle le pas du temps.
On utilisera généralement un pas de temps constant noté h.
On note y (ti ) la solution analytique évaluée en t = ti .
On note yi la solution approchée de y (ti ) obtenue par une méthode numérique.
9 avril 2020 8 / 50
Approximation numérique des ODE d’ordre 1
Discrétisation
Supposons que l’on désire calculer la solution y (t) d’une équation différentielle pour t > t0 .
Une discrétisation de l’équation définissant y (t) est définie par
la donnée d’un ensemble discret de valeur pour la variable indépendante t : en général, on
−t0
fixe le pas h = T N avec N est le nombre de points de la discrétisation. On pose
ti = t0 + ih ∀i = 0, 1, . . . , N.
Produisant la suite
Discrétisation
Supposons que l’on désire calculer la solution y (t) d’une équation différentielle pour t > t0 .
Une discrétisation de l’équation définissant y (t) est définie par
la donnée d’un ensemble discret de valeur pour la variable indépendante t : en général, on
−t0
fixe le pas h = T N avec N est le nombre de points de la discrétisation. On pose
ti = t0 + ih ∀i = 0, 1, . . . , N.
Produisant la suite
Discrétisation
Supposons que l’on désire calculer la solution y (t) d’une équation différentielle pour t > t0 .
Une discrétisation de l’équation définissant y (t) est définie par
la donnée d’un ensemble discret de valeur pour la variable indépendante t : en général, on
−t0
fixe le pas h = T N avec N est le nombre de points de la discrétisation. On pose
ti = t0 + ih ∀i = 0, 1, . . . , N.
Produisant la suite
Discrétisation
Supposons que l’on désire calculer la solution y (t) d’une équation différentielle pour t > t0 .
Une discrétisation de l’équation définissant y (t) est définie par
la donnée d’un ensemble discret de valeur pour la variable indépendante t : en général, on
−t0
fixe le pas h = T N avec N est le nombre de points de la discrétisation. On pose
ti = t0 + ih ∀i = 0, 1, . . . , N.
Produisant la suite
La méthode d’Euler consiste à approcher y 0 (tn ) par la formule de Taylor comme suit :
y (tn+1 ) = y (tn ) + hy 0 (tn ) + O(h2 ).
Soit
y (tn+1 ) − y (tn )
y 0 (tn ) = + O(h) = f (tn , y (tn )).
h
Soit yn une approximation de y (tn ) (yn ≈ y (tn )), le schéma d’Euler s’écrit
yn+1 = yn + hf (tn , yn ), n = 0, . . . , N − 1,
y (0) = y0 .
9 avril 2020 10 / 50
Approximation numérique des ODE d’ordre 1
La méthode d’Euler consiste à approcher y 0 (tn ) par la formule de Taylor comme suit :
y (tn+1 ) = y (tn ) + hy 0 (tn ) + O(h2 ).
Soit
y (tn+1 ) − y (tn )
y 0 (tn ) = + O(h) = f (tn , y (tn )).
h
Soit yn une approximation de y (tn ) (yn ≈ y (tn )), le schéma d’Euler s’écrit
yn+1 = yn + hf (tn , yn ), n = 0, . . . , N − 1,
y (0) = y0 .
9 avril 2020 10 / 50
Approximation numérique des ODE d’ordre 1
La méthode d’Euler consiste à approcher y 0 (tn ) par la formule de Taylor comme suit :
y (tn+1 ) = y (tn ) + hy 0 (tn ) + O(h2 ).
Soit
y (tn+1 ) − y (tn )
y 0 (tn ) = + O(h) = f (tn , y (tn )).
h
Soit yn une approximation de y (tn ) (yn ≈ y (tn )), le schéma d’Euler s’écrit
yn+1 = yn + hf (tn , yn ), n = 0, . . . , N − 1,
y (0) = y0 .
9 avril 2020 10 / 50
Approximation numérique des ODE d’ordre 1
La méthode d’Euler consiste à approcher y 0 (tn ) par la formule de Taylor comme suit :
y (tn+1 ) = y (tn ) + hy 0 (tn ) + O(h2 ).
Soit
y (tn+1 ) − y (tn )
y 0 (tn ) = + O(h) = f (tn , y (tn )).
h
Soit yn une approximation de y (tn ) (yn ≈ y (tn )), le schéma d’Euler s’écrit
yn+1 = yn + hf (tn , yn ), n = 0, . . . , N − 1,
y (0) = y0 .
9 avril 2020 10 / 50
Approximation numérique des ODE d’ordre 1
La méthode d’Euler consiste à approcher y 0 (tn ) par la formule de Taylor comme suit :
y (tn+1 ) = y (tn ) + hy 0 (tn ) + O(h2 ).
Soit
y (tn+1 ) − y (tn )
y 0 (tn ) = + O(h) = f (tn , y (tn )).
h
Soit yn une approximation de y (tn ) (yn ≈ y (tn )), le schéma d’Euler s’écrit
yn+1 = yn + hf (tn , yn ), n = 0, . . . , N − 1,
y (0) = y0 .
9 avril 2020 10 / 50
Approximation numérique des ODE d’ordre 1
Définitions
Un schéma à un pas si yn+1 est une fonction de tn et yn uniquement (le schéma d’Euler).
Un schéma à deux pas si yn+1 est une fonction de (tn , yn ) et de (tn−1 , yn−1 ) uniquement.
Un schéma à k pas si yn+1 est une fonction de tn , yn , tn−1 , yn−1 , . . . , tn−(k−1) , yn−(k−1)
Un schéma à k pas est explicite si on peut exprimer yn+1 sous la forme
9 avril 2020 11 / 50
Approximation numérique des ODE d’ordre 1
Définitions
Un schéma à un pas si yn+1 est une fonction de tn et yn uniquement (le schéma d’Euler).
Un schéma à deux pas si yn+1 est une fonction de (tn , yn ) et de (tn−1 , yn−1 ) uniquement.
Un schéma à k pas si yn+1 est une fonction de tn , yn , tn−1 , yn−1 , . . . , tn−(k−1) , yn−(k−1)
Un schéma à k pas est explicite si on peut exprimer yn+1 sous la forme
9 avril 2020 11 / 50
Approximation numérique des ODE d’ordre 1
Définitions
Un schéma à un pas si yn+1 est une fonction de tn et yn uniquement (le schéma d’Euler).
Un schéma à deux pas si yn+1 est une fonction de (tn , yn ) et de (tn−1 , yn−1 ) uniquement.
Un schéma à k pas si yn+1 est une fonction de tn , yn , tn−1 , yn−1 , . . . , tn−(k−1) , yn−(k−1)
Un schéma à k pas est explicite si on peut exprimer yn+1 sous la forme
9 avril 2020 11 / 50
Approximation numérique des ODE d’ordre 1
Définitions
Un schéma à un pas si yn+1 est une fonction de tn et yn uniquement (le schéma d’Euler).
Un schéma à deux pas si yn+1 est une fonction de (tn , yn ) et de (tn−1 , yn−1 ) uniquement.
Un schéma à k pas si yn+1 est une fonction de tn , yn , tn−1 , yn−1 , . . . , tn−(k−1) , yn−(k−1)
Un schéma à k pas est explicite si on peut exprimer yn+1 sous la forme
9 avril 2020 11 / 50
Approximation numérique des ODE d’ordre 1
Définitions
Un schéma à un pas si yn+1 est une fonction de tn et yn uniquement (le schéma d’Euler).
Un schéma à deux pas si yn+1 est une fonction de (tn , yn ) et de (tn−1 , yn−1 ) uniquement.
Un schéma à k pas si yn+1 est une fonction de tn , yn , tn−1 , yn−1 , . . . , tn−(k−1) , yn−(k−1)
Un schéma à k pas est explicite si on peut exprimer yn+1 sous la forme
9 avril 2020 11 / 50
Approximation numérique des ODE d’ordre 1
Définitions
Un schéma à un pas si yn+1 est une fonction de tn et yn uniquement (le schéma d’Euler).
Un schéma à deux pas si yn+1 est une fonction de (tn , yn ) et de (tn−1 , yn−1 ) uniquement.
Un schéma à k pas si yn+1 est une fonction de tn , yn , tn−1 , yn−1 , . . . , tn−(k−1) , yn−(k−1)
Un schéma à k pas est explicite si on peut exprimer yn+1 sous la forme
9 avril 2020 11 / 50
Approximation numérique des ODE d’ordre 1
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
Schémas classiques
Une façon d’obtenir une multitude de schémas numériques est d’intégrer l’EDO sur [tn , tn+1 ] :
Z tn+1
y (tn+1 ) − y (tn ) = f (t, y (t))dt,
tn
et ensuite d’approcher l’intégrale. Par exemple
Intégration par la méthode des rectangles à gauche :
Z tn+1
f (t, y (t))dt ≈ hf (tn , y (tn )),
tn
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
yn+1 = yn + hyn
= (1 + h)yn .
Partons de y0 = 1, on obtient yn+1 = (1 + h)n . Avec h = N1 ,on retrouve pour yN une valeur
1
approchée de y (1) = e, puisque lim yN = lim (1 + )N = e.
N→∞ N→∞ N
La méthode implicite fournit quant à elle yN = (1−11 )N qui converge également vers e lorsque
N
N tend vers l’infini.
9 avril 2020 14 / 50
Approximation numérique des ODE d’ordre 1
Cette estimation est confortée par les valeurs données dans le tableau suivant, où εN désigne l’erreur
absolue au point t = 1 pour chacune des méthodes.
Cette estimation est confortée par les valeurs données dans le tableau suivant, où εN désigne l’erreur
absolue au point t = 1 pour chacune des méthodes.
Cette estimation est confortée par les valeurs données dans le tableau suivant, où εN désigne l’erreur
absolue au point t = 1 pour chacune des méthodes.
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
dont la solution est y (t) = 13 + t. Appliquons la méthode d’Euler pour en chercher la solution
approchée à l’instant T , pour différentes valeurs de T et différents choix du pas h. Les résultats
obtenus peuvent surprendre. Le tableau suivant donne les erreurs dans le calcul de yN :
h T =5 T = 10 T = 20
1 1.8651 10−14 1.9403 10−11 2.0345 10−05
0.5 4.9560 10−13 4.7278 10−09 4.2999 10−01
0.1 5.2402 10−14 2.6318 10−08 6.5252 10+03
0.05 1.5525 10−11 1.8232 10−05 2.5142 10+07
On constate que l’erreur semble croître avec le pas, contrairement à ce que l’on espérait. Par ailleurs,
pour T = 20, cette erreur atteint des valeurs astronomiques ! ! !
9 avril 2020 17 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 31 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 31 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Approximation numérique des ODE d’ordre 1
Analyse de l’exemple
Calculons la solution générale de l’équation différentielle : y 0 (t) = 3y (t) − 3t.
La solution de l’équation homogène est y (t) = Ke 3t . La méthode de variation de la constante fournit
pour notre équation
1 1
K 0 (t) = −3te −3t ⇒ K (t) = (t + )e −3t + k ⇒ y (t) = t + + ke 3t .
3 3
La constante k peut être évaluée à l’aide de la valeur de y en 0, avec k = 0 si y (0) = 13 . Mais si
y (0) = 13 + ε. On obtient k = ε implique que la solution réelle du problème devient
yε (t) = 13 + t + εe 3t . Les valeurs de e 3T sont respectivement :
pour T = 5, e 3T ' 3.269 106 ,
pour T = 10, e 3T ' 1.068 1013 ,
pour T = 20, e 3T ' 1.142 1026 .
Avec une unité d’arrondi de l’ordre de 1.1102 10−16 , on retrouve l’ordre de grandeur des erreurs
constatées ! Le problème (10) est typiquement un problème instable ; une petite perturbation de la
donnée initiale entraîne une grande perturbation de la solution.
9 avril 2020 18 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
où Φ c’est la fonction qui caractérise le schéma. Pour la méthode d’Euler explicite, on a Φ(t, y , h) = f (t, y ).
Dans le paragraphe précédent, plusieurs schémas numériques ont été présentés et afin de les comparer plusieurs critères
seront étudiés :
Stabilité numérique.
Consistance, ordre d’approximation.
Convergence.
Ce schéma sera convergent si les valeurs yn qu’il calcule se rapprochent des valeurs de la solution y (tn ) aux instants tn ,
pour n assez grand. Pour caractériser cette convergence, on introduit les erreurs locales
en = |y (tn ) − yn |,
9 avril 2020 19 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
Les δn s’appellent erreurs locales de discrétisation. Les zn (t) sont des solutions de la même équation
différentielle que y (t), chacune d’entre elles étant celle qui passe par yn à l’instant tn . On obtient alors
9 avril 2020 20 / 50
Etude des méthodes à un pas
En fait, l’éqution (14) montre que δn+1 peut être considérée comme une erreur locale de
consistance : elle mesure avec quelle précision le schéma approche localement une solution de
l’équation différentielle. La contribution δn ajoutée à l’erreur par l’étape n pourra être
amplifiée ou réduite dans les calculs ultérieurs selon que le problème aura tendance à
amplifier ou à atténuer les perturbations. Cette tendance pourra varier dans le cas de
problèmes non linéaires. Elle caractérise la stabilité du problème.
Pour les problèmes linéaires, cette tendance ne varie pas.
Intéressons nous au problème :
2 (15)
y (0) = 0,
9 avril 2020 21 / 50
Etude des méthodes à un pas
En fait, l’éqution (14) montre que δn+1 peut être considérée comme une erreur locale de
consistance : elle mesure avec quelle précision le schéma approche localement une solution de
l’équation différentielle. La contribution δn ajoutée à l’erreur par l’étape n pourra être
amplifiée ou réduite dans les calculs ultérieurs selon que le problème aura tendance à
amplifier ou à atténuer les perturbations. Cette tendance pourra varier dans le cas de
problèmes non linéaires. Elle caractérise la stabilité du problème.
Pour les problèmes linéaires, cette tendance ne varie pas.
Intéressons nous au problème :
2 (15)
y (0) = 0,
9 avril 2020 21 / 50
Etude des méthodes à un pas
En fait, l’éqution (14) montre que δn+1 peut être considérée comme une erreur locale de
consistance : elle mesure avec quelle précision le schéma approche localement une solution de
l’équation différentielle. La contribution δn ajoutée à l’erreur par l’étape n pourra être
amplifiée ou réduite dans les calculs ultérieurs selon que le problème aura tendance à
amplifier ou à atténuer les perturbations. Cette tendance pourra varier dans le cas de
problèmes non linéaires. Elle caractérise la stabilité du problème.
Pour les problèmes linéaires, cette tendance ne varie pas.
Intéressons nous au problème :
2 (15)
y (0) = 0,
9 avril 2020 21 / 50
Etude des méthodes à un pas
En fait, l’éqution (14) montre que δn+1 peut être considérée comme une erreur locale de
consistance : elle mesure avec quelle précision le schéma approche localement une solution de
l’équation différentielle. La contribution δn ajoutée à l’erreur par l’étape n pourra être
amplifiée ou réduite dans les calculs ultérieurs selon que le problème aura tendance à
amplifier ou à atténuer les perturbations. Cette tendance pourra varier dans le cas de
problèmes non linéaires. Elle caractérise la stabilité du problème.
Pour les problèmes linéaires, cette tendance ne varie pas.
Intéressons nous au problème :
2 (15)
y (0) = 0,
9 avril 2020 21 / 50
Etude des méthodes à un pas
En fait, l’éqution (14) montre que δn+1 peut être considérée comme une erreur locale de
consistance : elle mesure avec quelle précision le schéma approche localement une solution de
l’équation différentielle. La contribution δn ajoutée à l’erreur par l’étape n pourra être
amplifiée ou réduite dans les calculs ultérieurs selon que le problème aura tendance à
amplifier ou à atténuer les perturbations. Cette tendance pourra varier dans le cas de
problèmes non linéaires. Elle caractérise la stabilité du problème.
Pour les problèmes linéaires, cette tendance ne varie pas.
Intéressons nous au problème :
2 (15)
y (0) = 0,
9 avril 2020 21 / 50
Etude des méthodes à un pas
En fait, l’éqution (14) montre que δn+1 peut être considérée comme une erreur locale de
consistance : elle mesure avec quelle précision le schéma approche localement une solution de
l’équation différentielle. La contribution δn ajoutée à l’erreur par l’étape n pourra être
amplifiée ou réduite dans les calculs ultérieurs selon que le problème aura tendance à
amplifier ou à atténuer les perturbations. Cette tendance pourra varier dans le cas de
problèmes non linéaires. Elle caractérise la stabilité du problème.
Pour les problèmes linéaires, cette tendance ne varie pas.
Intéressons nous au problème :
2 (15)
y (0) = 0,
9 avril 2020 21 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
9 avril 2020 22 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Stabilité du problème
Remarque : Le transport des erreurs locales de discrétisation par les solutions zn (t) ne les enrichit pas
nécessairement, et cela ne dépend pas de la solution y (t).
On vérifiera en exercice que la fonction y (t) = t 2 − 3t
2
est également solution des problèmes
4 3 4 2 3
( (
y 0 (t) = (y (t) − t 2 ) + 4t − y 0 (t) = (t − y (t)) −
3 2 ; 3 2 (16)
y (0) = 0, y (0) = 0,
Dans un cas les erreurs locales de discrétisation
Euler explicite en 4 étapes avec un pas h = 0.4 sont clairement amplifiées, et dans l’autre cas
clairement atténuées.
La dérivée partielle ∂y f permet de savoir si les
erreurs locales seront amplifiées ou atténuées.
Dans le cas “stable”, elle est égale à − 43 , et dans
le cas “instable” à + 34 .
On peut montrer qui si ∂y f (t, y ) < 0, alors on
aura ∆n 6 δn pour tout n.
On ne peut pas se contenter de résoudre les seuls
problèmes “stables”.
L’équation (14) permet de mettre en place des
stratégies de contrôle du pas h. On choisira9 avril
le pas2020 23 / 50
Etude des méthodes à un pas
Seuil de stabilité
(
y 0 (t) = −a (y (t) − sin(t)), 0 6 t 6 2π
Etudions le problème suivant : (17)
y (0) = 0,
a2 a
y (t) = ce−at + sin(t) − 2 cos(t).
a2+1 a +1
Si le paramètre a est positif (a = 10), c’est
un problème linéaire à coefficient constant avec
∂y f (t, y ) = −10 < 0 donc il est stable.
La condition initiale permet de calculer la
2
constante c = a a+a+1
2 +1 = 111
101 .
Seuil de stabilité
(
y 0 (t) = −a (y (t) − sin(t)), 0 6 t 6 2π
Etudions le problème suivant : (17)
y (0) = 0,
a2 a
y (t) = ce−at + sin(t) − 2 cos(t).
a2+1 a +1
Si le paramètre a est positif (a = 10), c’est
un problème linéaire à coefficient constant avec
∂y f (t, y ) = −10 < 0 donc il est stable.
La condition initiale permet de calculer la
2
constante c = a a+a+1
2 +1 = 111
101 .
Seuil de stabilité
(
y 0 (t) = −a (y (t) − sin(t)), 0 6 t 6 2π
Etudions le problème suivant : (17)
y (0) = 0,
a2 a
y (t) = ce−at + sin(t) − 2 cos(t).
a2+1 a +1
Si le paramètre a est positif (a = 10), c’est
un problème linéaire à coefficient constant avec
∂y f (t, y ) = −10 < 0 donc il est stable.
La condition initiale permet de calculer la
2
constante c = a a+a+1
2 +1 = 111
101 .
Seuil de stabilité
(
y 0 (t) = −a (y (t) − sin(t)), 0 6 t 6 2π
Etudions le problème suivant : (17)
y (0) = 0,
a2 a
y (t) = ce−at + sin(t) − 2 cos(t).
a2+1 a +1
Si le paramètre a est positif (a = 10), c’est
un problème linéaire à coefficient constant avec
∂y f (t, y ) = −10 < 0 donc il est stable.
La condition initiale permet de calculer la
2
constante c = a a+a+1
2 +1 = 111
101 .
Seuil de stabilité
(
y 0 (t) = −a (y (t) − sin(t)), 0 6 t 6 2π
Etudions le problème suivant : (17)
y (0) = 0,
a2 a
y (t) = ce−at + sin(t) − 2 cos(t).
a2+1 a +1
Si le paramètre a est positif (a = 10), c’est
un problème linéaire à coefficient constant avec
∂y f (t, y ) = −10 < 0 donc il est stable.
La condition initiale permet de calculer la
2
constante c = a a+a+1
2 +1 = 111
101 .
Seuil de stabilité
(
y 0 (t) = −a (y (t) − sin(t)), 0 6 t 6 2π
Etudions le problème suivant : (17)
y (0) = 0,
a2 a
y (t) = ce−at + sin(t) − 2 cos(t).
a2+1 a +1
Si le paramètre a est positif (a = 10), c’est
un problème linéaire à coefficient constant avec
∂y f (t, y ) = −10 < 0 donc il est stable.
La condition initiale permet de calculer la
2
constante c = a a+a+1
2 +1 = 111
101 .
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
Pour le pas h = 0.19, la solution calculée commence par osciller autour des valeurs de la solution
exacte avant de se stabiliser.
Pour le pas h = 0.20, la solution oscille autour de la solution exacte sans se sta- biliser.
Pour le pas h = 0.21, les oscillations initiales sont constament amplifiées au cours du calcul !
La valeur 0.20 semble bien être un seuil de stabilité pour ce calcul.
Analyse de l’exemple :
Pour comprendre ce phénomène, on peut d’abord remarquer que la solution du problème est une
combinaison linéaire de deux fonctions :
fR (t) = c e−at est la solution générale de l’équation homogène ; lorsque le paramètre a devient
grand, elle décrit un phénomène rapide ; son effet sur la solution a une durée de vie de l’ordre de 1a .
2
fL (t) = a2a+1 sin(t) − a2a+1 cos(t) qui dépend ici directement du second membre décrit un
phenomène plus lent.
9 avril 2020 25 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
yn = (1 − 10 h)n y0
On constate que yn ne tendra vers 0 lorsque n tend vers l’infini qu’à la condition que |1 − 10 h| < 1, et
2
comme le pas h est positif, il devra vérifier 10 h < 2, d’ou h < 10 = 0.2. Cette valeur constitue le seuil
de stabilité de la méthode pour le problème homogène, et par suite pour le problème (17).
9 avril 2020 26 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Remarque
Pour des systèmes différentiels, le réel a est remplacé par une matrice A ∈ Mn (R) symétrique définie positive. La solution
du problème Y 0 = −A Y est donnée par Y (t) = exp(−t A)Y (0), où exp(−t A) est définie, par analogie avec la fonction
exponentielle, par la relation :
∞
X (−t)k
exp(−t A) = Ak .
k!
k=0
Lorsque la matrice A est diagonalisable, selon A = P Λ P −1 , Λ une matrice diagonale dont les éléments diagonaux sont
les valeurs propres λi de A, et P la matrice de passage, on obtient :
exp(−λ1 t)
exp(−λ2 t) 0 P −1
exp(−t A) = P
...
0 exp(−λn t)
Si A est symétrique définie positive, elle est diagonalisable, et ses valeurs propres sont strictement positives : Y (t) tend
donc vers 0 lorsque t tend vers l’infini. Le seuil de stabilité est alors s = λ r(A) , où r est le rayon de stabilité de la
M
méthode et λM (A) désigne la plus grande valeur propre de A.
9 avril 2020 28 / 50
Etude des méthodes à un pas
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définitions
Convergence : Soit en = yn − y (tn ) l’erreur locale de convergence. La méthode est convergente si
En = y (tn+1 ) − ȳn+1 ,
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Définition
Stabilité : Un schéma est stable signifie qu’une petite perturbation sur les données (y0 , Φ) n’entraîne
qu’une petite perturbation sur la solution indépendamment de h. Plus précisément, soient (yn )n , (zn )n ,
n = 0, . . . , N, les solutions de
(
yn+1 = yn + hΦ(tn , yn , h), n = 0, . . . , N − 1
(19)
y0 donné,
et (
zn+1 = zn + h(Φ(tn , yn , h) + εn ), n = 0, . . . , N − 1
(20)
z0 donné.
La méthode est dite stable s’il existe deux constantes M1 et M2 indépendantes de h telles que
(Théorème de Lax–Convergence)
Soit une méthode à un pas consistante et stable, alors elle est convergente.
9 avril 2020 30 / 50
Etude des méthodes à un pas
Démonstration
Le schéma est consistant, alors
Ce qui montre
max |yn − y (tn )| −→ 0,
06n6N
9 avril 2020 31 / 50
Etude des méthodes à un pas
Démonstration
Le schéma est consistant, alors
Ce qui montre
max |yn − y (tn )| −→ 0,
06n6N
9 avril 2020 31 / 50
Etude des méthodes à un pas
Démonstration
Le schéma est consistant, alors
Ce qui montre
max |yn − y (tn )| −→ 0,
06n6N
9 avril 2020 31 / 50
Etude des méthodes à un pas
Démonstration
Le schéma est consistant, alors
Ce qui montre
max |yn − y (tn )| −→ 0,
06n6N
9 avril 2020 31 / 50
Etude des méthodes à un pas
Démonstration
Le schéma est consistant, alors
Ce qui montre
max |yn − y (tn )| −→ 0,
06n6N
9 avril 2020 31 / 50
Etude des méthodes à un pas
Démonstration
Le schéma est consistant, alors
Ce qui montre
max |yn − y (tn )| −→ 0,
06n6N
9 avril 2020 31 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
Démonstration
Soient (yn )n solution de (19) et (zn )n solution de (20). En faisant la différence de deux équations, il vient
On a
n
X 1 − (1 + hM)n+1 (1 + hM)n+1 − 1
(1 + hM)k = = ,
1 − 1 − hM hM
k=0
9 avril 2020 32 / 50
Etude des méthodes à un pas
e (T −t0 )M −1
6 e (T −t0 )M |y0 − z0 | + max |εk |,
M 06k6N
e (T −t0 )M −1
ce qui établit (21) avec M1 = e (T −t0 )M et M2 = M .
9 avril 2020 33 / 50
Etude des méthodes à un pas
e (T −t0 )M −1
6 e (T −t0 )M |y0 − z0 | + max |εk |,
M 06k6N
e (T −t0 )M −1
ce qui établit (21) avec M1 = e (T −t0 )M et M2 = M .
9 avril 2020 33 / 50
Etude des méthodes à un pas
e (T −t0 )M −1
6 e (T −t0 )M |y0 − z0 | + max |εk |,
M 06k6N
e (T −t0 )M −1
ce qui établit (21) avec M1 = e (T −t0 )M et M2 = M .
9 avril 2020 33 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
∂Φ h2 ∂ 2 Φ h3 ∂ 3 Φ hp−1 ∂ p−1 Φ
Φ(t, y (t), h) = Φ(t, y (t), 0)+h (t, y (t), 0)+ (t, y (t), 0)+ (t, y (t), 0)+. . .+ (t, y (t), 0)+. . .
∂h 2! ∂ 2 h 3! ∂ 3 h (p − 1)! ∂ p−1 h
alors
1 00 ∂Φ
h i
En = h y 0 (t) − Φ(t, y (t), 0) + h2 y (t) − (t, y (t), 0)
2 ∂h
h3 1 (3) ∂2Φ hp 1 (p) ∂ p−1 Φ
+ y (t) − 2 (t, y (t), 0) + . . . + y (t) − p−1 (t, y (t), 0) .
2! 3 ∂ h (p − 1)! p ∂ h
9 avril 2020 34 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Consistance et ordre de consistance
On conclut que :
Le schéma est au moins d’ordre 1 (consistant) si
∂Φ 1 1 d 1
(t, y (t), 0) = y 00 (t) = f (t, y (t)) = ∂t f (t, y (t)) + y 0 (t)∂y f (t, y (t))
∂h 2 2 dt 2
1
= [∂t f (t, y (t)) + f (t, y (t))∂y f (t, y (t))] .
2
∂2Φ 1 1 d2
(t, y (t), 0) = y (3) (t) = f (t, y (t)).
∂2h 3 3 dt 2
∂ p−1 Φ 1 1 d p−1
p−1
(t, y (t), 0) = y (p) (t) = f (t, y (t)).
∂ h p p dt p−1
9 avril 2020 35 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
Méthode de Runge-Kutta
L’objectif des méthodes de Runge & Kutta est de construire des méthodes d’ordre élevé au moyen d’évaluations de
f (t, y (t)) en des points intermédiaires. Une méthode de Runge et Kutta à q évaluations de f s’écrit :
q q q
X X X
Φ(t, y , h) = c i ki , où ki = f t + h ai , y + h bi,j kj et ai = bi,j , 16i 6q
i=1 j=1 j=1
Si on appelle B la matrice q × q des bi,j , a et c les vecteurs de dimension q des coefficients respectivement ai et ci . La
méthode se représente traditionnellement par le tableau (tableau de Butcher) :
a B
cT
Si la matrice B est strictement triangulaire inférieure la méthode est explicite, sinon elle est implicite.
Remarque
P P
D’après les critères vus plus haut, une méthode de Runge-Kutta est d’ordre 1 si c = 1 et i
i i
c a = 1/2. On peut
i i i
démontrer aussi que les méthodes de Runge-Kutta sont stables si f est Lipschitzienne. Elles ont même une stabilité
presque optimale.
9 avril 2020 36 / 50
Méthode de Runge-Kutta
h h
Φ(t, y , h) = (1 − α)f (t, y ) + αf t + ,y + f (t, y )
2α 2α
0 0 0
1 1
2α 2α
0
1−α α
1
Avec α = 2
on retrouve la méthode de Heun :
h h
yn+1 = yn + f (tn , yn ) + f tn + h, yn + hf (tn , yn )
2 2
h h
yn+1 = yn + hf tn + , yn + f (tn , yn )
2 2
9 avril 2020 37 / 50
Méthode de Runge-Kutta
h h
Φ(t, y , h) = (1 − α)f (t, y ) + αf t + ,y + f (t, y )
2α 2α
0 0 0
1 1
2α 2α
0
1−α α
1
Avec α = 2
on retrouve la méthode de Heun :
h h
yn+1 = yn + f (tn , yn ) + f tn + h, yn + hf (tn , yn )
2 2
h h
yn+1 = yn + hf tn + , yn + f (tn , yn )
2 2
9 avril 2020 37 / 50
Méthode de Runge-Kutta
h h
Φ(t, y , h) = (1 − α)f (t, y ) + αf t + ,y + f (t, y )
2α 2α
0 0 0
1 1
2α 2α
0
1−α α
1
Avec α = 2
on retrouve la méthode de Heun :
h h
yn+1 = yn + f (tn , yn ) + f tn + h, yn + hf (tn , yn )
2 2
h h
yn+1 = yn + hf tn + , yn + f (tn , yn )
2 2
9 avril 2020 37 / 50
Méthode de Runge-Kutta
h h
Φ(t, y , h) = (1 − α)f (t, y ) + αf t + ,y + f (t, y )
2α 2α
0 0 0
1 1
2α 2α
0
1−α α
1
Avec α = 2
on retrouve la méthode de Heun :
h h
yn+1 = yn + f (tn , yn ) + f tn + h, yn + hf (tn , yn )
2 2
h h
yn+1 = yn + hf tn + , yn + f (tn , yn )
2 2
9 avril 2020 37 / 50
Méthode de Runge-Kutta
h h
Φ(t, y , h) = (1 − α)f (t, y ) + αf t + ,y + f (t, y )
2α 2α
0 0 0
1 1
2α 2α
0
1−α α
1
Avec α = 2
on retrouve la méthode de Heun :
h h
yn+1 = yn + f (tn , yn ) + f tn + h, yn + hf (tn , yn )
2 2
h h
yn+1 = yn + hf tn + , yn + f (tn , yn )
2 2
9 avril 2020 37 / 50
Méthode de Runge-Kutta
h h
Φ(t, y , h) = (1 − α)f (t, y ) + αf t + ,y + f (t, y )
2α 2α
0 0 0
1 1
2α 2α
0
1−α α
1
Avec α = 2
on retrouve la méthode de Heun :
h h
yn+1 = yn + f (tn , yn ) + f tn + h, yn + hf (tn , yn )
2 2
h h
yn+1 = yn + hf tn + , yn + f (tn , yn )
2 2
9 avril 2020 37 / 50
Méthode de Runge-Kutta
k1 = f (tn , yn ),
k2 = f (tn + h2 , yn + h2 k1 ),
k3 = f (tn + h2 , yn + h2 k2 ),
k4 = f (tn + h, yn + hk3 ),
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
Autre méthode explicite d’ordre 4 avec 4 évaluations
0 0
1 1
0 k1 = f (tn , yn ),
3 3
2 1 k2 = f (tn + h3 , yn + h3 k1 ), 9 avril 2020 38 / 50
Méthode de Runge-Kutta
k1 = f (tn , yn ),
k2 = f (tn + h2 , yn + h2 k1 ),
k3 = f (tn + h2 , yn + h2 k2 ),
k4 = f (tn + h, yn + hk3 ),
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
Autre méthode explicite d’ordre 4 avec 4 évaluations
0 0
1 1
0 k1 = f (tn , yn ),
3 3
2 1 k2 = f (tn + h3 , yn + h3 k1 ), 9 avril 2020 38 / 50
Méthode de Runge-Kutta
k1 = f (tn , yn ),
k2 = f (tn + h2 , yn + h2 k1 ),
k3 = f (tn + h2 , yn + h2 k2 ),
k4 = f (tn + h, yn + hk3 ),
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
Autre méthode explicite d’ordre 4 avec 4 évaluations
0 0
1 1
0 k1 = f (tn , yn ),
3 3
2 1 k2 = f (tn + h3 , yn + h3 k1 ), 9 avril 2020 38 / 50
Méthode de Runge-Kutta
k1 = f (tn , yn ),
k2 = f (tn + h2 , yn + h2 k1 ),
k3 = f (tn + h2 , yn + h2 k2 ),
k4 = f (tn + h, yn + hk3 ),
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
Autre méthode explicite d’ordre 4 avec 4 évaluations
0 0
1 1
0 k1 = f (tn , yn ),
3 3
2 1 k2 = f (tn + h3 , yn + h3 k1 ), 9 avril 2020 38 / 50
Méthode de Runge-Kutta
k1 = f (tn , yn ),
k2 = f (tn + h2 , yn + h2 k1 ),
k3 = f (tn + h2 , yn + h2 k2 ),
k4 = f (tn + h, yn + hk3 ),
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
Autre méthode explicite d’ordre 4 avec 4 évaluations
0 0
1 1
0 k1 = f (tn , yn ),
3 3
2 1 k2 = f (tn + h3 , yn + h3 k1 ), 9 avril 2020 38 / 50
Méthode de Runge-Kutta
k1 = f (tn , yn ),
k2 = f (tn + h2 , yn + h2 k1 ),
k3 = f (tn + h2 , yn + h2 k2 ),
k4 = f (tn + h, yn + hk3 ),
yn+1 = yn + h6 (k1 + 2k2 + 2k3 + k4 )
Autre méthode explicite d’ordre 4 avec 4 évaluations
0 0
1 1
0 k1 = f (tn , yn ),
3 3
2 1 k2 = f (tn + h3 , yn + h3 k1 ), 9 avril 2020 38 / 50
Méthode de Runge-Kutta
√ √
3+ 3 1 3+2 3 √ √
3+ 3
6
√
4
√
12 k1 = f (tn + 6 h, yn + 14 k1 + 3+2 3
12 k2 ),
3− 3 3−2 3 1 √ √
3− 3 3−2 3
6 12 4 k2 = f (tn + 6 h, yn + 12 k1 + 14 k2 ),
1 1
2 2 yn+1 = yn + h2 (k1 + k2 )
0 0 k1 = f (tn , yn ),
1 1 1
2 4 4 k2 = f (tn + h2 , yn + h4 (k1 + k2 )),
1 0 1 0
1 4 1
k3 = f (tn + h, yn + hk2 ),
6 6 6 yn+1 = yn + h6 (k1 + 4k2 + k3 )
Les fonctions ode23 et ode45 de Matlab implantent les méthodes de runge-Kutta d’ordre 2, 3
et 4, 5 respectivement. 9 avril 2020 39 / 50
Méthode de Runge-Kutta
√ √
3+ 3 1 3+2 3 √ √
3+ 3
6
√
4
√
12 k1 = f (tn + 6 h, yn + 14 k1 + 3+2 3
12 k2 ),
3− 3 3−2 3 1 √ √
3− 3 3−2 3
6 12 4 k2 = f (tn + 6 h, yn + 12 k1 + 14 k2 ),
1 1
2 2 yn+1 = yn + h2 (k1 + k2 )
0 0 k1 = f (tn , yn ),
1 1 1
2 4 4 k2 = f (tn + h2 , yn + h4 (k1 + k2 )),
1 0 1 0
1 4 1
k3 = f (tn + h, yn + hk2 ),
6 6 6 yn+1 = yn + h6 (k1 + 4k2 + k3 )
Les fonctions ode23 et ode45 de Matlab implantent les méthodes de runge-Kutta d’ordre 2, 3
et 4, 5 respectivement. 9 avril 2020 39 / 50
Méthode de Runge-Kutta
√ √
3+ 3 1 3+2 3 √ √
3+ 3
6
√
4
√
12 k1 = f (tn + 6 h, yn + 14 k1 + 3+2 3
12 k2 ),
3− 3 3−2 3 1 √ √
3− 3 3−2 3
6 12 4 k2 = f (tn + 6 h, yn + 12 k1 + 14 k2 ),
1 1
2 2 yn+1 = yn + h2 (k1 + k2 )
0 0 k1 = f (tn , yn ),
1 1 1
2 4 4 k2 = f (tn + h2 , yn + h4 (k1 + k2 )),
1 0 1 0
1 4 1
k3 = f (tn + h, yn + hk2 ),
6 6 6 yn+1 = yn + h6 (k1 + 4k2 + k3 )
Les fonctions ode23 et ode45 de Matlab implantent les méthodes de runge-Kutta d’ordre 2, 3
et 4, 5 respectivement. 9 avril 2020 39 / 50
Méthode de Runge-Kutta
√ √
3+ 3 1 3+2 3 √ √
3+ 3
6
√
4
√
12 k1 = f (tn + 6 h, yn + 14 k1 + 3+2 3
12 k2 ),
3− 3 3−2 3 1 √ √
3− 3 3−2 3
6 12 4 k2 = f (tn + 6 h, yn + 12 k1 + 14 k2 ),
1 1
2 2 yn+1 = yn + h2 (k1 + k2 )
0 0 k1 = f (tn , yn ),
1 1 1
2 4 4 k2 = f (tn + h2 , yn + h4 (k1 + k2 )),
1 0 1 0
1 4 1
k3 = f (tn + h, yn + hk2 ),
6 6 6 yn+1 = yn + h6 (k1 + 4k2 + k3 )
Les fonctions ode23 et ode45 de Matlab implantent les méthodes de runge-Kutta d’ordre 2, 3
et 4, 5 respectivement. 9 avril 2020 39 / 50
Méthode de Runge-Kutta
√ √
3+ 3 1 3+2 3 √ √
3+ 3
6
√
4
√
12 k1 = f (tn + 6 h, yn + 14 k1 + 3+2 3
12 k2 ),
3− 3 3−2 3 1 √ √
3− 3 3−2 3
6 12 4 k2 = f (tn + 6 h, yn + 12 k1 + 14 k2 ),
1 1
2 2 yn+1 = yn + h2 (k1 + k2 )
0 0 k1 = f (tn , yn ),
1 1 1
2 4 4 k2 = f (tn + h2 , yn + h4 (k1 + k2 )),
1 0 1 0
1 4 1
k3 = f (tn + h, yn + hk2 ),
6 6 6 yn+1 = yn + h6 (k1 + 4k2 + k3 )
Les fonctions ode23 et ode45 de Matlab implantent les méthodes de runge-Kutta d’ordre 2, 3
et 4, 5 respectivement. 9 avril 2020 39 / 50
Méthode de Runge-Kutta
Théorème
Soit e ∈ Rq défini par e = (1, 1, . . . , 1)T . La méthode de Runge-Kutta caractérisée par les
éléments B, c et A ∈ Mq = Diag(a1 , a2 , . . . , aq ) définis ci-dessus est
consistante si et seulement si c T e = 1,
d’ordre 2 si en outre c T B e = c T B e = 1/2,
d’ordre 3 si en outre (
c T A2 e = 1/3,
c T B A e = 1/6,
d’ordre 4 si en outre
c T A3 e = 1/4,
c T B A2 e
= 1/12,
c T B2 A e = 1/24,
T
c AB Ae = 1/8,
9 avril 2020 40 / 50
Méthode à pas multiples
Les méthodes d’Adams-Bashforth et d’Adams-Moulton vont remplacer f (t, y (t)) dans l’intégrale par un polynôme
d’interpolation.
9 avril 2020 41 / 50
Méthode à pas multiples
Les méthodes d’Adams-Bashforth et d’Adams-Moulton vont remplacer f (t, y (t)) dans l’intégrale par un polynôme
d’interpolation.
9 avril 2020 41 / 50
Méthode à pas multiples
Les méthodes d’Adams-Bashforth et d’Adams-Moulton vont remplacer f (t, y (t)) dans l’intégrale par un polynôme
d’interpolation.
9 avril 2020 41 / 50
Méthode à pas multiples
Les méthodes d’Adams-Bashforth et d’Adams-Moulton vont remplacer f (t, y (t)) dans l’intégrale par un polynôme
d’interpolation.
9 avril 2020 41 / 50
Méthode à pas multiples
Les méthodes d’Adams-Bashforth et d’Adams-Moulton vont remplacer f (t, y (t)) dans l’intégrale par un polynôme
d’interpolation.
9 avril 2020 41 / 50
Méthode à pas multiples
Les méthodes d’Adams-Bashforth et d’Adams-Moulton vont remplacer f (t, y (t)) dans l’intégrale par un polynôme
d’interpolation.
9 avril 2020 41 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
On écrit Z tn+1 Z tn+1
yn+1 = yn + f (t, y (t)) dt ≈ yn + Pn (t) dt,
tn tn
avec Pn le polynôme d’interpolation de Lagrange de degré p − 1, pour les couples de valeurs (tn−i , fn−i ), 0 6 i 6 p − 1,
où l’on a posé fi = f (ti , yi ), soit :
p−1 Z tn+1
X
n n 1
yn+1 = yn + h βp,j fn−j , avec βp,j = `np,j (t) dt.
h tn
j=0
`np,j étant le polynôme de base de l’interpolation de Lagrange de degré p − 1 : `np,j (tn−i ) = δi,j , où δi,j est le symbole de
Kronecker défini par n
0 si i 6= j
δi,j =
1 si i = j.
n ne dépend que de p et de j.
Pour un maillage régulier βp,j
Remarque
Les méthodes d’Adams-Bashforth sont des méthodes explicites.
9 avril 2020 42 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
On écrit Z tn+1 Z tn+1
yn+1 = yn + f (t, y (t)) dt ≈ yn + Pn (t) dt,
tn tn
avec Pn le polynôme d’interpolation de Lagrange de degré p − 1, pour les couples de valeurs (tn−i , fn−i ), 0 6 i 6 p − 1,
où l’on a posé fi = f (ti , yi ), soit :
p−1 Z tn+1
X
n n 1
yn+1 = yn + h βp,j fn−j , avec βp,j = `np,j (t) dt.
h tn
j=0
`np,j étant le polynôme de base de l’interpolation de Lagrange de degré p − 1 : `np,j (tn−i ) = δi,j , où δi,j est le symbole de
Kronecker défini par n
0 si i 6= j
δi,j =
1 si i = j.
n ne dépend que de p et de j.
Pour un maillage régulier βp,j
Remarque
Les méthodes d’Adams-Bashforth sont des méthodes explicites.
9 avril 2020 42 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
On écrit Z tn+1 Z tn+1
yn+1 = yn + f (t, y (t)) dt ≈ yn + Pn (t) dt,
tn tn
avec Pn le polynôme d’interpolation de Lagrange de degré p − 1, pour les couples de valeurs (tn−i , fn−i ), 0 6 i 6 p − 1,
où l’on a posé fi = f (ti , yi ), soit :
p−1 Z tn+1
X
n n 1
yn+1 = yn + h βp,j fn−j , avec βp,j = `np,j (t) dt.
h tn
j=0
`np,j étant le polynôme de base de l’interpolation de Lagrange de degré p − 1 : `np,j (tn−i ) = δi,j , où δi,j est le symbole de
Kronecker défini par n
0 si i 6= j
δi,j =
1 si i = j.
n ne dépend que de p et de j.
Pour un maillage régulier βp,j
Remarque
Les méthodes d’Adams-Bashforth sont des méthodes explicites.
9 avril 2020 42 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
Formules d’Adams-Bashforth
h
p=2 : yn+1 = yn + (3fn − fn−1 ) (ordre 2)
2
h
p=3 : yn+1 = yn + (23fn − 16fn−1 + 5fn−2 ) (ordre 3)
12
h
p=4 : yn+1 = yn + (55fn − 59fn−1 + 37fn−2 − 9fn−3 ) (ordre 4)
24
La méthode d’Adams d’ordre 1 correspond à la méthode d’Euler qui est un schéma à un pas.
La méthode d’Adams d’ordre 2 est un schéma à 2 pas car dépend de yn et de yn−1 .
Pour démarrer un tel schéma, il faut connaître y0 et y1 . On peut utiliser une méthode à un pas du même ordre pour
calculer y1 (RK2).
En général, la méthode d’Adams d’ordre p est un schéma à p pas.
9 avril 2020 43 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
Formules d’Adams-Bashforth
h
p=2 : yn+1 = yn + (3fn − fn−1 ) (ordre 2)
2
h
p=3 : yn+1 = yn + (23fn − 16fn−1 + 5fn−2 ) (ordre 3)
12
h
p=4 : yn+1 = yn + (55fn − 59fn−1 + 37fn−2 − 9fn−3 ) (ordre 4)
24
La méthode d’Adams d’ordre 1 correspond à la méthode d’Euler qui est un schéma à un pas.
La méthode d’Adams d’ordre 2 est un schéma à 2 pas car dépend de yn et de yn−1 .
Pour démarrer un tel schéma, il faut connaître y0 et y1 . On peut utiliser une méthode à un pas du même ordre pour
calculer y1 (RK2).
En général, la méthode d’Adams d’ordre p est un schéma à p pas.
9 avril 2020 43 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
Formules d’Adams-Bashforth
h
p=2 : yn+1 = yn + (3fn − fn−1 ) (ordre 2)
2
h
p=3 : yn+1 = yn + (23fn − 16fn−1 + 5fn−2 ) (ordre 3)
12
h
p=4 : yn+1 = yn + (55fn − 59fn−1 + 37fn−2 − 9fn−3 ) (ordre 4)
24
La méthode d’Adams d’ordre 1 correspond à la méthode d’Euler qui est un schéma à un pas.
La méthode d’Adams d’ordre 2 est un schéma à 2 pas car dépend de yn et de yn−1 .
Pour démarrer un tel schéma, il faut connaître y0 et y1 . On peut utiliser une méthode à un pas du même ordre pour
calculer y1 (RK2).
En général, la méthode d’Adams d’ordre p est un schéma à p pas.
9 avril 2020 43 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
Formules d’Adams-Bashforth
h
p=2 : yn+1 = yn + (3fn − fn−1 ) (ordre 2)
2
h
p=3 : yn+1 = yn + (23fn − 16fn−1 + 5fn−2 ) (ordre 3)
12
h
p=4 : yn+1 = yn + (55fn − 59fn−1 + 37fn−2 − 9fn−3 ) (ordre 4)
24
La méthode d’Adams d’ordre 1 correspond à la méthode d’Euler qui est un schéma à un pas.
La méthode d’Adams d’ordre 2 est un schéma à 2 pas car dépend de yn et de yn−1 .
Pour démarrer un tel schéma, il faut connaître y0 et y1 . On peut utiliser une méthode à un pas du même ordre pour
calculer y1 (RK2).
En général, la méthode d’Adams d’ordre p est un schéma à p pas.
9 avril 2020 43 / 50
Méthode à pas multiples
Méthodes d’Adams-Bashforth
Formules d’Adams-Bashforth
h
p=2 : yn+1 = yn + (3fn − fn−1 ) (ordre 2)
2
h
p=3 : yn+1 = yn + (23fn − 16fn−1 + 5fn−2 ) (ordre 3)
12
h
p=4 : yn+1 = yn + (55fn − 59fn−1 + 37fn−2 − 9fn−3 ) (ordre 4)
24
La méthode d’Adams d’ordre 1 correspond à la méthode d’Euler qui est un schéma à un pas.
La méthode d’Adams d’ordre 2 est un schéma à 2 pas car dépend de yn et de yn−1 .
Pour démarrer un tel schéma, il faut connaître y0 et y1 . On peut utiliser une méthode à un pas du même ordre pour
calculer y1 (RK2).
En général, la méthode d’Adams d’ordre p est un schéma à p pas.
9 avril 2020 43 / 50
Méthodes d’Adams-Moulton
Méthodes d’Adams-Moulton
Z tn+1
On écrit yn+1 = yn + Pn∗ (t) dt,
tn
avec Pn∗ le polynôme d’interpolation de Lagrange de degré p, ppour les couples de valeurs (tn+1−i , fn+1−i ), 0 6 i 6 p, où
l’on a posé fi = f (ti , yi ), soit :
X
∗
yn+1 = yn + h βp,j fn+1−j .
j=0
Formules d’Adams-Moulton
Ces méthodes sont basées sur les noeuds
p=0 : yn+1 = yn + hfn+1 (ordre 1) tn+1 , tn , tn−1 , tn−2 , . . .
A cause de la présence de yn+1 dans le
h membre de droite, le schéma devient
p=1 : yn+1 = yn + (fn+1 + fn ) (ordre 2)
2 implicite, i.e. exige la résolution d’une
équation non linéaire pour calculer yn+1 .
h
p=2 : yn+1 = yn + (5fn+1 + 8fn − fn−1 ) (ordre 3) Pour contourner cette difficulté, on
12
combine les formules d’Adams-Bashforth
h et d’Adams-Moulton en des schémas dits
p=3 : yn+1 = yn + (9fn+1 + 19fn − 5fn−1 + fn−2 ) (ordre 4)
24 prédicteurs-correcteurs.
9 avril 2020 44 / 50
Méthodes d’Adams-Moulton
Méthodes d’Adams-Moulton
Z tn+1
On écrit yn+1 = yn + Pn∗ (t) dt,
tn
avec Pn∗ le polynôme d’interpolation de Lagrange de degré p, ppour les couples de valeurs (tn+1−i , fn+1−i ), 0 6 i 6 p, où
l’on a posé fi = f (ti , yi ), soit :
X
∗
yn+1 = yn + h βp,j fn+1−j .
j=0
Formules d’Adams-Moulton
Ces méthodes sont basées sur les noeuds
p=0 : yn+1 = yn + hfn+1 (ordre 1) tn+1 , tn , tn−1 , tn−2 , . . .
A cause de la présence de yn+1 dans le
h membre de droite, le schéma devient
p=1 : yn+1 = yn + (fn+1 + fn ) (ordre 2)
2 implicite, i.e. exige la résolution d’une
équation non linéaire pour calculer yn+1 .
h
p=2 : yn+1 = yn + (5fn+1 + 8fn − fn−1 ) (ordre 3) Pour contourner cette difficulté, on
12
combine les formules d’Adams-Bashforth
h et d’Adams-Moulton en des schémas dits
p=3 : yn+1 = yn + (9fn+1 + 19fn − 5fn−1 + fn−2 ) (ordre 4)
24 prédicteurs-correcteurs.
9 avril 2020 44 / 50
Méthodes d’Adams-Moulton
Méthodes d’Adams-Moulton
Z tn+1
On écrit yn+1 = yn + Pn∗ (t) dt,
tn
avec Pn∗ le polynôme d’interpolation de Lagrange de degré p, ppour les couples de valeurs (tn+1−i , fn+1−i ), 0 6 i 6 p, où
l’on a posé fi = f (ti , yi ), soit :
X
∗
yn+1 = yn + h βp,j fn+1−j .
j=0
Formules d’Adams-Moulton
Ces méthodes sont basées sur les noeuds
p=0 : yn+1 = yn + hfn+1 (ordre 1) tn+1 , tn , tn−1 , tn−2 , . . .
A cause de la présence de yn+1 dans le
h membre de droite, le schéma devient
p=1 : yn+1 = yn + (fn+1 + fn ) (ordre 2)
2 implicite, i.e. exige la résolution d’une
équation non linéaire pour calculer yn+1 .
h
p=2 : yn+1 = yn + (5fn+1 + 8fn − fn−1 ) (ordre 3) Pour contourner cette difficulté, on
12
combine les formules d’Adams-Bashforth
h et d’Adams-Moulton en des schémas dits
p=3 : yn+1 = yn + (9fn+1 + 19fn − 5fn−1 + fn−2 ) (ordre 4)
24 prédicteurs-correcteurs.
9 avril 2020 44 / 50
Méthodes d’Adams-Moulton
Méthodes d’Adams-Moulton
Z tn+1
On écrit yn+1 = yn + Pn∗ (t) dt,
tn
avec Pn∗ le polynôme d’interpolation de Lagrange de degré p, ppour les couples de valeurs (tn+1−i , fn+1−i ), 0 6 i 6 p, où
l’on a posé fi = f (ti , yi ), soit :
X
∗
yn+1 = yn + h βp,j fn+1−j .
j=0
Formules d’Adams-Moulton
Ces méthodes sont basées sur les noeuds
p=0 : yn+1 = yn + hfn+1 (ordre 1) tn+1 , tn , tn−1 , tn−2 , . . .
A cause de la présence de yn+1 dans le
h membre de droite, le schéma devient
p=1 : yn+1 = yn + (fn+1 + fn ) (ordre 2)
2 implicite, i.e. exige la résolution d’une
équation non linéaire pour calculer yn+1 .
h
p=2 : yn+1 = yn + (5fn+1 + 8fn − fn−1 ) (ordre 3) Pour contourner cette difficulté, on
12
combine les formules d’Adams-Bashforth
h et d’Adams-Moulton en des schémas dits
p=3 : yn+1 = yn + (9fn+1 + 19fn − 5fn−1 + fn−2 ) (ordre 4)
24 prédicteurs-correcteurs.
9 avril 2020 44 / 50
Méthodes de prédiction-correction
Méthodes de prédiction-correction
Schémas de prédiction-correction
p
Prédiction yn+1 = yn + hfn
p p
Evaluation fn+1 = f (tn+1 , yn+1 )
p
Correction yn+1 = yn + hfn+1 (ordre 1)
p h
Prédiction yn+1 = yn + (3fn − fn−1 )
p
2 p
Evaluation fn+1 = f (tn+1 , yn+1 )
h p
Correction yn+1 = yn + (fn+1 + fn ) (ordre 2)
2
9 avril 2020 45 / 50
Méthodes de prédiction-correction
p h
Prédiction yn+1 = yn + (23fn − 16fn−1 + 5fn−2 )
p
12 p
Evaluation fn+1 = f (tn+1 , yn+1 )
h p
Correction yn+1 = yn + (5fn+1 + 8fn − fn−1 ) (ordre 3)
12
p h
Prédiction yn+1 = yn + (55fn − 59fn−1 + 37fn−2 − 9fn−3 )
p
24 p
Evaluation fn+1 = f (tn+1 , yn+1 )
h p
Correction yn+1 = yn + (9fn+1 + 19fn − 5fn−1 + fn−2 ) (ordre 4)
24
La fonction ode113 de Matlab implante cette méthode, pour des ordres pouvant varier de 1 à
13.
9 avril 2020 46 / 50
Méthodes de prédiction-correction
Exercice 1.
Un parachutiste pesant m = 75 kg est largué d’un avion volant à 1000 m d’altitude, avec une vitesse verticale égale à 0.
L’altitude du parachutiste est une fonction y (t) solution du problème
α(t)
00
y (t) = −g + m ,
y (0) = 1000, (23)
0
y (0) = 0.
k1 y 0 (t)2
si t < t0 ,
α(t) = 0 2
(24)
k2 y (t) si t > t0 .
1 Montrez si l’on ne tient pas compte de la résistance de l’air, et donc si k1 = k2 = 0, alors la chute devrait durer
environ 14 secondes, et la vitesse d’impact au sol serait d’environ 140 m s −1 .
2 On suppose que le parachutiste ouvre son parachute à l’instant to = 5, avec k1 = 0.5 et k2 = 2.5. Calculez des
valeurs approchées de l’altitude et de la vitesse du parachutiste en utilisant la méthode d’Euler avec un pas h = 1
pendant les dix premières secondes de la chute.
3 La vitesse semble se stabiliser autour de la valeur −17.15 m s −1 . Pouvez vous justifier cette valeur ? Quelle serait la
vitesse approximative de l’impact si le parachute ne s’ouvrait pas ? 9 avril 2020 47 / 50
Méthodes de prédiction-correction
Exercice 2.
On considère l’équation différentielle suivante :
y 000 (t) − R y 0 (t)2 − y (t)y 00 (t) + R a = 0,
(25)
y (0) = y 0 (0) = 0, y 0 (0) = 1.
Exercice 3.
0
u t) = −7u(t) + 3v (t),
On considère le système différentiel suivant : v 0 t) = 6u(t) − 4v (t), (26)
u(0) = α; v (0) = β.
u(t)
1 On pose Y (t) = . Ecrire le système différentiel sous la forme Y 0 = A Y , Y (0) = Y0 .
v (t)
un
2 On choisit un pas de temps h, et on note tn = n h, un ≈ u(tn ) et vn ≈ v (tn ). On pose Yn = . Appliquer la
vn
méthode d’Euler explicite n
n et montrer queYn = (I + hA) Y0 puis appliquer la méthode d’Euler implicite et montrer
qu Yn = (I − hA)−1 Y0 .
3 on prend α = β = 1. Calculer les valeurs approchées de Y(3) par la méthode explicite et implicite pour les valeurs
de h égales à 1 ; 0.5 ; 0.25 ; 0.1 ; 0.05 ; 0.01.
4 Diagonaliser la matrice A. En déduire les solutions exactes du système différentiel. Donner une condition de stabilité
pour la méthode explicite.
5 On envisage de calculer la solution approchée du système différentiel Y 0 (t) = F (t, Y (t)) par
3 1
Yn+1 = Yn + h F (tn , Yn ) + F (tn+1, Yn+1 ) . (27)
4 4
Le schéma (27) est-il explicite ou implicite ? Déterminer sa fonction de stabilité puis son rayon de stabilité.
6 Expliciter l’application de ce schéma au problème (26) et donner une condition de stabilité pour ce schéma.
9 avril 2020 49 / 50
Méthodes de prédiction-correction
Exercice 4.
Pour calculer la solution approchée d’un problème de la forme :
0
1/2 1/2
3/4 0 3/4
2/9 3/9 4/9
y 0 (t) = y (t),
t > 0,
(29)
y (0) = 1,