Académique Documents
Professionnel Documents
Culture Documents
X x x . . . x
f(x) y y . . . y
P: →
x↦y (1.1)
1.1. Algorithme
Q: →
̃
x ↦ ỹ (1.2)
Les erreurs sur les données : elles sont liées à une connaissance
imparfaite des données du problème que l’on cherche { résoudre ;
̃
(1.4)
P: →
x↦y
et désignons par φ le lien qui unit y { x :
y = φ(x) (1.5)
A la donnée x + x, associons la solution y + y telle que
y + y = φ(x + x) (1.6)
L’écart y vérifie donc
x
y = φ(x + x) - φ(x) = [ ]= Dφ(x) x (1.7)
x
[ ]
Où Dφ est la matrice jacobienne de φ. Les grandeurs représentent les
sensibilités avec lesquelles la composante y de y réagit aux
perturbations x : on a en effet
y =. / x +…+. / x (1.8)
Une autre formule analogue peut être établie pour les erreurs relatives :
= . / x +…+ . / x (1.9)
= . / +…+ . / (1.10)
( ) ( )
[ ]= [ ]
[ ]
ε = . / ε +…+ . / ε (1.11)
( ) ( )
y = φ(x1,x2) = x1x2 ⇒ εy = ε + ε
y = φ(x1,x2) = ⇒ εy = ε - ε
y = φ(x1,x2) = x1 x2 ⇒ εy = ε ε
y = φ(x) = √x ⇒ εy = εx
a = 0,23371258.10-4
b = 0,33678429.10-2
c = 0,33677811.10+2
Algorithme 1 :
a + (b + c) = 0,23371258.10-4 + (0,00000618.10+2)
= 0,23371258.10-4 + 0,61800000.10-3)
= 0,64137126.10-3
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
11
Algorithme 2 :
(a + b) + c = (0,3367845237258.10+2) – 0,33677811.10+2
= (0,0000641.10+2)
= 0,64100000.10-3
2.1. INTRODUCTION
On note par MN( ) l’ensemble des matrices carrées d’ordre N.
Soit A MN( ) une matrice inversible et b N.
(A ) = A
(A + B) = A + B ;
(AB) = BA ;
( A) = A R;
det(A ) = det (A) ;
Si A est inversible, (A ) = (A ) .
La matrice adjointe de A est A* = ̅̅̅
A . On a alors les propriétés :
(A ) =A ;
(A + B) = A + B
(AB) = B A
( A) = A C
Det (A ) = det (A).
̅̅̅̅̅̅̅̅̅
Si A est inversible, (A ) = (A ) .
. :E →
x→ x
vérifiant les propriétés suivantes :
x E, x = 0 x=0
R, x E, x = x
x, y E, x + y = x + y .
Exemples : Soit x = (x , x , … , x ) .
x→ x = |x | + |x | + + |x |
x→ x = √|x | + |x | + + |x |
x→ x = max(|x |, |x |, … , |x |)
sont trois normes vectorielles sur N.
Définition 2.1
Remarque
On dit aussi que c’est une norme matricielle subordonnée ou
associée à la norme vectorielle.
Proposition 2.1
Si . est une norme matricielle induite (par une norme
vectorielle . sur E = N) sur MN( ), alors on a les propriétés
suivantes :
x et A MN( ), Ax A x
A = max { Ax , x , x = 1}
A = max { ,x , x 0+.
Démonstration
Soit x non nul.
y= x ⇒ y =1
⇒ Ay A (par définition)
1 Ax
‖A x‖ A A
x x
Ax A x .
Proposition 2.2
Pour toute matrice A = (a ) , on a :
,
A = sup = max ∑ |a |
A = sup = max ∑ |a |.
1 2
Exemple : Si A = . /, A = max{4,2} = 4 et A = 3.
3 0
Définition 2.2
Proposition 2.3
On a l’équivalence suivante :
est une valeur propre de A ssi det(A – I) = 0.
On montre que :
det(A)=∏ et tr(A)= ∑ . (2.4)
Propriété 2.1
Si A MN(R) est une matrice symétrique, alors toutes ses valeurs
propres sont réelles et il existe une matrice orthogonale P (P-1 = Pt) telle
que :
0
P-1AP =( )=D (2.5)
0
où les sont les valeurs propres de A. A est donc semblable à la matrice
diagonale D.
Définition 2.3
On dit que deux matrices A et B sont semblables s’il existe une
matrice inversible P telle que A = P-1BP.
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
16
Exemple :
0 1 1
A = (1 0 1)
1 1 0
1
0
1 1 1
Si P=( 0 2 1), on a P-1 = ,
1 1 1
( )
0
0 1 1 1 1 1
P-1AP = (1 0 1) ( 0 2 1)
1 1 0 1 1 1
( )
1 0 0
= (0 1 0)
0 0 2
Remarque
√ √ √
Si on prend P = 0 , son inverse : P-1 = Pt, on a :
√ √
( √ √ √ )
1 1 1 1 1
0
√2 √2 √2 √6 √3
1 2 0
1 1 1 2 1
= (1 0 1) 0
√6 √6 √6 1 1 0 √6 √3
1 1 1 1 1 1
( √3 √3 √3) ( √2 √6 √3)
1 0 0
=( 0 1 0).
0 0 2
Définition 2.4
Le rayon spectral de A est :
(A) = max*| |, ℂ, valeur propre de A + (2.6)
Proposition 2.4
Soit A MN(R), alors pour toute norme matricielle, (induite ou
non), on a :
(A) A (2.7)
Démonstration
Soit une valeur propre de A telle que : (A) | |. Il existe p RN non
nul, tel que A.p = p.
p vecteur non nul ⇒ q RN tel que p.qt 0.
⇒ (A) p. q = | | p. q = ( )q
= (Ap)q = A(p. q )
A p. q .
⇒ (A) A .
Théorème 2.1
On désigne par IN la matrice identité de MN( ).
Soit . une norme matricielle induite sur MN( ).
Si A MN( ) est telle que A 1, alors la matrice IN + A est
inversible et
‖((I + A)) ‖ .
Si I + A est singulière, alors A 1, pour toute norme matricielle
sur MN( ).
Démonstration
(I + A)x = 0 ⇒ A = Ax A x . Comme A < 1, on a : x = 0.
Ce qui entraine que I + A est inversible et comme ((I + A)) = IN -
A((I + A)) on a :
‖((I + A)) ‖ 1 + A . (I + A) 1
⇒ (1- A ).‖((I + A)) ‖ 1
⇒ ‖((I + A)) ‖ .
IN + A singulière ⇒ det(IN + A) = 0
= -1 est une valeur propre de A
1 (A) A .
Exemple : 𝕂 = , E = N, pour x, y E : x = (x , x , … , x ) et y =
(y , y , … , y ), l’application (x, y) → 〈x, y〉 = y x = ∑ x y définit un
produit scalaire sur N.
Définition 2.6
Une matrice A MN( ) est définie positive si : 〈Ax, x〉 0,
x N
Si l’inégalité stricte est remplacée par une inégalité large, on dit que la
matrice est semi-définie positive.
Définition 2.7
Les mineurs principaux dominants de A = (a ) ,1 k N
,
sont les N déterminants des sous-matrices de A :(a ) ,1 k N.
,
Proposition 2.7
Soit A MN( ) une matrice symétrique. A est définie positive si et
seulement si l’une des propriétés suivantes est satisfaite :
1. 〈Ax, x〉 0, ,x 0
2. Les valeurs propres de A sont strictement positives.
3. Les mineurs principaux dominants de A sont tous strictement
positifs.
(où la somme est étendue à toutes les permutations sur n objets) exige
n flops.
Par exemple, sur un ordinateur effectuant 109 flops par seconde il
faudrait 9,6.1047 années pour résoudre un système linéaire de seulement
50 équations.
Il faut donc développer des algorithmes alternatifs avec un coût
raisonnable.
2.3.2. Principe de résolution des systèmes linéaires
Pour résoudre le système (2.1), on cherche à écrire :
A = LU (2.12),
où - L est une matrice triangulaire inférieure avec des 1 sur la
diagonale ;
- U est une matrice triangulaire supérieure.
( ) ( ) ( )
a =a l a , i = k+1, …, n.
A la fin de ce procédé, les éléments de la matrice U sont définis
par :
()
uij= a ; tandis que les éléments de la matrice L sont les
termes lij engendrés par l’algorithme de Gauss.
Le coût de cette méthode de factorisation est de l’ordre de flops. En
fait, pour passer de A(k) à A(k+1) on modifie tous les éléments de A(k) sauf
les premières k lignes et les premières k colonnes, qui ne changent pas ;
on a donc 2(n-k)2 opérations à faire. Au total, pour fabriquer A(n) il faut :
(n 1)n(2n 1) n
∑ 2(n k) = 2 ∑ j = 2 2
6 3
Remarque
Pour que l’algorithme de Gauss puisse terminer, il faut que tous les
( ) ( )
termes a , qui correspondent aux termes diagonaux u de la matrice U
et qu’on appelle pivots, soient non nuls.
Le fait que la matrice A ait des entrées non nulles ne prévient pas
l’apparition de pivots nuls, comme on remarque dans l’exemple qui suit :
1 2 3
A = [2 4 5]
7 8 9
1 2 3
A = [0 0
(2) 1]
0 6 12
Cependant on a :
Proposition 2.8.
La factorisation LU de la matrice carrée A d’ordre n par la méthode de
Gauss si et seulement si les sous-matrices principales Ai = (ahk), h,k = 1,
…, i, sont non singulières.
|a | ∑|a |
1 2 3 4 10
10
*0 1 2 7|
0 + d’où : t = 1, z = 1, y = 1, x = 1.
0 0 4 4
0 0 0 40 40
2. Factorisation de la matrice A :
1 2 3 4 1 2 3 4 1 2 3 4
*2 3 4 1+ *2 1 2 7 + *2 1 2 7+
3 4 1 2 3 2 8 10 3 2 4 4
4 1 2 3 4 7 10 13 4 7 4 36
L2 L2-2L1L3 L3-2L2 L4 L4+L3
L3 L3-3L1 L4 L4-7L3
L4 L4-4L1
1 2 3 4 1 0 0 0
*2 1 2 7+ ; donc L = *2 1 0 0+
3 2 4 4 3 2 1 0
4 7 1 40 4 7 1 1
1 2 3 4
et U = *0 1 2 7+
0 0 4 4
0 0 0 40
1 0 0 0 y 1
*2 1 0 0 + *y + = *2+ ⇒ y1 = 1, y2 = 0, y3 = 0, y4 = 0
3 2 1 0 y 3
4 7 1 1 4
Et Ux = y :
1 2 3 4 y 1
y
*0 1 2 7+ * + = *0+ ⇒ x = 0, x = 0, x = 0, x = 1.
4 3 2 1
0 0 4 4 y 0
0 0 0 40 0
1 0 0 0 y 10
*2 1 0 0 + *y + = *10+ ⇒ y1 = 10, y2 = -10, y3 = 0, y4 = 40
3 2 1 0 y 10
4 7 1 1 10
Et Ux = y :
1 2 3 4 x 10
*0 1 2 7+ *x + = * 10+ ⇒ x = 1, x = 1, x = 1, x = 1.
4 3 2 1
0 0 4 4 x 0
0 0 0 40 x 40
et finalement
9⁄40 1⁄40 1⁄40 11⁄40
1⁄40 1⁄40 11⁄40 9⁄40
A-1 = [ ] =
1⁄40 11⁄40 9⁄40 1⁄40
11⁄40 9⁄40 1⁄40 1⁄40
9 1 1 11
* 1 1 11 9+
11 11 9 1
11 9 1 1
Définition 2.9
Une méthode itérative est dite convergente si pour tout
choix x ( ) , on a :
lim x ( ) = x. (2.14)
→
et la limite vérifie Ax = b. (Ax = b est équivalente à x = Bx + c).
Définition 2.10
L’erreur d’approximation { la k-ième étape s’écrit :
Définition 2.11
lim e( ) = 0. (2.15)
→
Ce qui équivaut à :
L =. D E/ . D + F/ = (D E)
Démonstration
Mt + N est symétrique : A = M – N → Mt + N = (A + N)t + N = At + Nt +
N = M + Nt .
Comme A est symétrique définie positive, l’application
v N → v = √v Av
définit une norme sur N.
On considère la norme matricielle . induite par cette norme
vectorielle.
M N = I M A = sup v M Av
L’algorithme est :
k=0
x(o) arbitraire
Calcul de r(n) = Ax(n)- b
Si r(n) = 0, c’est terminé.
Si r(n) 0, on calcule :
‖r ( ) ‖
=
〈r ( ) , Ar ( ) 〉
et x(n+1) = x(n) - r ( )
k : = k+1 et aller à (1).
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
32
3.2. INTERPOLATION
i. Problème
Une fonction f connue seulement en n+1 points (xo, f(xo) ; (x1,
f(x1)) … ; (xn, f(xn)), appelés points expérimentaux ou points de
collocation ou encore points d’interpolation.
f(x1) x
?
f(xn)
f(x0) x
x0 x1 x xn
3.2.2.1. Rappel
Théorème 3.1
3.2.2.2. Corollaire
Démonstration
Considérons la différence :
Démonstration
Li(x) = ∏ (3.3)
Exemple 1 :
x 0 2 3 3
xi 0 1 2 3
1f 3 1
3
f(xi) 2 1 2 2
Solution :
( )( ) ( )( )
L2(x) = ; L4(x) =
soit p3(x)=
Exemple 2 :
On obtient immédiatement :
( , )( , ) ( , )( , )
p2(x) = 1,105 171. + 1,221 403.
( , , )( , , ) ( , , )( , , )
( , )( , )
+ 1,349859.
( , , )( , , )
( , )( , )
Il en résulte : e0,25 p2(0,25) = 1,107 171.
( , , )( , , )
( , )( , )
+ 1,221 403.
( ,, )( , , )
( , )( , )
+ 1,349 859.
( , , )( , , )
= 1,284 103.
Théorème 3.3
Démonstration
()
G(t) = En(t) – En(x) ( )
( )
G(x) = En(x) – En(x) ( )
= 0.
on a :
( )
G(n+1)(t) = f(n+1)(t) – En(x) ( )
| (x)| n
| ( )
( )|
Et donc max |E (x)| .hn+1 (3.7)
( )
,
|E3(0,44)| 0,5376.10-4. = 0,213 995.10-5
En réalité, |E3(0,44)| = |cos(0,44) – p3(0,44)| = 0,166 322.10-5
qui est comparable à la borne supérieure ci-dessus.
3.2.4.Interpolation de Tchebychev
Comme on l’a vu plus haut, l’erreur d’interpolation est un produit
de la (n+1)ième dérivée de f, évaluée { un point connu, avec l’expression
(x-xo). … .(x-xn) qui ne dépend que de la subdivision de l’intervalle [a,b].
Il est alors intéressant de chercher, pour un n donné, la subdivision de [a,
b] pour laquelle
max |(x-xo). … .(x-xn)|est minimal (3.8)
, , -
3.2.4.2. Propriétés
a) Les fonctions Tn(x) satisfont la récurrence
To(x) = 1, T1(x) = x
Tn(x)= 2n-1xn + ….
x ↦ + x,
qui envoie l’intervalle [-1, 1] sur [a, b]. On obtient alors
Théorème 3.1.
𝛬n(x)≃( ( ) )
(3.14)
On remarque que la différence entre ces deux polynômes est bien plus
grande que la perturbation des données.
Plus précisément : max |p (x) p̃ (x)|≃ 6,212
f, -
f, , -
f,x - f, , , -
f,x , x - f, , , , -
f,x - f,x , x , x - .
f,x , x - . .
f,x - . .
. .
. f,x , x , x -
. f,x ,x -
f,x - f, , ,…, -
( )
La détermination des coefficients ck nécessite divisions.
Nous voyons aussi que nous obtenons sur la diagonale du tableau
coefficients f,x -, f,x , x -, f,x , x , x -, …, et finalement
f,x , x , … , x -, c’est-à-dire les coefficients co, c1,c2 et finalement cn
de pn dans la base de Newton.
Algorithme succinct pour calculer les différences divisées di (0 i n) :
1 : pour i = 0 jusqu’{ n faire
2 : di = f(xi)
3 : fin pour
4 : pour k = 1 jusqu’{ n faire
5 : pour i = n jusqu'à k par pas de -1 faire
6 : di =
7 : fin pour
8 : fin pour
Exemple :
Déterminer le polynôme d’interpolation de la fonction f définie par la
table suivante :
X 0 1 2 3
f(x) 1 1 2 1
2 2
Solution :
Table des différences divisées :
xo= 0 ½
½
1/4
x1 = 1 1
1 -2/3
x2 = 2 2 -7/4
-5/2
x3 = 3 -1/2
soit, p3(x) = .
Etant donnés n+1 points (xi, yi), on cherche une spline linéaire
S(x) de la forme
S (x) = a x + b , x ∊ ,x , x -
S (x) = a x + b , x ∊ ,x , x -
S(x) ={ (3.20)
…………………………………
S (x) = a x + b , x ∊ ,x ,x -
On suppose que :
S (x ) = S (x ) et S (x ) = S (x ) (3.25)
a x + b x + c x + d , x ∊ , 1,0-
S(x) = 8
a x + b x + c x + d , x ∊ ,0,1-
Solution :
S1(x) = a x + b x + c x + d , x ∊ ,0,1-.
So(0) = do = 2
S1(0) = d1 = 2
So(-1) = -ao + bo - co + 2 = 1 ou - ao + bo - co = -1
S1(1) = a1 + b1 + c1 + 2 = -1 ou a1 + b1 + c1 = -3.
D’autre part,
3a x + 2b x + c , x ∊ , 1,0-
S’(x) = 8
3a x + 2b x + c , x ∊ ,0,1-
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
49
S (0) = b0 = b1.
-a0+b0 – c0 = -1
-3a0 + b0 = 0
b0= b1
a1+ b1 + c1= -3.
d0 = 2
3a1 + b1= 0
d1 = 2
Ainsi, a0 = -1, b0 = -3, c0 = -1, d0 = 2, a1 = 1, b1 = -3, c1 = -1 et d1 = 2 et la
spline cubique naturelle est définie sur [-1,1] par :
x 3x x + 2, x ∊ , 1,0-
S(x) = {
x 3x x + 2, x ∊ ,0,1-.
3.2.7.4. L’erreur de la spline
Par conséquent, pour tout x dans ,a, b-, l’interpolant S(x) tend vers f(x)
quand n tend vers +∞, à condition que la fonction f soit assez régulière.
On a : Lo(x) = = = 1 - ; L1(x) = =
et L (x) = - ; L (x) = .
= x3 + x2 + 1
=- x3 + x2
D’autre part,
Ainsi,
= x3 - x + 1.
3.3.1. Introduction
La méthode des moindres carrés est très utilisée dans les sciences
expérimentales et plus particulièrement dans les problèmes d’estimation
et d’identification. Cette méthode consiste { minimiser la norme
quadratique (norme euclidienne) d’une fonction appelée fonction
d’erreur. C’est le cas par exemple lorsqu’un chercheur met au point une
expérience et qu’il a des raisons de croire que deux grandeurs x et y sont
liées par une fonction f. Après avoir récolté des données sous la forme
des points (xi, yi), i = 0,1, …, n, et qu’il en fait une représentation
graphique, il cherche f pour qu’elle s’ajuste le mieux possible aux points
expérimentaux.
Si le nombre n de données est grand, l’interpolation de Lagrange
comme on l’a vu n’est pas toujours une bonne approximation d’une
fonction donnée ou cherchée. En outre, si les données sont affectées par
des erreurs de mesure, l’interpolation peut être instable. Ce problème
peut être résolu avec l’interpolation par splines linéaires ou cubiques
comme vu plus haut.
Néanmoins, aucune de ces techniques ne donne une réponse
adéquate lorsqu’il s’agit de l’extrapolation d’informations { partir des
données disponibles, c.-à-d., à la génération de nouvelles valeurs en des
points situés en dehors de l’intervalle contenant les nœuds
d’interpolation. On introduit alors la méthode des moindres carrés : soit
ei = yi – f(xi) l’écart vertical du point (xi, yi) par rapport à la fonction f. la
méthode des moindres carrés est celle qui choisit f de sorte que la
somme des carrés de ces déviations soit minimale.
Le problème { résoudre peut s’énoncer comme suit :
Supposons donnés N+1 points d’un relevé expérimental (xi, yi)
(par exemple xi est l’instant de prélèvement d’une substance dans une
réaction chimique et yi la concentration de cette substance), i = 0,1, …, N.
Supposons maintenant que l’on recherche une relation linéaire entre x et
y de la forme
y = ax + b (3.30)
Il est clair que pour N = 2 les inconnues a et b sont déterminées de
manière unique. Il est clair aussi que la droite ne peut passer par
l’ensemble des points. En fait, ce que l’on recherche ici est la droite la
plus probable, donc minimisant une certaine erreur.
Au point (xi, yi) la distance entre la droite et le point est
min ∑ e (3.33)
∊, , -
φ(a,b) = ∑ e (3.35)
(∑ x )a + (∑ x )b = ∑ xy
8 (3.39)
(∑ x )a + (N + 1)b = ∑ y
où D = (N+1)(∑ x ) – (∑ x )2 (3.41)
= 2(∑ x ) 0; = 2(N+1) 0.
φ(a,b) = eTe(3.42),
de plus e = Cz – d (3.43)
x 1 y
x 1 a y
avec C = [ ], z = 0 1, d = [ … ] (3.44)
… … b
x 1 y
z = (CTC)-1(CTd) (3.48).
f( ) .(ξ(x))ξ (x)/
E (x) = ,(x x )(x x ) … (x x )-
(n + 1)
( )( ( ))
+ ( )
,(x x )(x x ) … (x x )- (4.4)
D’où
( )
.( ( )) ( )/ ( ) (( ( ))
E (x) = ( )
∏ (x x )+ ( )
∑ ∏ .(x x )/
(4.5)
f( ) (ξ(x
)ξ (x )) f( ) (ξ(x ))
E (x ) = ∏(x x )+ ∑ ∏(x x)
(n + 1) (n + 1)
( )( ( ))
E (x )= ( )
∏ (x x) (4.6)
p (x ) = f (x ) + E (x ) (4.8)
Définition 2.1
Remarque :
et donc :
Et
f ( ) (ξ(x))ξ (x)
E (x) = (x x )(x x )
2
f ( ) (ξ(x))
+ ,(x x ) + (x x )-.
2
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
58
Soient les trois points (x , f(x )),(x , f(x )),(x , f(x )).
et donc
( ( ))
+ ,(x x )(x x )+(x x )(x x )+(x x )(x x )- (4.16)
Et
( ( )) ( ( ))
E (x )= (x x )(x x )=2 h (4.17)
( ( )) ( ( ))
E (x ) = (x x )(x x )= - h (4.18)
( ( )) ( ( ))
E (x ) = (x x )(x x )= 2 h (4.19)
( ) ( )
f (x )= + E (x ) (4.21)
( ) ( ) ( )
f (x )= + E (x ) (4.22)
f(x2)
Différence centrée
Différence arrière
f(x1)
x0 x1 x2
f(x + h) f(x)
f (x) = + O(h)
h
Différence avant d’ordre 1
f(x) f(x h)
f (x) = + O(h)
h
Différence arrière d’ordre 1
(4.23)
f(x + h) f(x h)
f (x) = + O(h )
2h
Différence centrée d’ordre 2
(4.24)
x f(x)
1,8 1,5877867
1,9 1,6418539
2,0 1,6931472
2,1 1,7419373
2,2 1,7884574
Solution :
, ,
= = 0,50167675
,
Différence arrière :
3f(2,0) 4f(2,0 0,2) + 3f(2,0 2(0,2))
f (2,0) =
2(0,2)
( , ) ( , , ) ( , ( , ))
=
( , )
( , ) ( , ) ( , )
=
,
On a :
( ) ( ) ( )
p (x) = f,x , x , x - = (4.25)
On a :
( ) ( )
f(x + 2h)= f(x )+f (x )(2h) + (2h) + (2h) + …
et
( ) ( ) ( )
f(x + h) = f(x ) +f (x )(h) + h + h + h + …
On a alors :
( ) ( ) ( ) ( ) ( ) ( )
=
= f (x ) + f (x )h + O(h )
= f (x )+O(h). (4.26)
(x + ) 2 ( )+ ( )
( )=
et
( ) ( ) ( )
f(x h) = f(x ) - f (x )(h) + h h + h + …
D’où
( )
( ) ( ) ( ) ( ) ( )
=
( )
= f (x ) + + O(h )
= f (x ) + O(h ). (4.27)
( ) ( ) ( )
( )= .
On a :
( ) ( ) ( )
f(x h) = f(x ) - f (x )(h) + h h + h + …
( ) ( )
f(x 2h) = f(x ) – f (x )(2h) + (2h) (2h) +
( )
(2h) + …
D’où :
( ) ( ) ( )
= f (x ) - f (x )h + f (x )h4
= f (x ) + O(h). (4.28)
( ) ( ) ( )
f (x)= + O(h)
Différence avant d’ordre 1
( ) ( ) ( )
f (x)= + O(h )
Différence centrée d’ordre 2
( ) ( ) ( )
f (x)= + O(h)
Différence arrière d’ordre 1
(4.29)
( ) ( ) ( ) ( ) ( )
( )= + O(h2) (4.31)
( ) ( ) ( ) ( ) ( )
( )= + O(h4) (4.32)
Exemple :
( + ) ( ) ( + ) ( )+ ( )
( ) ( )
h
1 1,175201178 1,086161137
0,1 1,001667619 1,000839472
0,001 1,000016928 1,000165939
0,0001 1,000017047 1,013279080
0,00001 1,000166059 0,000000000
0,000001 1,001358151 0,000000000
0,0000001 0,983476758 -59604,6601
Décrivons-la.
ou
D’où :
. / ( )
Qexa= + (4.37)
ou simplement
. / ( )
Qexa= + O(h ) (4.38)
Pour h = 0,05
( ) ( ) ,
f (0) = = 1,0254219 = Qapp( ).
,
. / ( )
f (0) =2(1,0254219)-(1,05170918)
= 0,99913462.
Cette approximation d’ordre 2 est plus précise que les deux
autres. Rappelons que la valeur exacte de f (0) vaut 1.
où les xi sont des points distincts de l’intervalle ,a, b-, appelés points
d’intégration et Ai, des coefficients réels appelés poids d’intégration, le
tout choisi pour que la différence
soit petite.
xi-1 xi
= [f(xi-1) + f(xi)]
pour ,x , x -.
Solution :
Remarque
Bien que d’ordre 3, la méthode du trapèze est rarement utilisée, car trop
imprécise.
Les différents points engendrés sont notés xi pour i = 0,1,…,n, tels que :
xi = xo + ih (5.15)
h
= (,f(x ) + f(x ) + ,f(x ) + f(x )- +
2
+,f(x ) + f(x )- + ,f(x ) + f(x )-
On constate que tous les termes f(xi) sont répétées deux fois,
sauf le premier et le dernier.
On en conclut que :
Puisque : h = et donc n =
avec , , -.
I =∫ sinx dx,
On a alors :
= 0,9871158,
Posons : a = x , x = , x = b, h = ; on obtient :
= (f(xo)+4f(x1)+f(x2)),
( ) ( ) ( ) ( ) ( )
f,x , x -= et f,x , x , x - = .
En résumé, on a :
qui est la formule de Simpson 1/3 simple. Cette terminologie est due au
facteur 1/3 qui multiplie h.
∫ E (x)dx.
∫ p (x)dx = ∫ p (x)dx
En utilisant un polynôme de degré 2, on obtient en fait la même précision
qu’avec un polynôme de degré 3. Le terme d’erreur est donc de ce fait :
( ( ))
∫ E (x)dx = ∫ (x x )(x x )(x x )(x x )dx.
( )
=∫ (s((s 1) )(s 2)h )ds,
où , , -.
Remarque
I = ∫ sinx dx
Le résultat obtenu est plus précis que celui obtenu par la méthode du
trapèze, mais il demeure peu satisfaisant.
On a alors :
Tous les termes de rang impair sont multipliés par 4 tandis que ceux de
rang pair sont multipliés par 2, sauf le premier et le dernier.
I = ∫ sinx dx
3
∫ sinx dx (sin0 + 4sin + 2sin + 4sin + sin )
3 8 4 8 2
=1,0001346.
Cette plus grande précision provient du fait que cette méthode est
d’ordre 4. En passant de 4 { 8 intervalles (i.e. en divisant h par 2) on
remarque que l’erreur est divisée par un facteur d’environ 16,22. On
peut aussi utiliser l’extrapolation de Richardson avec n = 4 :
( , ) ,
= 0,999999876
∫ e dx
, , , , , , ,
∫ e dx (e + 4e + 2e + 4e + 2e + 4e + 2e + 4e +e )
3
= 0,7468261205.
( )
Erreur = - h , ,x , x -.
∫ f(x)dx = ∑ ∫ f(x)dx
( ) ( ) ( ) ( ) ( )
n. h /= h = h (5.25)
où ,x , x -.
, ,
T, =
, ,
T, = (5.31)
, ,
T, =
T , T , T , T , T , T , (0rdre 2)
T , T , T , T , T , (Ordre 4)
T , T , T , T , (Ordre 6)
T , T , T , (Ordre 8)
T , T , (Ordre 10)
T , (Ordre 12)
(5.32)
1,0000000 (Ordre 8)
2 (0,9480594) (0,7853982)
= 1,0022799
2 1
2 (0,9871158) (0,9480594)
= 1,0001346
2 1
2 (0,9967852) (0,9871158)
= 1,0000083
2 1
qui sont toutes des approximations d’ordre 4.
= = , x1 = a et x2 = b (5.33)
(b a)t + (a + b) (b a) (b a)
∫ f(x)dx = ∫ 4 5 dt = ∫ g(t)dt
2 2 2
( ) ( )
où : g(t) = f. /.
Définition 5.3
L’expression (5.40) est quadrature de Gauss { n points. Les ti sont
appelés points d’intégration, tandis que les coefficients sont les poids
d’intégration.
On choisit les points et les poids d’intégration de façon { ce que la
quadrature (5.40) soit exacte dans le cas de degré le plus élevé possible.
De toute évidence, les points d’intégration ti doivent tous être distincts
les uns des autres et les poids d’intégration doivent être non nuls.
Puisque tout polynôme de degré m peut s’écrire :
pm(t) = ∑ c t
qui soit exacte dans le cas des polynômes de degré le plus élevé possible.
Commençons par les polynômes de degré 0. La formule (5.41) doit être
exacte pour g(t) = 1, ce qui donne une première équation :
∫ 1dt = 2 =
∫ tdt = 0 = t1 = 2t1
Remarque
∫ 1dt =2 = + (5.44)
∫ t dt = 0 = t + t (5.45)
∫ t dt = = t + t (5.46)
∫ t dt = 0 = t + t (5.47)
Pour que ce produit soit nul, il faut que l’un ou l’autre des facteurs
s’annule, c’est-à-dire :
= 0.
Cette possibilité doit être écartée, car dans ce cas la formule de Gauss à 2
points (5.44) dégénère en une formule à 1 point.
t2= 0.
t =t .
t1 ( - )=0
= = 1.
= t + t = t + ( t ) = 2t
∫ g(t)dt g 4 √ 5+ g 4√ 5 (5.48)
Remarque
Pour un même nombre de points d’intégration la quadrature de Gauss {
2 points a un degré de précision 3 par comparaison avec 1 pour la
méthode du trapèze. Pour un même effort de calcul, on a ainsi une plus
grande précision.
Il est alors facile de démontrer que L2(x) = (3x 1) dont les racines
sont √ .
Théorème 4.2
I = ∫ (4x + 3x + 2)dx.
D’où : I = ∫ [4 . / + 3. / + 2]
I [4 . / + 3. / + 2] = 3,25
(Rappel : I g(0)).
√ √ √ √
I [4 ( ) + 3( ) + 2 + 4( ) + 3( ) + 2]
√ √ √ √
= ( ) [4 ( )+3+2+( ) *( ) + 3+ + 2]
[ ]
√ √
= *( ) 45 2√ 5 + ( ) 45 + 2√ 5 + 4+
= ,4 + 4- = 4.
I =∫ sinx dx.
On pose : x = = (t + 1) ; dx = dt ; on a :
(t + 1) (t + 1)
∫ sinx dx 6sin 4 5 + sin 4 57
4 4
= (sin(0,331948322) + sin(1,238848005)
= 0,998472614.
(t + 1) (t + 1) (t + 1)
∫ sinx dx 6 sin 4 5+ sin 4 5+ sin 4 57
4 4 4 4
= ((0,555555556) sin(0,177031362)
+ (0,888888889) sin(0,785398164)
+ (0,555555556) sin(1,774596669))
= 1,0000081821.
On pose : x = et dx = dt. On a :
√
∫ dx = ∫ = ∫
√ √ √
√
∫ dx * + + = 1,65068013
√ √ √ / √√ /
6.1. INTRODUCTION
On considère une fonction continue f : R x R → R.
Pour yo R donné, on cherche y : R → R
x y(x)
qui satisfait le problème suivant, appelé problème de Cauchy :
où y (x)= .
Exemples :
- Un problème de Cauchy peut être linéaire, comme par exemple :
y (x) = 3y(x) 3x si x 0
{ (6.2)
y(0) = 1
y (x) = √y(x) si x 0
8 (6.3)
y(0) = 0
avec f(x,u) = √ . Ce problème admet les trois solutions suivantes :
- Le problème suivant :
( ) =1+ ( )si x 0
{ (6.4)
y(0) = 0
h= (6.7)
ce qui donne
xk = xo + kh (6.8)
Les schémas à pas multiples : ce sont des schémas tels que yn+1
dépend de plusieurs valeurs précédentes yn, yn-1,… ,yn-p.
que l’on appelle schéma d’Euler retrograde. On dit que ce schéma est
implicite car yn+1 est défini implicitement comme solution de l’équation
u = yn + g(x,u),
qui en général est non linéaire. On fait alors appel à des méthodes de
type point fixe ou Newton. Cependant, comme le pas h est petit, le
nombre d’itérations nécessaire en pratique est petit : parfois même une
seule suffit.
Il reste à initialiser le processus avec une première estimation de yn+1
qui peut être yn.
Algorithme
1. Etant donné un pas h, une condition initiale (xo,yo) et un nombre
maximal d’itérations N.
2. Pour 0 n N:
yn+1 = yn + h f(xn,yn)
xn+1 = xn + h
Ecrire xn+1 et xn
3. Arrêt.
Exemple : Soit l’équation différentielle
y =y+x
{ (i)
y(0) = 1
On veut approcher la solution de l’équation (i) en x = 1 { l’aide du
schéma d’Euler simple, en subdivisant l’intervalle ,0,1- en dix intervalles
partiels de même longueur.
Selon la formule de récurrence
yk+1 = yk + h f(xk, yk), k = 0,1,…, 9
on a pour h = = ,
y =y+x
{
y(0) = 1
f f f f
, , ,…,
x y x y x y
Ce qui rend les méthodes en question difficiles à utiliser.
6.3.3. Schémas prédicteurs-correcteurs
A partir du schéma implicite d’Euler (6.15), on peut
construire un nouveau schéma dit prédicteur-correcteur de la manière
suivante :
- On détermine une première estimation grossière de yn+1, notée ŷn+1, on
peut recourir par exemple { la méthode d’Euler explicite (6.14).
- On améliore cette estimation en s’inspirant du schéma d’Euler
rétrograde.
On obtient le schéma :
ŷ = y + hf(x , y )
{ (6.23)
y = y + hf(x , ŷ )
Dans le langage devenu classique pour ces méthodes, on dit que l’on fait
d’abord une prédiction (ŷ ) { l’aide du schéma explicite, puis une
correction à l’aide du schéma implicite. En outre, on peut être conduit à
itérer sur les corrections.
Si l’on utilise la méthode des trapèzes pour calculer
l’intégrale de
y(xn+1) = y(xn) + ∫ f(x, y(x))dx
On obtient l’expression
y(xn+1)=y(xn)+ .f(x , y(x )) + f(x , y( x ))/ y ( ) (ξ),
oùξ ,x , x -
Le terme y ( ) correspond à la dérivée seconde par rapport à x de la
fonction x → f(x, y(x)). Ceci conduit au schéma suivant :
yn+1 = yn + (f(xn,yn) + f(xn+1,ŷn+1)), 0 n N-1 (6.24)
qui est implicite, comme le schéma (6.15).
On peut, comme précédemment, construire un schéma prédicteur-
correcteur inspiré de ce schéma implicite, c’est le schéma prédicteur-
correcteur d’Euler-Cauchy :
ŷn+1 = yn + h(f(xn, yn)
yn+1 = yn + (f(xn, yn) + f(xn+1,ŷn+1)), 0 n N-1 (6.25)
3. Arrêt.
Remarque
y =y+x
{
y(0) = 1
Itération 1 : ŷ = 1 + 0,1(1+ 0) = 1,1 qui est le résultat obtenu à l’aide du
schéma d’Euler simple.
La deuxième étape donne :
y1 = yo + (f(xo, yo) + f(xo+h, ̂))
y
,
= 1 + ((1+ 0) + (1,1+ 0,1))
= 1,11.
Itération 2 : De même, la première étape de la deuxième itération donne :
,
= 1,11 + ((1,11+ 0,1)+(1,231 + 0,2))
= 1,24205.
Pour contourner la difficulté rencontrée dans la méthode de Taylor on
développe les méthodes de Runge-Kutta.
Algorithme
3. Arrêt.
Remarque
2. Pour 0 n N:
k1 = hf(x , y )
k2 = h( .x + , y + /)
k3 = h( .x + , y + /)
k4 = h( (x + h, y + k ))
yn+1 = yn + (k1 + 2k2 + 2k3 + k4)
Ecrire xn+1 et yn+1.
3. Arrêt.
Ce qui entraîne :
xn = x + nh.
Définition 6.1
Définition 2
(h) h ;
Définition 6.3
Le schéma
y(x ) = y
{
y = y + h Ф(x , y , h), 0 n N 1, h = T/N
Définition 6.4
Le schéma
est dit stable s’il existe une constante M telle que pour tout y , pour tout
uo, pour tout h h et pour toute suite (ε ), les suites (y ) et (u ) définies
par les relations :
y = y + h Ф(x , y , h)
u = u + h Ф(x , y , h) (6.35)
vérifient la condition :
i = 1, … , N, |y u| M(|y u |) + ∑ |ε | (6.36)
Prof. Dr. TAMBA OF’R Gordien E-mail :gordientamba23@gmail.com
107
Proposition 6.1
Pour qu’un schéma soit stable, il suffit qu’il existe une constante une
constante 𝛬 telle que :
x ,x , x + T-, y, u R, h ,0, h -, |Ф(x, y, h) Ф(x, u, h)| |y u| .
Théorème 6.2
Ou encore :
y(xn+1) – y(xn) = ∫ f(t, y(t))dt
( )
= yn + (xn+1- xn) fn + .
= yn + (3f f )
ou encore :
yn+1 = yn + (3f(x , y ) + f(x y ))
Formules d’Adams-Bashforth
yn+1 = yn + hfn (Ordre 1)
yn+1 = yn + (3f f ) (Ordre 2)
yn+1 = yn + (23f 16f + 5f ) (Ordre 3)
yn+1 = yn + (55f 59f + 37f 9f ) (Ordre 4)
Remarque
Formules d’Adams-Moulton
Les formules d’Adams-Moulton sont dites implicites, car les relations qui
permettent d’évaluer yn+1 dépendent de yn+1 lui-même. Pour contourner
cette difficulté, on combine les formules d’Adams-Bashforth et d’Adams-
Moulton en des schémas dits prédicteurs-correcteurs. On utilise les
schémas d’Adams-Bashforth pour obtenir une première approximation
y de y , qui est l’étape de prédiction. On fait ensuite appel aux
formules d’Adams-Mouton pour corriger et éventuellement corriger
cette approximation. Dans ce cas, l’évaluation de f dans les formules
d’Adams-Moulton repose sur l’emploi de y , c’est-à-dire :
fn+1 y = f(tn+1, y ).
Schémas de prédiction-correction
y = yn + hfn
yn+1 = yn + hf (Ordre 1)
y = yn + (3f f )
yn+1 = yn + (f +f ) (Ordre 2)
y = yn + (23f 16f + 5f )
yn+1 = yn + (5f + 8f f )(0rdre 3)
y = yn + (55f 59f + 37f 9f )
yn+1 = yn + (9f + 19f 5f +f )(Ordre 4)
Remarque
y =y+x
{
y(0) = 1
avec h = 0,1.
Faisons appel aux méthodes de prédiction-correction d’ordres 2 et 4. Les
premiers pas de temps sont calculés par une méthode de Runge-Kutta
d’ordre 4 qui a déj{ servi { résoudre cette équation différentielle. La
méthode de prédiction-correction d’ordre 2 requiert la connaissance de
yo qui vaut 1, et y1, qui a été calculé au préalable { l’aide de la méthode de
Runge-Kutta et qui vaut 1,29191667 (une méthode de Runge-Kutta
d’ordre 2 aurait été suffisante).
BIBLIOGRAPHIE
1. Chehab, J.P. (2009). Interpolation polynomiale (notes de cours),
Université de Picardie Jules Verne, LAMFA
CNRS 6140.
2. Ciarlet, P. G. (1982). Introduction { l’analyse numérique matricielle
et { l’optimisation, Ed. Masson.
3. Croisille. J.P. (2009). Interpolation spline, Master de
Mathématiques M1, Université Paul Verlaine,
Metz.
4. Demailly, J.-P. (2000). Analyse numérique et équations différentielles.
Coll. Sciences, Presses Universitaires de Grenoble.
5. Dudok de Wit, T. (2008). Analyse numérique. Université d’Orléans.
6. Fortin, A. (1996). Analyse numérique pour ingénieurs. Deuxième
édition, Prix Roberval 1996, Presses Internationales
Polytechniques, Montréal.
7. Guilpin, C. (1999). Manuel de calcul numérique appliqué. EDP
Sciences
8. Schatzman, M. (2000). Analyse numérique. Cours et exercices.