Académique Documents
Professionnel Documents
Culture Documents
1.2.6 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
c
3 Approximation des solutions de l’equation non linéaire f ( x) = 0 33
4 Problèmes d’interpolation 47
c
Chapitre 1
Ax = b (1.1)
a2,1 a2,2 a2,n b2 x2
. . .
. .
, b = , b =
. . . . .
. . . . .
an,1 an,2 . . . an,n bn xn
c
1.1. Position du problème :
a1,1 x1 + a1,2 x2 +..... + a1,n xn = b1
a2,1 x1 + a2,2 x2 +..... + a2,n xn = b2
.
(1.2).
.
.
a x + a x +..... + a x = b
n,1 1 n,2 2 n,n n n
xn = bn / an,n
et pour i = n − 1, n − 2, ....3, 2, 1 :
c
1.2. Méthode de Gauss
4 8 12 4
A = 3 et b = 5 (1.3)
8 13
2 9 18 11
Première étape,
ça consiste à diviser la première équation de (1.4) par a11 = 4
SMA - SMI - S4
c
1.2. Méthode de Gauss
x +2x2 +3x3 = 1
1
2x2 +4x3 = 2 (1.6)
5x2 +12x3 = 9
Deuxième étape,
nous divisons la deuxième équation (1.6) par 2 (le deuxième
pivot). Nous obtenons :
x2 +2x3 = 1 (1.7)
Et par la suite :
x +2x2 +3x3 = 1
1
x2 +2x3 = 1 (1.8)
2x3 = 4
Dernière étape,
finalement, il suffit de diviser la troisième équation par le troisième
pivot, qui est ici 2, pour obtenir :
x +2x2 +3x3 = 1
1
x2 +2x3 = 1 (1.9)
SMA - SMI - S4
x3 = 2
x3 = 2 x2 = −3 x1 = 1.
c
1.2. Méthode de Gauss
étape. Nous divisons la ième ligne de A(i) par le ième pivot aii(i)
i ème
SMA - SMI - S4
(i + 1 ) (i ) (i )
b 0 = bi − m ji ∗ bi (1.12)
j
c
1.2. Méthode de Gauss
↓ k − ième colonne
1 0 0 0
0 . . .
0 . . .
. . 0 . .
. 1 . . . ←−−−−−−−−−
Mk = k − i ème ligne (1.1
. −mk+1,k .1 .
. . . . .
. . . 0 .
. . 1 0
0 −mn,k 0 0 1
(k)
aik
où mi,k = (k)
akk
i = k + 1, k + 2, ..., n en supposant que a(kkk) 6= 0,
SMA - SMI - S4
En posant ek = (0, ....., 1, 0, ..., 0)T et mk = (0, 0, ....., −mk+1,k , ...., −mn,k )T ,on obtient
Mk = I + mk ekT et on vérifie que Mk est inversible et que Mk−1 = I − mk ekT
c
1.2. Méthode de Gauss
c
1.2. Méthode de Gauss
(1)
det A1 = det A1
(1) (2)
det A2 = a11 det A2
(1) (2) (3)
det A3 = a11 a22 det A3
.
.
(1.15)
.
(1) (2) (i − 1 ) (i )
det Ai = a11 a22 .....ai−1,i−1 det Ai
.
.
.
0x1 + x2 +3x3 = 1
(1.16)
SMA - SMI - S4
10
c
1.2. Méthode de Gauss
6x1 +8x2 + x3 = 1
5x1 +2x2 +3x3 = 4 (1.17)
0x1 + x2 +3x3 = 1
−10
10 x1 + x2 = 1
m21 = 1010 et
(−1 − 1010 ) x = −1010
2
Ce qui donne x1 ' 0, x2 ' 1 à cause des arrondis des résultats avec
neuf premiers chiffres significatifs.
(ii) Si on adopte la stratégie du pivot partiel qui consiste
à mettre en première ligne celle dont le coefficient de x1 est le
plus grand en module alors on permute les lignes pour obtenir
11
c
1.2. Méthode de Gauss
x1 − x2 = 0
10−10 x + x = 1
1 2
. 1
Plk = 1 Pll = 0 .
.
0 1
12
c
1.2. Méthode de Gauss
1.2.6 Factorisation LU
13
c
1.2. Méthode de Gauss
PM = LU
En appliquant l’algorithme
14
c
1.2. Méthode de Gauss
∼
P(i+1) Mi = Mi P(i+1) car P(i+1) . P(i+1) = I.
1 0 0 0
0 1 0 0
∼
P(3) M2 P(3) = = M2
0
b 1 0
0 a 0 1
∼
∼ ∼
SMA - SMI - S4
∼
∼
où M1 est encore une matrice triangulaire inférieure avec des 1
sur la diagonale. On en déduit que
∼
∼ ∼
M3 M2 M1 P(3) P(2) P(1) A = U,
15
c
1.3. Méthode de Choleski
soit encore PA = LU où P = P(3) P(2) P(1) est bien une matrice de permutation
∼
∼ ∼
et L = ( M 3 M 2 M 1 )−1
est une matrice triangulaire inférieure avec des
1 sur la diagonale.
Le raisonnement pour n=4 se généralise facilement à n arbitraire.
Dans ce cas, l’échelonnement de la matrice s’écrit
Et se transforme en
et donc L1 = L2 et U1 = U 2 .
SMA - SMI - S4
c
1.3. Méthode de Choleski
1 −0 0 2 −1 0
A = LU = −0.5 −1
1 0 0 3/2
0 −2/3 1 0 0 4/3
2 0 1 −1/2 0
U = 0 −2/3
3/2 0 1
0 4/3 0 0 1
c
1.3. Méthode de Choleski
18
c
1.3. Méthode de Choleski
B a
A =
aT α
∼∼ T
Avec b ∈ IRn et λ ∈ IR∗+ tels que A = L L . Pour déterminer b et λ,
∼∼ T
calculons L L = A, et on veut que les égalités suivantes soient
vérifiées :
Mb = a et bT b + λ2 = α
SMA - SMI - S4
Comme M est inversible (en effet det ( M) = Πin=1 mii > 0), la première
égalité ci-dessous donne : b−1 = Ma et en remplaçons dans la deuxième
égalité, on obtient :
( M−1 a)T ( Ma) + λ 2 = α, et donc aT ( M T )−1 ( M−1 a) + λ 2 = α soit encore aT ( MM T )−1 a + λ 2 =
c’est à dire
a T B−1 a + λ 2 = α (2.1)
19
c
1.3. Méthode de Choleski
∼ ∼∼ T
L est bien triangulaire inférieure et vérifie lii > 0 et A = L L .
On a terminé ainsi la partie existence.
∼
2. Unicité et calcul de L Soit donc A ∈ Mn ( IR) s.d.p ; on vient de
SMA - SMI - S4
∼
montrer qu’il existe donc L∈ Mn ( IR) triangulaire inférieure telle
∼∼ T
que lii > 0 et A = L L . On a donc
∼
1. Calculons la première colonne de L ; pour j = 1, on a
a11 = l 11 l11 (l 1 j = 0, ∀ j ≥ 2);et donc l11 =√a11
a21 = l 21 l11 (l 2 j = 0, ∀ j ≥ 3); l 21 = al 21
11
.
20
c
1.3. Méthode de Choleski
.
.
ai1 = l i1 l11 li1 = lai1 ∀i ∈ {2, ...., n} .
11
∼
2. On suppose avoir calculé les q premières colonnes de L. On
calcul la colonne (q+1) en prenant j=q+1 dans (2
q+1
pour i = q + 1 aq+1q+1 = ∑k=1 lq+1k lq+1k ; lq+1k = 0 pour k ≥ q + 2
q
q q
= ∑k=1 lq2+1k +l q+1q+1 =⇒ l q+1q+1 = aq+1q+1 − ∑k=1 lq2
∼
Notons que aq+1q+1 − ∑qk=1 lq2+1k > 0 car L existe.
On procède de la même manière pour q + 2, ....., n on a :
q+1 q
aiq+1 = ∑k=1 lik lq+1k = ∑k=1 lik lq+1k +l iq+1 lq+1q+1
Et donc
q 1
liq+1 = ( aiq+1 − ∑k=1 lik lq+1k ) l
q+1q+1
∼
On calcule ainsi toutes les colonnes de L. On a donc démontré
∼ ∼
que L est unique par moyen constructif de calcul de L.
SMA - SMI - S4
21
c
Chapitre 2
Proposition 1.2 Soit Mn ( IR) muni d’une norme induite ||.||. Alors
pour toute matrice A ∈ Mn ( IR), on a :
1.|| Ax|| ≤ || A|| ||X || ∀ x ∈ IRn .
22
c
2.1. Rappels : normes, rayon spectral
Preuve 1. Soit x ∈ IRn − {0} posons y = ||xx|| , alors || y|| = 1 donc || Ay|| ≤
|| A|| (car || A|| = sup || Ax||) et donc A ||xx|| ≤ || A|| c’est à dire || Ax|| ≤
|| x||=1
|| A|| × || X || ∀ x ∈ IRn − {0} .
c
2.1. Rappels : normes, rayon spectral
|| A|| A,ε ≤ ρ( A) + ε
Ak → 0 qd k → +∞.
24
c
2.1. Rappels : normes, rayon spectral
ρ( A) ≤ || A|| .
1
1−|| A||.
.
Démonstration :
1. Si ρ( A) < 1, les valeurs propres de A sont toutes différentes de
1 et −1. Donc 0 n’est pas valeur propre des matrices I + A et I − A,
qui sont donc inversibles.
25
c
2.2. Méthodes itératives :
26
c
2.2. Méthodes itératives :
Enfin, on veut que cette suite soit à calculer. Une idée est de
travailler avec une matrice P inversible qui soit ”proche” de A,
mais plus facile à inverser que A.
On appelle matrice de pré conditionnement cette matrice. On
écrit alors A = P − (P − A) = P − N, et on réécrit le système Ax = b sous
forme :
Px = ( P − A) x + b = Nx + b
Lemme 2.1.3 : La suite ( e(k) )k∈ I N définie par (2.2) est également
définie par
e(0) = x(0) − x et e(k) = x(k) − x = Bk e(0) (2.3)
27
c
2.2. Méthodes itératives :
2. S’il existe une norme induite ||.|| telle que ||B|| < 1 et donc
ρ( B) < 1 et donc d’aprés le corollaire 1.6 la méthode converge.
(k+1) ∼ ∼(k)
Théorème 2.1.5 : Considérons deux méthodes itératives ∼x =T x
∼
+c
∼ (0)
et x(k+1) = Tx(k) +c avec ρ(T ) < ρ(T ) et x(0) =∼x alors ∀ε > 0 ∃k0 > 0 tq
∼(k) ∼
ρ( T )
k > k0 sup ee(k) ≥ ( ρ(T )+ε )k .
c
2.3. Description des méithodes classiques
(k+1) (k)
xi = − a1ii ∑ j6=i ai j x j + abiii pour i = 1, 2....., n
Explicitement, on obtient
(k+1) (k) (k) (k)
a11 x1 = − a12 x2 − a12 x2 −........... − a1n xn +b1
.
.
SMA - SMI - S4
.
(k+1) (k) (k) (k) (k)
an1 x1 = − an1 x1 − an2 x2 − an2 x2 −........ − ann−1 xn−1 +bn
Théorème 3.1.2
29
c
2.3. Description des méithodes classiques
Corollaire 3.1.3
ou encore
SMA - SMI - S4
et
30
c
2.3. Description des méithodes classiques
Preuve Posons BGS = (D − L)−1 U et montrons que ||BGS ||∞ < 1 où ||BGS ||∞ =
|| BGS x||∞
sup || x||∞
x6=0
Soit y = BGS x = (D − L)−1 Ux alors (D − L) y = Ux ou encore Dy = Ly + Ux
et y = D−1 Ly + D−1 Ux. Considérons l’indice i0 tq
yi0 = max | yi | = || y||∞ = || BGS x||∞
i
Il vient yi0 = ∑ij0=−11 (D−1 L)i0 j y j + ∑nj=i0 +1 (D−1 U )i0 j x j
par suite yi0 = || y||∞ ≤ ∑ij0=−11 aaii00i0j . || y||∞ + ∑nj=i0 +1 ai0 j
ai0 i0 .||x||∞
SMA - SMI - S4
Finalement
|| BGS x||∞
max < 1.
x6=0 || x||∞
31
c
2.3. Description des méithodes classiques
Bw = ( w1 D − L)−1 ( 1−ww D + U ).
32
c
Chapitre 3
| g( x) − g( y)| ≤ k | x − y| .
c
3.1. Rappels et notations :
+....+ n!1 (b − a)n f (n) ( a)+ (n+1 1)! (b − a)n+1 f (n+1) (c).
34
c
3.1. Rappels et notations :
|en+1 |
lim p = c
x→+∞ |en |
35
c
3.1. Rappels et notations :
36
c
3.1. Rappels et notations :
et par la suite
1 n
1−k k | x1 − x0 | ≤ ε.
Donc pour tout ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0
on ait :
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | ≤ ε.
( xn )n∈ I N est de Cauchy et par conséquent elle converge vers
une limite θ. Comme g est continue sur [ a, b], et que xn+1 =
g( xn ) et que xn ∈ [ a, b] ∀n ∈ I N alors on a lim xn = θ = g(θ ),
+∞
SMA - SMI - S4
37
c
3.1. Rappels et notations :
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 |
on obtient :
|θ − xn | ≤ 1 n
1−k k | x1 − x0 | ∀n ∈ I N ∗ .
∀ x ∈ I = [θ − ε, θ + ε] g(1) ( x ) ≤ k < 1
a:
∀ x ∈ I = [θ − ε, θ + ε] | g( x) − θ | ≤ | x − θ | .
c
3.2. Méthode de Newton et méthode de la corde
Newton :
f ( xn )
xn+1 = xn − f (1) ( xn )
n = 0, 1, ....... (3.2.1)
39
c
3.2. Méthode de Newton et méthode de la corde
f ( x)
g( x) = x − f (1) ( x)
alors f ( x) = 0 ⇐⇒ x = g( x) (du moins
au voisinage de θ pour lequel f (1) ( x) 6= 0) et (3.2.1) s’écrit
x n + 1 = g ( x n ).
R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|
| g( x) − g(θ )| ≤ k | x − θ | ≤ | x − θ | ≤ ε.
40
c
3.2. Méthode de Newton et méthode de la corde
f ( xn ) (2)
f 1) ( xn )
( + θ − xn + 2ff (1)((ξxθ )) ( x − xn )2 = 0
n
Pour obtenir
| xn+1 − θ | ≤ C | x − xn |2
41
c
3.2. Méthode de Newton et méthode de la corde
x n+1 = g ( x n )
(1) f (1) ( x)
g ( x) = 1 − f (1) ( x0 )
<k ∀ x ∈ I.
SMA - SMI - S4
et par la suite on a
R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|
si y = θ, on a | g( x) − g(θ )| ≤ k | x − θ | , c à d | g( x) − θ | ≤
k |x − θ|
42
c
3.3. Méthode de dichotomie :
1. [ ak+1 , bk+1 ] ⊂ [ ak , bk ] .
bk − ak b0 − a0
2. bk+1 − ak+1 = 2 = 2k+1
.
3. la suite ck converge vers θ.
b− a
4. |ck − θ | ≤ 2k+1
.
43
c
3.3. Méthode de dichotomie :
bk − ak = (b − a)/2k
En d’auters termes :
ck → θ qd k → +∞.
|ck − θ | ≤ (b − a)/2n+1 ≤ ε,
b− a
ε ≤ 2n+1 ⇐⇒ n ≥ ln(b−lna)−2
Lnε
− 1.
44
c
3.4. Méthode de la fausse position (Fegula Falsi)
−bk
Elle coupe l’axe Ox au point : M(ck , 0) où ck = ak + f ( ak ) f (aak)− f (b )
.
k k
45
c
3.4. Méthode de la fausse position (Fegula Falsi)
46
c
Chapitre 4
Problèmes d’interpolation
47
c
4.2. Interpolation de LAGRANGE
1 t0 t20 . . . . . . . tn0
t21 tn1
1 t1 . . . . . . .
. . . .
. . . .
. . . .
T =
. . . .
. . . .
. . . .
. . .
. . .
1 tn t2n tnn
c
4.2. Interpolation de LAGRANGE
(iii) ϕk (tk ) = 1
A chaque point tk nous avons donc associé un polynôme ϕk de
degré n valant 1 en tk et zéro aux autres points t j , j 6= k.
Les polynômes ϕ0 , ϕ1 , ϕ2 , ...., ϕn sont linéairements indépendants.
En effet ∀t ∈ IR, si a0 , a1 , a2 , ...., an sont n + 1 nombres réels tels que
∑nj=0 α jϕ j (t) = 0 (∀t ∈ IR), alors pour t = tk nous obtenons :
0 = ∑nj=0 α jϕ j (tk ) = α k ,
Définition 1.1 : Nous dirons que (ϕ0 , ..., ϕk , ...., ϕn ) est base de Lagrange
SMA - SMI - S4
49
c
4.3. Interpolation d’une fonction continue par un polynôme
(t−t0 )(t−t1 )
ϕ2 ( t ) = (t = 0.5t2 +0.5t (4.8)
2 −t1 )(t2 −t1 )
p(t) = 4t2 −t + 3.
50
c
4.4. Existance et unicité de l’interpolant
p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ..... + pnϕn (t) = ∑nj=0 p jϕ j (t),
51
c
4.4. Existance et unicité de l’interpolant
Preuve : Existence :
Soit
(t−t0 )(t−t1 )................(t−ti−1 )(t−ti+1 )..........(t−tn )
Li ( t ) = (t −t
i 0 )(ti −t1 )................ (ti −tk−1 )(ti −ti +1 ).......... (ti −tn )
Unicité :
Supposons qu’il existe deux polynômes pn et qn de degré ≤ n,
interpolant f aux points t0 , t1 , t2 , ...., tn , en posant
dn = pn −qn , on arrive à une contradiction. En effet, dn est un polynôme
de degré ≤ n et par conséquent il peut avoir au plus n zéros, mais
d’autre part dn (tk ) = 0, pour 0 ≤ k ≤ n ce qui voudrait dire que dn
aurait n + 1 zéros d’où la contradiction donc pn = qn .
avec
Πn+1 ( x) = ∏in=0 ( x − xi )
b. En posant
SMA - SMI - S4
On obtient :
Mn+1
max | f ( x) − pn ( x)| ≤ (n+1)! x∈[ a,b] | n+1
max Π ( x)|
x∈[ a,b]
et en particulier :
M
max | f ( x) − pn ( x)| ≤ (n+n+11)! (b − a)n+1 .
x∈[ a,b]
52
c
4.4. Existance et unicité de l’interpolant
et
R( x) = en ( x) − en ( x) = 0.
53
c
4.4. Existance et unicité de l’interpolant
2 Interpolation de Newton :
.
.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0 pour i ≥ 2.
on obtient :
f [ x0 ] = 2
f [ x0 , x1 ] = −1
f [ x1 ] = 1
f [ x2 ] = −1
f [ x1 , x2 ] = −2
f [ x0 , x1 , x2 ] = −0.5.
f ( x1 )− f ( x0 ) f (x ) f (x )
f [ x0 , x1 ] = x1 − x0 = f [ x1 , x0 ] = x0 −0x1 + x1 −1x0
f ( x0 ) f ( x1 ) f ( x2 )
f [ x0 , x1 , x2 ] = ( x0 − x1 )( x0 − x2 )
+ ( x1 − x0 )( x1 − x2 )
+ ( x2 − x0 )( x2 − x1 )
= f [ x0 , x1 , x2 ]
= f [ x1 , x2 , x0 ] = f [ x2 , x1 , x0 ] .
De façon générale :
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0
f ( x0 ) f ( x1 )
= ( x0 − x1 )( x0 − x2 )......( x0 − xi )
+ ( x1 − x0 )( x1 − x2 ).........( x1 − xi )
+ ..
f ( xi )
..... + (x −x .
i 0 )( xi − x2 )......... ( xi − xi −1 )
54
c
4.4. Existance et unicité de l’interpolant
f [ x0 ] = 2
f [ x0 , x2 ] = −1
f [ x1 , x2 ] = −2
f [ x0 , x1 , x2 ] = −0.5
pn ( x) = 1 − 1.5x − 0.5x2 .
55
c
4.4. Existance et unicité de l’interpolant
∑in=0 ci Ni ( x) = 0
0 = ∑in=0 ci Ni ( x1 ) = c0 N0 ( x1 ) + c1 N1 ( x1 ) = c1 ( x1 − x0 ) ⇒ c1 = 0, car x1 6= x0
.
.
0 = ∑in=0 ci Ni ( xn ) = cn N1 ( xn ) = cn ( xn − x0 )( xn − x1 )........( xn − xn−2 )( xn − xn−1 ) ⇒ cn = 0,
pn ( x) = ∑in=0 Di Ni ( x).
on
obtient le système triangulaire inférieur suivant :
pn ( x0 ) = D 0 = f ( x0 )
p ( x ) = D 0 + D 1 N1 ( x1 ) = f ( x1 )
n 1
. ( S1 )
.
pn ( xn ) = D 0 + D 1 N1 ( xn ) + D 2 N2 ( xn ) + ........ + D n Nn ( xn ) = f ( xn )
D0 = f [ x 0 ]
D1 = f [ x 0 , x 2 ]
.
.
.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
Di = xi − x 0 = f [ x0 , ..., xi ] pour i ≥ 2.
56
c
4.4. Existance et unicité de l’interpolant
D4 = 0.000104,
D5 = −0.000002.
SMA - SMI - S4
57
c
Chapitre 5
58
c
5.1. Dérivation numérique
Donc
0
p ( x) = f [ xi−1 , xi ] + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( xi − xi−1 )
hi = xi +1 − xi (5.4)
0 f ( xi+1 )− f ( xi−1 )
f ( xi ) ' 2h (5.5)
59
c
5.2. Intégration numérique.
Soit
h = max | xi+1 − xi |
0 ≤i ≤ N − 1
60
c
5.2. Intégration numérique.
que nous allons approcher dans la suite par des formules appelées
”formules de quadrature”. Mentionnons encore que souvant,
pour donner des formules de quadrature sur un intervalle standart
(par exemple [−1, 1] ,on exécute un changement de variable de la
forme :
t = 2 x x−−xix −1 (5.2.4)
i +1 i
et par la suite
SMA - SMI - S4
R xi +1 R1
xi f ( x)dx = ( xi+1 − xi ) 12 −1
gi (t)dt (5.2.6)
où
61
c
5.2. Intégration numérique.
J ( gi ) = ∑ M
j=1 w j gi ( t j ) (5.2.8)
dé f
J ( gi +l i ) = α J ( gi ) + βJ (l i ).
t1 = −1, t2 = 1, w1 = 1, w2 = 1
et donc
fig.
62
c
5.2. Intégration numérique.
( xi +1 − xi ) t+1
2 ∑M
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.11)
composite” :
( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 ∑M t+1
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.12)
( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 [ f ( xi ) + f ( xi+1 )] (3.13).
63
c
5.2. Intégration numérique.
J ( gi ) = ∑ M
j=1 w j gi ( t j ) .
dé f
Pour calculer numériquement −11 gi (t)dt est exacte pour tout polynôme
R
assez régulière.
J ( gi ) = ∑ M
j=1 w j gi ( t j )
dé f
pour calculer numériquement −11 gi (t)dt soit exacte pour des polynômes
R
64
c
5.3. Poids d’une formule de quadrature.
par 2!
En fait, l’inégalité (3.14) montre que , lorsque la partition est
finie (h petit), l’erreur obtenue en approchant ab f (x)dx par Lh ( f ) est
R
c
5.3. Poids d’une formule de quadrature.
∼
g (t) = ∑ M
j=1 g ( t j )ϕ j ( t )
R1 ∼
Il semble naturel de remplacer par g (t)dt,puisque
R1
−1
g(t)dt −1
R1 ∼ R1
−1
g (t)dt = ∑ M
j=1 g ( t j ) −1
ϕ j (t)dt,
Théorème 3.2 : Soit t1 < ..... < t M M points distincts de [−1, 1] et soit
(ϕ1 , ϕ2 , ..., ϕ M ) la base de Lagrange de IP M−1 assoviée à ces M points.
Alors la formule de quadrature :
J ( g) = ∑ M
j=1 w j g ( t j )
c
5.3. Poids d’une formule de quadrature.
R1
J (ϕk ) = ∑ M
j=1 w jϕk ( t j ) = −1
ϕk (t)dt
p(t) = ∑ M
j=1 p ( t j )ϕ j ( t )
Ainsi donc
R1 R1
−1
p(t)dt = ∑ M
j=1 p ( t j ) −1
ϕ j (t)dt = ∑ M
j=1 p ( t j ) w j = J ( p ) .
j=1 w j = −1 j=1 ϕk ( t j ) dt = −1
dt = 2.
Ce qui prouve que la somme des poids caclculés par (3.17) est
toujours égale à 2.
67
c
5.3. Poids d’une formule de quadrature.
c
5.3. Poids d’une formule de quadrature.
xi +1 + xi
Lh ( f ) = ∑iN=−1 1 ( xi+1 − xi ) f ( 2 ) (3.19)
h i
Lh ( f ) =∑iN=−1 1 (xi+16−xi ) x +x
f ( xi ) + 4 f ( i+12 i ) + f ( xi +1 ) (3.22)
c
5.3. Poids d’une formule de quadrature.
Rb
a
f (t)dt − Lh ( f ) ≤ Ch4 .
70