Vous êtes sur la page 1sur 26

ANNÉE UNIVERSITAIRE : 2019-2020

Méthodes Numériques
Rédigé par
Mr Nirina Albert
Émail : nirina.albert@aims-cameroon.org
Tel : +261 34 50 807 92
Table des matières

1 Résolution des systèmes linéaires 2


1.1 Méthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Rappels sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 Méthode de remontée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.3 Élimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2 Méthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Résolution numérique des équations non linéaires 12
2.1 Le théorème des approximations successives . . . . . . . . . . . . . . . . . . . . . 12
2.2 Mise en forme du problème-Notations . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.1 Méthodes de point xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.2 Méthode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.3 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3 Approximation et interpolation 16
3.1 L'interpolation polynomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2 Diérences divisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Erreur d'interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Fonctions-spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Intégration numérique 20
4.1 Méthodes composites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.2 Méthode des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1.3 Méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.4 Méthode de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Analyse de l'erreur dans les méthodes d'intégration . . . . . . . . . . . . . . . . . 23
4.2.1 Théorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2.2 Application aux méthodes usuelles . . . . . . . . . . . . . . . . . . . . . . 24

1
1 Résolution des systèmes linéaires
1.1 Méthodes directes
1.1.1 Rappels sur les matrices
On note par Mn R l'ensemble des matrices carrées n  n à coecients dans R.
( )

Dénition 1.1.1. Soit A 2 Mn R une matrice carrée d'ordre n. On dit que :


( )

 A est inversible s'il existe une matrice notée A telle que AA A A In et singu-
1 1 1

lière ou non inversible dans le cas contraire.


= =

 A est symétrique si At A (autrement dit si aji aij ) et antisymétrique si At A.


= = =

Dénition 1.1.2. Une matrice L est dite triangulaire inférieure si elle est de la forme :
a 
 
.. . . . . . . ..
11 0 0

..
 
L= ...
 

 
0

an       ann
 
1

Une matrice U est dite triangulaire supérieure si elle est de la forme :


a   a n
 
11

... ..
1

.. . . . . . . ..
 
U 0
 
=  
 


 
0 0 ann
Une matrice D est dite diagonale si elle est de la forme :
a 
 
. . . ..
11 0 0

a
.. . . . . . .
 
D 0
 22

=  
 
0


 
0 0 ann
Dénition 1.1.3. On dit que la matrice A est semblable à la matrice B s'il existe une matrice
inversible P tel que
B = P AP 1

Dénition 1.1.4.
 Le polynôme caractéristique d'une matrice carrée A 2 Mn(K) est déni par
PA () = det(A In )
 Les racines de polynôme caractéristique de A sont appelés les valeurs propres de A.
2
 Le rayon spectral est le plus grand module des valeurs propres de A,
(A) = max (j j)
in i 1

avec les i sont tous les valeurs propres de A.


Soit A une matrice semblable à une matrice B, alors P
Proposition 1.1.5. A () = PB () .
Théorème 1.1.6. Toute matrice A est semblable à une matrice de la forme

A 1 0  0

A 
0
.. ..
0
 2

 
 
 
0 0    Ap
où A est une matrice carrée de polynôme caractéristique   . Si  ;  ;    ;  sont h

les valeurs propres distinctes de A, le polynôme caractéristique s'écrit


i ( i ) i 1 2 p

PA () = det(A I ) = ( 1 ) h ( 
1
2 )h    ( p )h
2 p

Dénition 1.1.7. Une matrice A est dite diagonalisable si elle semblable à une matrice dia-
gonale D de la forme :
 0  0
 
1

 0   0 
 


.. 2

.. 
0 0    p
Le conséquence du Théorème 1.1.6 est le suivant :
Corollaire 1.1.8. Soit A une matrice carrée d'ordre n. Si son polynôme caractéristique n'a
que des racines simples  ;  ;    ;  , alors A est diagonalisable.
1 2 n

PA () = det(A I ) = ( 1 )( 2 )    (n )


Dénition 1.1.9. Une matrice symétrique est dite dénie positive (resp. positive) si et seule-
ment si toutes ses valeurs propres sont > 0 (resp.  0).
1.1.2 Méthode de remontée
On se propose de résoudre le système linéaire de n équations à n inconnues :
a x a x    a n xn b


 11 1 + 12 2 + + 1 = 1

   a n xn b

a x +a x

..

21 1 22 2 + + 2 = 2



   annxn bn

a
n 1 x1 an x


+ 2 2 + + =

3
qui peut s'écrire sous forme matricielle :

a 11 a 12    a n  x  1 1
 
b 1

a a    a n x 
b
.. .. .. .. ..
21 22
  2 2 2

  
  = 
    
an an    ann
1 2 xn bn
| {z }| {z } | {z }
A X B
On suppose que la matrice A est inversible. Lorsque A est une matrice triangulaire supérieure
(ou inférieure), la résolution du système est immédiate
a x a x    a n xn b

..

 11 1 + 12 2 + + 1 = 1






 an ;n xn1 1 1 + an 1 ;n xn = bn 1

ann xn = bn


On calcule successivement xn à partir de la dernière équation, puis xn à partir de l'avant-


dernière et ainsi de suite. Ce qui donne
1



xn = bn =ann
xn = (bn an ;n xn ) =an

..

;n
 1 1 1 1 1



   a nxn =a

x b a x


1 = ( 1 12 2 1 ) 11

Algorithme de remontée :
 xn = bn=ann
 Pour i = n 1; n 2;    ; 2; 1 :
Pn
bi k=i+1 aik xk
xi =
aii
Exercice 1.1.10. Résoudre le système triangulaire suivant :
x
    
1 3 4 1 0

5  x
    
0 3 2 = 4 
0 0 3 x 3 6

Comment fait la transformation d'un système linéaire en un système triangulaire supérieure


ou inférieure, cela notre objectif dans la section suivante.
1.1.3 Élimination de Gauss
Exemple 1.1.11. Considérons le système linéaire : AX = B avec
   
4 8 12 4

A=
3 8 13 ;

B= 
5
2 9 18 11

4
Cet système peut s'écrire de la forme :
4x x x

+8 + 12 = 4

(1)

 1 2 3

3x + 8x1 2 + 13x 3 = 5

2x + 9x + 18x :


1 2 3 = 11

Première étape : La premier opération consiste à diviser la premier équation de (1) par a
(appelé premier pivot) pour obtenir :
11 = 4

x 1 +2 x 2 +3 x 3 (2)
= 1 :
Ensuite nous soustrayons fois de (2) à la deuxième de (1) et fois de (2) à la troisième équation
de (1). Nous obtenons un système équivalent à (1) :
3 2

x x x =1

1+ 2 +3

(3)

 2 3

2x 2 + 4x = 2 3

5x + 12x = 9



2 3

Deuxième étape : Nous divisons la deuxième équation de (3) par 2 (le deuxième pivot). Nous
obtenons :
x 2 +2 x 3 = 1 (4) :
Nous soustrayons fois (4) à la troisième équation de (3) et nous obtenons le système suivant :
5

x x + 3x = 1

1+ 2

(5)

 2 3

x + 2x = 1
2 3

2x = 4:



3

qui est équivalent au système (1).


Dernière étape : Finalement, il sut de diviser la troisième équation de (5) par le troisième
pivot, qui est encore ici 2, pour obtenir :
x x + 3x = 1

1+ 2

(6)

 2 3

x + 2x = 1
2 3

x = 4:



3

De (6), on peut déduire x ; x ; x par la méthode de remontée :


3 2 1

x 3 = 2 ;x 2 = 3;x 1 = 1 :
Nous présentons maintenant un algorithme qui, eectué par un ordinateur, permet de réaliser
l'éliminationk dont le mécanismek a été décrit dans l'exemple 1.1.11. Pour réaliser cet objectif, nous
appelons A la matrice et B le second membre obtenus avant la k-ième étape de l'élimination.
( ) ( )

5
Ainsi la matrice A k a la forme suivante :
( )

a k ak a k    a kk  a kn
 ( ) ( ) ( ) ( )

1 12 13 14 1 1

0 1 a k a k  ( )
23
( )
24
a kk
( )

2
 a kn 
( )
2

a k  ( )
a kk
( )
 k
a n
( )

0 0 1 34 3
3

 a kk  k
a n
 
( ) ( )

... .. ..
0 0 0 1

(7)
 4 4

A =
k

( )


 
 1

akkk   
 
k
( )
akn 
( )

.. ..

 0
 
 

ank    ann
 
k
( ) k
( )

Lakk-ième étape d'élimination consiste à passer du tableau A k au tableau A k et du tableau ( ) ( +1)

B au tableau B k par les opérations suivantes :


( ) ( +1)

k-ième étape : Nous divisons la k-ième ligne de A k par le k-ième pivot akkk pour obtenir ( ) ( )

akjk akjk =akkk ; j k ;    ; n:


( +1)
=
( ) ( )
= (8) +1

Nous faisons de même avec le second membre :


bkk bkk =akkk :
( +1)
=
( )
(9)
( )

Nous prenons ensuite la i-ième ligne de A k ; i k ; k ;    ; n; à la quelle nous


( )

retranchons aikk fois la ligne (8). Nous obtenons pour i k ; k ;    ; n :


= + 1 + 2
( )
= +1 +2

aijk ( +1)
aijk aikk akjk ; j k ; k ;    ; n:
=
( ) ( ) ( +1)
= (10)
+1 +2

De même pour le second membre :


bi k bik aikk bkk :
( +1)
=
( ) ( )
(11)
( +1)

Résumons, cet algorithme :


entrées : aij ;  i; j  n et bj ;  j  n représentant la matrice A et le second membre B
du système linéaire originel
1 1

sorties : aij ;  i < j  n et bj ;  j  n représentant la partie surdiagonale du système


triangulaire supérieur le nouveau second membre B
1 1

Algorithme :
 Pour k = 1; 2; 3;    ; n 1 : # Élimination de l'inconnue xk
 Inverse du k-ième pivot :
p = 1=akk
 Pour j k ; k ;    ; n :
= +1 +2

? division de la k-ième ligne par le k-ième pivot :


akj = p  akj
6
 division de bk pour k-ième pivot :
bk = p  bk
 Pour i k ; k
= +1 +2 ;    ; n : # Élimination dans le i-ième équation
 Pour j k + 1; k + 2;    ; n : # Soustraction de aik fois nouvelle k -ième ligne à la

k-ième ligne
=

aij = aij aij  akj


 Soustraction de aik fois bk à bi :
bi = bi aik  bk
 p =ann
= 1

 bn p  bn
=

En pratique, si le pivot, c'est-à-dire l'élément akkk situé à la k-ième ligne et à la k-ième


( )

colonne, est nul, l'algorithme n'est plus valable. On emploie dans ce cas des permutations de
lignes et de colonnes appelées stratégies de pivot.
1.1.4 Factorisation LU
Soit A 2 Mn R . Supposons qu'il existe deux matrices, L et U , respectivement triangulaire
inférieure et supérieure, telles que
( )

A LU = (12)
On appelle (12) factorisation (ou décomposition) LU de A. Remarquons que si A est singulier,
alors L et U sont aussi singuliers. Dans ce cas, résoudre AX B revient à résoudre deux
systèmes triangulaires
=

LY B; UX Y = (13) =

Puis, on utilise la méthode de remontée pour résoudre ces deux systèmes.


Exemple 1.1.12. Ecrivons la relation (12) pour une matrice quelconque A 2 M R 2( )

l u u a a
! ! !
11 0 11 12 11 12
:
l l u a a
=
21 22 0 22 21 22

Les 6 éléments inconnus de L et U doivent vérier les équations (non-linéaires) suivantes :


e l u a ; e l u a ;
(14)
(
( 1) 11 11 = 11 ( 2) 11 12 = 12

(e 3) l u 21 11 = a ;
21 (e 4) l u
21 12 +l u 22 22 = a :
22

Le système (14) est sous-déterminé puisqu'il comporte moins d'équations que d'inconnues. On
peut le compléter en xant arbitrairement les valeurs des coecients diagonaux de L, par exemple
en posant l et l . Le système (14) peut alors être résolu de la manière suivante : on
détermine les éléments u et u de la première ligne de U en utilisant e et e . Si u est
11 = 1 22 = 1

non nul, on déduit l de e (c'est-à-dire la première colonne de L, puisque l est déjà connu).
11 12 ( 1) ( 2) 11

On obtient alors, avec e , le seul élément non nul u de la deuxième ligne de U .


21 ( 3) 11

( 4) 22

7
Exemple 1.1.13. Reprenons les calculs dans le cas d'une matrice  . Pour déterminer les
coecients inconnus de L et U , on dispose des équations suivantes :
3 3 12

( e l u a ; e l u a ; e l u a ;

1) = ( 2) = ( 3) =

(15)

 11 11 11 11 12 12 11 13 13

( e
4) l u
21 11 = a ;21 (e 5) l u
21 12 +l u 22 22 = a ; (e
22 6) l u 21 13 +l u 22 23 =a ; 23

( e l u = a ; (e l u +l u = a ; (e l u +l u +l u a :


7) 31 11 31 8) 31 12 32 22 32 9) 31 13 32 23 33 33 = 33

Complétons ce système en posant lii pour i ; ; . Ainsi, on obtient u i a i; i ; ;


les coecients de la première ligne de U d'après les équations e ; e et e . Ensuite, en
= 1 = 1 2 3 1 = 1 = 1 2 3

utilisant e et e , on détermine les coecients l et l de la première colonne de L. Avec


( 1) ( 2) ( 3)

e et e , on peut alors calculer les coecients u et u de la deuxième ligne de U . Puis,


( 4) ( 7) 21 31

avec e , on détermine le coecient l de la seconde colonne de L. Enn, la dernière ligne de


( 5) ( 6) 22 23

U (qui se résume au seul élément u est obtenue en résolvant e .


( 8) 32

33 ) ( 9)

Pour une matrice inversible A 2 Mn R , on procède ainsi : ( )

1. les éléments de L et U satisfont le système d'équations non linéaires


i;j
(16)
min( )

lir urj = aij ; i; j = 1; 2;    ; n;


X

r=1

2. le système (16) est sous-déterminé; il y a en eet n équations et n n inconnues, la 2 2

factorisation LU ne peut donc être unique; il existe même une innité de matrices L et U
+

satisfaisant (16);
3. en xant la valeur pour les n éléments diagonaux de L, (16) devient un système déterminé
qui peut être résolu avec l'algorithme suivant :
1

(a) Décomposition LU
 Première colonne de L :
li ai =u pour i ;    ; n
1 = 1 11 = 1

 Première ligne de U :
uj aj pour j ;    ; n
1 = 1 = 1

 Pour i ; ;    ; n : = 2 3

 La diagonal de L :
lii = 1
 Calcul du pivot : i 1

uii = aij lik ukj


X

k=1
 Pour j = i + 1; i + 2;    ; n :

8
 La j-ième colonne de L :
lij = 0
 Calcul la j-ième colonne de U :
i 1

uij = aij lik ukj


X

k=1

 Pour j ; ;    i :
= 1 2 1

? La j -ième colonne de U :
uij = 0
? Calcul le j-ième colonne de L :
j
avec ujj 6 puisque A inversible.
1

lij = (aij lik ukj )=ujj


X
= 0

k=1

(b) Descente et remontée triangulaires


 Descente triangulaire pour résoudre LY = B:
y b =

 Pour i ; ; ;    ; n :
1 1

= 2 3 4
i 1

yi = bi lik yk
X

k=1
 Remontée triangulaire pour résoudre UX = Y
 xn yn=unn=

 Pour i n ; n ;    ; ; :
= 1 2 2 1

n
yi uik xk
X

k=i+1
xi = :
uii
Exemple 1.1.14. Considérons la matrice
 
1 4 7

A=
2 5 8


3 6 10

En appliquant de l'algorithme de factorisation, on arrive à


  
1 0 0 1 4 7

A = LU = 
2 1 0

 0 3 6


3 2 1 0 0 1

     

Si b , la solution de Ly b est y =  et celle de Ux y est x = .


1 1 1
   1  
= 1 = 1 = 1
3
   
1 0 0

9
1.2 Méthodes itératives
Étant donné le système
AX = B (17)
à résoudre, les méthodes itératives de résolution de systèmes linéaires consistent à calculer les
valeurs successives d'une suite de vecteurs X convergeant vers la solution X quand k ! 1.
k ( )

Principe : On décompose A en une diérence de deux matrices M et N , c'est-à-dire


A M N = (18)
Si M est inversible, nous pouvons transformer (17) en utilisant (18) de la façons suivante :
MX NX B = + (19)
Soit encore
X M NX M B =
1
+ (20)
1

L'égalité (20) nous suggère la méthode itérative suivante :


 On se donne un vecteur X x ; x ;    ; xn quelconque;
(0)
= (
(0) (0) (0)
)

 Pour k ; ; ; ;    , on calcule
1 2

= 0 1 2 3

Xk M NX k BX k ;
( +1)
=
1 ( )
(21)
+
( )

 On s'arrête quand 8  i  n; jxik xik j <  pour un  donné.


1
( ) ( 1)

On dit que la méthode est convergente lorsque la suite X k converge. Remarquons que ( )

cette convergence ne dépend pas du choix de X .


( )
(0)

Nous admettons le résultat suivant : la méthode itérative X k M NX k M B ( +1) 1 ( ) 1

converge si et seulement si le rayon spectral de la matrice M N est strictement inférieur à 1,


= +
1

 M N < . Selon les choix des matrices M et N on a diérentes méthodes itératives. On


1

note D la matrice formée des seuls éléments diagonaux de A, E la matrice formée des aij si
( ) 1

i > j et F la matrice formée des aij si i < j , de sorte que


A D E F : = ( + )(22)
a 
 
. . . ..
11 0 0

a
.. . . . . . .
 
D 0
 22

=  
 
0


 
0 0 ann

 a  a n
   
. . . ..  ... ..
0 0 0 0 12 1

a
.. . . . . . .  .. . . . . . .
  
E 0
F
21
0 0 
=  =  
an;n 
  
0 1

an;    an;n 


 
1 1 0 0 0 0

10
1.2.1 Méthode de Jacobi
La méthode de Jacobi consiste à poser M D et N E F . On a bien A M N
et puisque M =a ; =a ;    ; =ann , on peut écrire l'égalité (21) composante par
= = + =
1

composante de la manière suivante :


= diag(1 11 1 22 1 )

n
(23)
!
xi k b aij xjk ;  i  n:
X
( +1) 1 ( )

aii i
= 1

j 6=i;j =1

Les relationsk (23) permettent de calculer explicitement les composantes xi k ( +1)


;  i  n du
vecteur X à partir des composantes xik ;  i  n, du vecteur X k .
1
( +1) ( ) ( )

La matrice J dénie par


1

J =M N =D 1 1
( E + F ): (24)
est appelée la matrice de Jacobi.
Ainsi pour que la méthode de Jacobi soit convergente, il faut et il sut que le rayon spectrale
 J soit inférieure strictement à .
( ) 1

1.2.2 Méthode de Gauss-Seidel


La méthode de Gauss-Seidel consiste à poser M D E et N = F . On a bien A = M N
et l'égalité (23) peut aussi s'écrire
=

( D E )X k ( +1)
= FX k ( )
+ B (25)
ce qui conduit à écrire composantes par composantes :
(26)
!
xi k aij xjk aij xjk bi ; 1  i  n:
( +1) 1 X ( +1)
X ( )

aii
= +

j<i i>j

Si les composantes xik kin duk vecteur


( )
X k sont connues, les relations (25) permettent de
( )

calculer successivement x ; x ; x k ;    de la! manière suivante :


( )1
( +1) ( +1) ( +1)
1 2 3

n
xk aij xjk b
( +1) 1 X ( )

a
1
= + 1
11
j =2
n
!
xk a xk aij xjk b
( +1) 1 ( +1)
X ( )

a
2
= 21 1
+ 2
22
j =3
n
!
k k k
x a x a x aij xjk b
( +1) 1 ( +1) ( +1)
X ( )

a
3
= 31 1 32 2
+ 3

j =4
..
33

etc.
La matrice G dénie par :
G = M N = (D E ) F 1
(27) 1

est appelée la matrice de Gauss-Seidel. Le résultat important de cette méthode est : si la


matrice A est symétrique dénie positive, alors la méthode de Gauss-Seidel est convergente.
11
2 Résolution numérique des équations non linéaires
2.1 Le théorème des approximations successives
Dénition 2.1.1. Une fonction f I ! R est lipschitzienne s'il existe une constante  >
appelée constante de Lipschitz, telle que pour tout x 2 I et y 2 I , on a jf x f y j  jx yj.
: 0

Une fonction f I ! R est une contraction si elle est lipschitzienne pour une constante  < .
( ) ( )

: 1

Proposition 2.1.2. Une fonction f I ! R lipschitzienne est continue.


:

Théorème 2.1.3 (Théorème des approximations successives). Soit f a; b ! a; b une


contraction de constante   < .
: [ ] [ ]

0 1

1. Pour tout x 2 a; b la suite xn f xn , appelée suite des approximations succes-


sives, converge vers un point xe x 2 a; b de f (autrement dit f x x).
0 [ ] +1 = ( )

[ ] ( ) =

2. Ce point xe est unique;


3. Pour tout q  , on a jx
0 q xj  q
1  jx 0 xj 1 .
Dénition 2.1.4. Soit f : I ! R. Un point xe x de f est attractif lorsqu'il existe " > 0 tel
que pour tout x 2 I avec jx xj < ", la suite des approximations successives initialisée en x
converge vers x.
0 0 0

Proposition 2.1.5. Soit f a; b[! R une fonction dérivable. Supposons qu'il existe  
tel que
:] 0

jf 0 x j   ( )

pour tout x 2 a; b , alors f est lipschitzienne de constante  sur


] [ a; b[
] .
2.2 Mise en forme du problème-Notations
Soit f I ! R une fonction continue donnée dont on veut chercher numériquement un ou
plusieurs zéros , i.e. f . Les méthodes numériques pour approcher consistent :
:

( ) = 0

 localiser grossièrement le ou les zéros de f en procédant à des évaluations qui souvent sont
de type graphique, on note cette solution grossière;
 construire, à partir de x , une suite x ; x ; x ;    telle que
0 1 2 3

n!1
xn ; où satisfait f .
lim = ( ) = 0

On dit alors que la méthode est convergente.


Théorème 2.2.1 (des valeurs intermédiaires). Si f I ! R est une fonction continue; s'il
existe a et b dans I tels que f a f b < , alors il existe au moins une solution de f x
:

dans a; b . De plus si f est strictement monotone sur a; b cette solution est unique.
( ) ( ) 0 ( ) = 0

] [ ] [

Dénition 2.2.2. Soit p un entier positif. On dit qu'une méthode convergente est d'ordre p s'il
existe une constante C telle que
j xn j  C j xnjp:
+1

12
 Si p et C < , on parle de convergence linéaire.
= 1 1

 Si p , on parle de convergence quadratique.


= 2

 Si p , on parle de convergence cubique.


= 3

 Si p et C Cn, où Cn dépend de n et est tel que limn !1 Cn , on parle de


convergence sur-linéaire.
= 1 = = 0

Méthode de dichotomie
Soit f a; b ! R continue qui possède un seul zéro 2 a; b avec changement de signe :
: [ ] ] [

1. f x < (resp. f x > ) pour tout x 2 a; ;


( ) 0 ( ) 0 [ [

2. f ;
( ) = 0

3. f x > (resp. f x < ) pour tout x 2 ; b .


( ) 0 ( ) 0 ] ]

An de calculer , on construit deux suites xn et yn de la façon suivante : ( ) ( )

x a et y b: 0 = 0 =

Supposons construits les termes de rang n; xn et yn tels que xn < yn et f xn f yn < , et


posons zn xn yn = .
( ) ( ) 0

= ( + ) 2

1. Si f zn , alors zn et l'algorithme s'arrête :


( ) = 0 =

2. Si f xn f zn < , on pose xn xn et yn zn :
( ) ( ) 0 +1 = +1 =

3. Si f zn f yn < , on pose xn zn et yn yn.


( ) ( ) 0 +1 = +1 =

La suite des intervalles xn; yn ainsi construite vérie les propriétés suivantes :
[ ]

1. 2 xn; yn pour tout n ;


[ ]

2. xn ; yn  xn; yn ;
[ +1 +1 ] [ ]

3. yn xn b a = n ; = ( ) 2

4. jxn j  b a = n et yn  b a = n ;
( ) 2 ( ) ( ) 2

5. n!1 xn n!1 yn .
lim = lim =

Dans le cas de la méthode de dichotomie, on peut donner une majoration : j zn j 


j znj. Ainsi la méthode de Dichotomie converge linéairement.
+1

1
2

2.3 Méthodes itératives


Le principe est le suivant : on élabore une fonction g continue telle que f x ,g x x,
pour x 2 a; b . Et on construit alors une suite xn en partant de x 2 a; b ; xn
( ) = 0 ( ) =

g (x n ) ;   
avec l'espoir que xn ! rapidement.
[ ] ( ) 0 [ ] +1 =

13
2.3.1 Méthodes de point xe
Dénition 2.3.1. Si 2 [a; b] est tel que g( ) = , on dira que est un point xe de g ; l'image
de par g est lui-même.
Supposons donc que 2 [a; b] soit un zéro de f ou, de façons équivalente, un point xe de
g. Alors une méthode de point xe consiste à :
 évaluer une approximation x du point xe de g ;
 calculer successivement xn = g(xn); n = 0; 1; 2;   
0

Algorithme des points xes :


+1

1. Étant donné , un critère d'arrêt


2. Étant donné N , le nombre maximal d'itérations
3. Étant donné x , une valeur estimée initiale du point xe
4. Eectuer xn = g(xn)
0

5. Si jx jx jx j <  :
+1

n+1 n

 convergence atteinte
n

 écrire la solution xn
 arrêt
+1

6. Si le nombre maximal d'itérations N est atteint :


 convergence non atteinte en N itérations
 arrêt
7. Retour à l'étape 4.
La méthode de point xe n'est pas forcement convergente. Par contre, si elle converge, c'est-
à-dire si la suite xn n a une limite que nous notons x, et si g est continue, alors cette limite x
est nécessairement un point xe de g puisque
( )

x = nlim x
!1 n +1 = lim
n!1
g ( x n ) = g ( x) :
Nous sommes maintenant en mesure d'énoncer un premier résultat concernant la convergence
des méthodes de point xe :
Théorème 2.3.2. Soient les réels a < b et g a; b ! R une fonction donnée. Supposons
que satisfait les deux propriétés suivantes :
: [ ]

g
1. est strictement contractante (donc continue) i.e.
g
9
  < 8 x; y 2 a; b
0 1 ( ) [ ]
2
jg x
( ) g(y)j  jx yj
2. g x 2 a; b pour tout x 2 a; b .
( ) [ ] [ ]

Alors g a un et un seul point xe dans a; b , pour tout x 2 a; b , la suite xn n dénie


par
[ ] 0 [ ] ( )

x gx n+1 = ( n)
converge vers lorsque n tend vers l'inni.
14
Nous sommes maintenant en mesure d'énoncer un autre théorème de convergence sur les
méthodes de point xe :
Théorème 2.3.3. Supposons g I ! R une fonction dérivable et soit un point xe de
, i.e. . Si jg x j < pour tout x 2 I , alors il existe  > tel que si x satisfait
:

g = g ( ) 0
, alors la suite donnée par :
( ) 1 0 0

j x j  
0

xn +1 = g ( xn ) ; n = 0; 1; 2;   
converge vers lorsque n tend vers l'inni. De plus la convergence est linéaire.
2.3.2 Méthode de Lagrange
La méthode de Lagrange consiste à poser la fonction élémentaire g par :
x a
g ( x) = a f ( a )
f ( x) f ( a )
On dénit la suite xn +1 = g(xn ) et on a clairement g(x) = x ssi f (x) = 0.

2.3.3 Méthode de Newton


Supposons que la fonction f est dérivable et que f 0 ne s'annule pas dans l'intervalle considéré.
La méthode de Newton consiste à poser la fonction élémentaire g par :
f ( x)
g ( x) = x ;
f 0 (x )
et xn+1 g(xn ). On vérie alors également que g(x) = x ssi f (x) = 0.
=

Algorithme de la méthode de Newton :


1. Étant donné , un critère d'arrêt
2. Étant donné N , le nombre maximal d'itérations
3. Étant donné x , une valeur estimée initiale du point xe
0

4. Eectuer xn = xn ff0 xx
+1
(

(
n)
n)

5. Si jx jx jx j <  :
n+1 n

 convergence atteinte
n

 écrire la solution xn +1

 arrêt
6. Si le nombre maximal d'itérations N est atteint :
 convergence non atteinte en N itérations
 arrêt
7. Retour à l'étape 4.
15
3 Approximation et interpolation
L'interpolation consiste dans son acception habituelle, à construire un objet géométrique
(courbe, surface, etc.) passant par des points donnés : on cherche une fonction p qui vérie
p xi yi  i  n, les données du problème étant les couples xi; yi . Les abscisses xi
s'appellent les n÷uds d'interpolation.
( ) = ; 0 ( )

3.1 L'interpolation polynomiale


Notons Rn x l'ensemble des polynômes de la variable x dont les coecients sont réels et dont
le degré est inférieur ou égal à n :
[ ]

a x +    + an xn ; ai 2 R
Pn (x ) = a 0 + 1

Si an =    = ak = 0 et ak 6= 0, alors le degré de Pn est égal à k.


Étant donné n÷uds distincts et une
+1

Théorème 3.1.1. n+1 a  x < x <    < xn  b


fonction , il existe un et un seul polynôme tel que
0 1

f : [a; b] ! R Pn 2 Rn [x]
P n ( xi ) = f ( x i ) ; 0  i  n
Pn est appelé le polynôme d'interpolation de Lagrange associé à et aux n÷uds .
f xi
Théorème 3.1.2. Sous les hypothèses du théorème 3.1.1 posons
Y x xj
li (x) = ; 0  i  n:
 j  n xi xj 0
j 6=i
Alors, le polynôme d'interpolation de Lagrange s'écrit :
n
P n ( x) = f (xi )li (x):
X

i=0
Exemple 3.1.3. Si x 0 ; x = 0 et x = 1; f (x ) = 2; f (x ) = 1; f (x ) = 1, on obtient
= 1 1 2 0 1 2

(x x )(x x ) x(x 1) x(x 1)


l = 1 2

(x x )(x x ) ( 1)( 1 1)
0 = =
0 1 0 22

(x x )(x x ) (x + 1)(x 1)
l = 0 2
(x + 1)(x
(x x )(x x )
1 = = 1)
1 0(1)( 1)1 2

(x x )(x x ) (x + 1)x x(x + 1)


l = 0 1

(x x )(x x ) (1 + 1)
2 = =
2

Donc
2 0 2 1

P ( x ) = f ( x ) l ( x) + f ( x ) l ( x ) + f ( x ) l ( x )
2 0 0 1 1 1 2 2 2

x(x 1) x(x + 1)
= f (x ) (x + 1)(x 1)f (x ) +
0 f (x 1 2)
2 2
x(x + 1)
= x( x 1) (x + 1)(x 1)
2

x x + 1:
1 2
3
=
2 2

16
3.2 Diérences divisées
Dénition 3.2.1 (Diérences divisées). Soit f une fonction numérique dénie sur un intervalle
[a; b] contenant n + 1 points distincts x ; x ;    ; xn . On dénit les dierences divisées d'ordre

k de f aux points (xi ) comme suit :


0 1

f [xf (x )
0] = 0

f ( x ) f (x )
f [x ; x ] = 0 1
0
x x
1

f [x ; x ;    ; xk ] f [x ; x ;    ; xk ]
1 0

f [x ; x ;    ; xk ] =
0 1
xk x
1
pour k  1:
2

0
0 1 1

Exemple 3.2.2. Si x = 1; x = 0 et x = 1; f (x ) = 2; f (x ) = 1; f (x ) = 1, on obtient


0 1 2 0 1 2

f [x 0] = f[ 1] = f( 1) = 2; f [x 1] = f [0] = f (0) = 1; f [x 2] = f [1] = f (1) = 1

f [0] f [
f [x ; x f [ 1; 0] =
1] 1 2
0 1] = = = 1
0 ( 1) 1

f [1] f [0]
f [x ; x f [0; 1] =
1 1
1 2] = = = 2
1 0 1

f [0; 1] f [ 1; 0]
f [x ; x ; x f [ 1; 0; 1] = :
2 ( 1) 1
0 1 2] = = =
1 ( 1) 2 2

Remarquons que la valeur d'une diérence divisée est indépendante de l'ordre des xk. On a
ainsi : fx fx fx fx
f [x ; x f [x ; x
( 1) ( 0) ( 1) ( 0)
1]
x x x x x x
0 = = + = 1 0]
1 0 1 0 0 1

f (x ) f (x ) f (x )
f [x ; x ; x 2 1 0

(x x )(x x ) (x x )(x x x x )(x x


0 1 2] = + +
2 1 2 0 1 2 1 0) ( 0 1 0 2)

= f [x ; x ; x ] = f [x ; x ; x
2 1 0 1 0 2]

et de façon générale :
k
f (x i )
f [x ; x ;    ; xk ] =
   xi x k :
X
0 1

i=0
( xi x )    ( xi0 xi )(xi xi
1 +1 ) ( )

Dénition 3.2.3 (Interpolant de Newton ). On appelle interpolant de Newton le polynôme


Pn donné par :
Pn (x) = f [x 0] + f [x ; x ](x x
0 1 0) +    f x ;    ; xn x x    x xn :
+ [ 0 ]( 0) ( 1)

Exemple 3.2.4. Reprenons l'exemple 3.2.2. On a alors


P ( x) = f ( x
2 0) f [x ; x ](x x ) + f [x ; x ; x ](x x )(x x )
+ 0 1 0 0 1 2 0 1

= 2 1(x x ) (x x )(x x ) = 2 (x + 1) (x + 1)(x)


0 0 1

x x:
3 1 2
= 1
2 2

17
Théorème 3.2.5. Soit le polynôme d'interpolation de Lagrange associé aux n÷uds a 
Pn
x < x <    < xn  b
0 1 et à la fonction f a; b ! R. Pour tout x 2 a; b , on a
: [ ] [ ]

n
f (x) = Pn (x) + f [x ;    ; xn ; x]
0
Y
( x xi ) : (28)
i=0

3.3 Erreur d'interpolation


L'interpolation permet, à partir d'un certain nombre de données sur les valeurs d'une fonction,
de faire l'approximation de f x en tout point x. On peut exprimer l'erreur d'interpolation de
la façon suivante :
( )

f ( x) = P n ( x ) + E n ( x )
ou encore
E n (x ) = f (x ) Pn (x )
Cela signie que le polynôme Pn(x) de degré n procure une approximation de la fonction f (x)
avec une erreur En(x). Il reste à évaluer cette erreur. On constate immédiatement que :
En (xi ) = 0;pour i ; ; ;    ; n = 0 1 2

et donc que l'erreur d'interpolation est nulle aux points de collocation puisque le polynôme passe
exactement par ces points.
Théorème 3.3.1. Soit le polynôme d'interpolation de Lagrange associé aux n÷uds a 
Pn
x < x <    < xn  b et à la fonction f a; b ! R, n fois dérivables. Pour tout
il existe tel que
0 1 : [ ] + 1

x 2 [a; b] x 2]a; b[
n
f n ( x ) Y
(29)
( +1)

f ( x) P n ( x) = (x x i ):
(n + 1)!
i =0

Corollaire 3.3.2. Notons M n+1 (f ) = maxa xb jf (n+1) (x) j. On a


jf x M f
Pn x j  n +1 ( )
n
Y
(x

xi ) :

n
( ) ( )
( + 1)!

i=0

Exemple 3.3.3. Prenons f x( ) = exp( x). Il est clair que Mn +1 ( f ) = exp(b) et que
n
jx xij  b a n :
Y
+1
( )

i=0

de sorte que
b
j exp( x ) P n ( x) j 
(
exp( )

n + 1)!
( b a )n : +1

Comme b a )n +1

:
(

n!1 (n + 1)!
lim = 0

18
On en déduit que la suite des polynômes Pn x converge uniformément vers x) sur l'intervalle
a; b . Ce raisonnement s'étend chaque fois que
( ) exp(

[ ]

Mn f b a n ( )( )
:
n!
lim = 0
n!1
Remarque 3.3.4. Le théorème 3.3.1 montre que l'erreur d'interpolation dépend aussi du choix
des n÷uds xi : on a tout intérêt à ce que, pour tout x 2 [a; b], le produit i (x xi) soit le
Qn

plus petit possible. Écrivons ce produit


=0

n
(x xi ) = jxn pn (x)j;
Y +1

i=0

où pn est un polynôme de degré  n. Nous souhaitons minimiser la norme uniforme de xn +1

pn x ,
( )
n max
axb
jx +1
pn (x)j;
parmi tous les polynômes pn 2 Rn x . [ ]

3.4 Fonctions-spline
Nous abordons ici un second procédé d'interpolation, probablement le plus ancien de tous :
les fonctions-spline.
Dénition 3.4.1. Étant donné des entiers n et une subdivision a x < x < x <    <
b de l'intervalle a; b , on appelle fonction-spline naturelle de degré q toute
= 0 1 2

xn < xn
fonction s a; b ! R qui vérie les propriétés suivantes :
+1 = [ ] 2 1

: [ ]

1. s est q , fois dérivable et que sa q ième dérivée soit continue;


2 2 2 2

2. s est un polynôme de degré au plus q sur chacun des intervalles terminaux a; x et


xn ; b ;
1 [ 1]

[ ]

3. s est un polynôme de degré au plus q sur chacun des intervalles xi; xi ;  i  n .


2 1 [ +1 ] 1 1

On note S q x ;    ; xn ou plus simplement S q l'ensemble de ces fonctions.


2 1( 1 ) 2 1

Notons pour tout entier p  et x 2 R, 0

xp si x >
(
xp
0

sinon: + =
0

Proposition 3.4.2. Toute fonction-spline s 2 S peut être mise sous la forme


2q 1

n
x xi ) q2 1

s(x) = p(x) + ci ;
X ( +

(2q 1)!
i=1
où p est un polynôme de degré  q et où les coecients c vérient les relations
1 i
n
ci xji = 0; jq :
X
0 1

i=1
Cette représentation est unique :
19
px ( ) =
Pq
k=0
1 s(k) (0) k
k! x ,
c si =
(2 q 1)
( xi +) s
(2 q 1)
( xi ) est le saut de la dérivée d'ordre 2 q 1 de s au point x i

Pour établir les propriétés fondamentales des fonctions-spline naturelles, nous aurons besoin
de la proposition suivante
Proposition 3.4.3. f : [a; b] ! R Soit une fonction q fois dérivables et s 2 S ; s ( x) =
, on a
2 q 1
Pn q
p(x) + i ci (x xi ) =(2q 1)!
=1
2
+
1

Z b n
s q (x )f q (x ) d x = ( q c i f ( xi ) :
X
( ) ( )
1)
a i=1

À l'aide de cette proposition, nous allons prouver deux choses : l'existence d'une spline
naturelle d'interpolation et ses propriétés minimisantes.
Théorème 3.4.4. Étant donné des entiers n  q  , une subdivision a x < x < x <
de l'intervalle a; b et des nombres réels y ;  i  n, il existe une
1 = 0 1 2

   < xn < xn = b
unique fonction-spline s 2 S telle que s x y ;  i  n.
+1 [ ] i 1

2 q 1 ( i) = i 1

Théorème 3.4.5. Soit s 2 S l'unique fonction-spline telle que s x y ;  i 


n. Pour toute autre fonction g a; b ! R, q-fois dérivables qui vérie ces conditions
2 q 1 ( i) = i 1

d'interpolation, c'est-à-dire si g x y ;  i  n, on a
: [ ]

( i) = i 1

Z b Z b
js x j x 
q
( )
( )
2
d jg q x j x
( )
( )
2
d
a a
et cette inégalité est stricte sauf pour g s. De plus, s est l'unique fonction de H qui q

possède cette propriété.


=

4 Intégration numérique
Dans les méthodes d'intégration, l'intégrale d'une fonction continue sur un intervalle borné
a; b est remplacée par une somme nie. Le choix de la subdivision de l'intervalle d'intégration
et celui des coecients qui interviennent dans la somme approchant l'intégrale sont des critères
[ ]

essentiels pour minimiser l'erreur. Ces méthodes se répartissent en deux grandes catégories : les
méthodes composées dans lesquelles la fonction f est remplacée par un polynôme d'interpolation
sur chaque intervalle élémentaire xi; xi de la subdivision et les méthodes de Gauss fondées
sur les polynômes orthogonaux pour lesquelles les points de la subdivision sont imposés.
[ +1 ]

4.1 Méthodes composites


4.1.1 Principe
Soit f une fonction continue de a; b dans R. On se propose d'évaluer l'intégrale Rab f x dx
en subdivisant l'intervalle d'intégration
[ ] ( )

a = x < x <    < xn < xn = b


0 1 1

20
On alors Z b n Z xi
f (x)dx = f (x) d x:
X
a i=0 xi 1

Sur chaque xi ; xi ], on applique une méthode d'intégration élémentaire consistant à remplacer


f x par
[ 1

( )

Pi (x) =f [xi; ] + f [xi; ; xi; ](x xi; ) +   


0 0 1 0

+ f [xi; ; xi; ;    ; xi;l ](x


0 xi; )    (x xi;l );
1 0

soit le polynôme d'interpolation de f en des points xi; ;    ; xi;l de l'intervalle a; b (qui peuvent
être ou non dans xi ; xi ).
0 [ ]

[ 1 ]

4.1.2 Méthode des rectangles


On prend l : on approche f par une constante f xi; où xi; 2 xi ; xi . D'où la formule
de quadrature (i.e. intégration numérique) élémentaire :
= 0 ( 0) 0 [ 1 ]

(30)
Z xi
f (x) d x ' hi f (i ); i 2 [xi ; xi ]; hi = xi xi :
1 1
xi 1

et la formule de quadrature composée :


Z b n
f (x)dx ' hi f (i )
X
a i=1

On reconnaît là une somme de Riemann dont on sait qu'elle converge vers Rab f x dx quand
in hi ! si f est Riemann-intégrable. Les choix courants pour i sont :
( )

max1 0

 rectangles à gauche : i xi ! Rxx f x x ' Pni hif xi


= 1
i
( )d ( 1)

 rectangles à droite : i xi ! Rxx f x x ' Pni hif xi


i 1 =1

i
= ( )d ( )
=1

 formule du point milieu : i x x xi ! Rxx f x x ' Pni hif xi


i 1

i 1+ i i
= (:= 1) ( )d ( 1)
2 i 1 =1
2 2

21
4.1.3 Méthode des trapèzes
On prend l = 1 et on remplace f par son interpolé linéaire aux points [ xi ; xi ]. 1

(31)
Z xi
f ( x) d x ' xi xi f ( xi ) f ( xi :
1
( 1 )( 1 ))
xi 1
2

n
hi + hi
(32)
Z b 1

f ( x) d x ' f ( xi ) + h f (x hn f (xn ))
X +1 1
( 1 0) +
a i=1
2 2

et dans le cas d'une subdivision régulière (hi = h; 8i = 1;    ; n) :


Z b n 1

f (x ) d x ' h
X 
f ( xi ) + f (x f (xn )) :
1
( 0) +
a i=1
2

4.1.4 Méthode de Simpson


Cette fois on interpole f aux points xi ; xi et xi xi 1+ i x
soit, en utilisant la formule
d'interpolation de Newton :
1 1 =
2 2

Z xi Z xi
f ( x) d x ' f ( xi f [xi ; xi ](x xi f [xi ; xi ; xi x
 
1) + 1 1) + 1 1 d
2
xi 1 xi 1
Z xi
hi f (xi hi f [xi ; xi ] + f [xi ; xi ; xi x xi x xi ) d x
1 2
1) + 1 1 1] ( 1 )(
2
2 xi 1

or
hi
en écrivant
Z xi 3

x xi x xi ) d x = hi hi x x i = x xi xi xi )
1 3
1 3
( 1 )( = ( 1 + 1
xi 1
3 2 6

et
hi f [xi ; xi ] = hi (f (xi ) f (xi
2
1 1 ))


f ( xi ) f ( xi 1) f ( xi 1) f (x i 1)

hi f [xi ; xi ; xi ] = hi
3
1 1
2
2
hi
2 2
hi
2 2

hi f (xi ) f (x i f ( xi :

= 2 2 1) + 1)
2

22
On obtient donc Z xi
hi
 
f ( x) d x = f ( xi 1) +4 f ( xi 1) +
2
f ( xi ) :
xi 6

La formule composée dans le cas de pas constants devient


1

Z b  n 1 n 
f ( x) d x = f fn + 2 fi + 4 fi
X X
0 + 1
2
a i=1 i=1

où on note fi = f (xi ); fi 1 :=
2
f ( xi 1) =
2
f xi 1
2
xi 
:

4.2 Analyse de l'erreur dans les méthodes d'intégration


4.2.1 Théorie
Nous évaluons ici l'erreur faite lorsqu'on remplace Rab f x x par Rab P x x où P est le
polynôme d'interpolation de f aux points x ;    ; xN . On a vu au chapitre précédent (voir
( )d ( )d

théorème 3.2.5) que si PN x est le polynôme d'interpolation de f en x ; x ;    ; xN alors


0

( ) 0 1

f x PN x f x ; x ;    ; xN ; x N x
( ) ( ) = [ 0 avec N x x x x x    x xN :
1 ] ( ) ( ) = ( 0 )( 1) ( )

Ainsi
(33)
Z b Z b Z b
Ef fx x
( ) = PN x x ( f x ; x ;    ; xN ; x N x :
)d ( )d = [ 0 1 ] ( )
a a a
L'expression de E f se simplie dans deux cas particuliers.
( )

A N x est de signe constant sur a; b : on peut alors utiliser le théorème de la moyenne


pour les intégrales qui arme que, si g et h sont continues sur a; b et si h x  sur
( ) [ ]

a; b , il existe  2 a; b tel que


[ ] ( ) 0

[ ] [ ]

Z b Z b
f (x )g (x ) d x = g ( ) h(x) d x:
a a

Appliqué à (33), ceci montre l'existence de  2 a; b tel que [ ]

Z b
E (f ) = f [x ; x ;    ; xN ;  ]
0 1 N (x) d x:
a

D'après le corollaire ??, on en déduit encore qu'il existe  2 c; d ( c; d] est un intervalle


contenant les xi; a et b) tel que
[ ] [

(34)
Z b
E (f ) = f N +1) ( )
N (x) d x:
1 (

( N + 1)! a

B Rab N ( x) d x = 0 , dans ce cas, on utilise


f [x ; x ;    ; xN ; x] = f [x ; x ;    ; xN ; xN
0 1 0 1 +1 ] +( xN +1 x)f [x ; x ;    ; xN ; xN ; x]
0 1 +1 (35)

23
valable pour xN arbitraire. Alors, (33) devient
+1

Z b Z b
E (f ) = f [x ; x ;    ; xN ; xN
0 1 +1 ] N ( x) d x + f [x ; x ;    ; xN ; xN ; x]
0 1 +1 N +1 (x) d x
a a

(36)
Z b
E (f ) = f [x ; x ;    ; xN ; xN ; x]
0 1 +1 N +1 (x) d x
a
Si on peut choisir xN de telle façon que N +1 (x) reste de signe constant sur a; b , on
aura d'après (34)
+1 [ ]

(37)
Z b
E (f ) = f N +2) ( )
N +1 (x) d x
1 (

( N + 1)! a
pour un  2 c; d (intervalle contenant les xi; a et b)
[ ]

Dénition 4.2.1. On dit qu'une méthode d'intégration numérique est d'ordre k si elle est exacte
pour tous les polynômes de degré inférieur ou égal à k.
Remarque 4.2.2. Lorsque N x est de signe constant sur a; b , d'après (34), on a une méthode
d'ordre N puisque P N  pour tout polynôme de degré inférieur ou égal à N . Dans la
( ) [ ]
( +1)

situation B), si (34) est vraie, on aura même une méthode d'ordre N (avec un même nombre
( ) = 0

de points).
+1

4.2.2 Application aux méthodes usuelles


Méthode des rectangles (à gauche ou à droite)
N = 0; x 0 = a; 0( x) = x a. On peut appliquer (34) qui donne
b a) 0
Z b
E (f ) = f 0 ( )
2

x a) d x = f ( ):
(
(
a 2

La méthode est d'ordre et exacte seulement pour les constantes.


0

h h
Z xi
hi f (xi )  i f 0 (i )  i M
2 2

f ( x) d x

1 1
xi 2 2

où M axb jf 0 x j
1

1 := max ( )

Pour la formule composée, il faut ajouter les erreurs provenant de chaque intégration élémentaire.
Dans le cas d'un pas constant, on obtient :
N
M
Z b
f (x ) d x h f (xi )  b a)h:
X 1
1 (
a 2

i=1

Formule du point milieu


N = 0; x =
a b ; (x ) = x
+ a b. +

Ici a (x) d x = 0. On va donc obtenir une méthode d'ordre (exacte pour toute fonction
0 2 0 2
Rb
0 1

24
linéaire) bien qu'on interpole par une constante. En eet, d'après (37) appliqué avec xN +1 =

x 0 = x
a b
1 =
+
2

b a M b a M
Z b Z b
f (x ) d x f (a) + f (b)  2
x 2
x= 2
b a)
 3
d (
a 2 2 a 2 24

avec M 2 := maxa xb jf "(x)j . Pour la formule composée associée, on obtient
N
M
Z b
f (x ) d x h f (xi 12 )  h (b a ):
X 2
2

a 2

i=1

Méthode des trapèzes


N =1 x x) = (x a)(x b).
a; x b
Comme est de signe constant sur [a; b], on applique (34) pour trouver
0 = 1 = 1(

(b a  jf "( )j b
Z b
f (a) + f (b) 
Z
f (x ) d x (x a)(x b) d x
)

a 2 2 a

soit Z b
b a)

M
f ( x) d x f (a) + f (b)  b a) :
(  2 3
(
a 2 12

Pour la formule composée de la méthode des trapèzes, on en déduit que l'erreur est majorée par

M
Ef  h b a: (38) ( )
12
2 2
( )

Méthode de Simpson
N = 2; x a; x a+b ; x b x) = (x a) x a+b x b ).


Par raison de symétrie, on vérie que :


0 = 1 = 2 = 2( (
2 2

Z b
2( x) d x = 0:
a

Comme 3( x) = (x a) x a+b
2
x b) est de signe constant sur [a; b], on peut appliquer (37)
 2
(

b a b a M
Z b  Z b

  
f (x ) d x f (a ) + 4 f + f (b ) (x ) d x
4

3
a 2 2 24 a

soit tous calculs faits
M b a 5

jE f j 
 
4
( )
90 2

jf x j :
 
M 4 = max
axb
(4)
( )

La formule composée correspondante avec pas constant h donnera une erreur majorée par
jE f j  M h b a :
( )
2880
4 4
( )

Par ailleurs, la méthode de Simpson (bien que reposant sur une interpolation à trois points) est
exacte pour tout polynôme de degré inférieur ou égal à . 3

25

Vous aimerez peut-être aussi