Vous êtes sur la page 1sur 70

Table des matières

1 Résolution de systèmes linéaires Méthode direct 3

1.1 Position du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2.1 Elimination de Gauss sur un exemple : . . . . . . . . . . . . . . . . . . 5

1.2.2 Algorithme d’élimination . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.3 Matrice élémentaire de Gauss . . . . . . . . . . . . . . . . . . . . . . . 8

1.2.4 Elimination da Gauss avec changement de Pivot . . . . . . . . . . . . 10

1.2.5 Méthode de Gauss avec pivot total . . . . . . . . . . . . . . . . . . . . 13

1.2.6 Factorisation LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.3 Méthode de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3.1 Description de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.3.2 Théorème : Décomposition de Choleski . . . . . . . . . . . . . . . . . . 18

2 Méthodes itératives pour la résolution des systèmes linéaires 22


SMA - SMI - S4

2.1 Rappels : normes, rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.2 Méthodes itératives : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.3 Description des méithodes classiques . . . . . . . . . . . . . . . . . . . . . . . 29

c
3 Approximation des solutions de l’equation non linéaire f ( x) = 0 33

3.1 Rappels et notations : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.2 Méthode de Newton et méthode de la corde . . . . . . . . . . . . . . . . . . . 39

3.2.1 Méthode de Newton (ou Newton-Raphson) : . . . . . . . . . . . . . . 39

3.3 Méthode de dichotomie : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.4 Méthode de la fausse position (Fegula Falsi) . . . . . . . . . . . . . . . . . . . 45

4 Problèmes d’interpolation 47

4.1 Position du problème : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.2 Interpolation de LAGRANGE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4.3 Interpolation d’une fonction continue par un polynôme . . . . . . . . . . . . . 50

4.4 Existance et unicité de l’interpolant . . . . . . . . . . . . . . . . . . . . . . . . 51

5 Dérivation et intégration numérique 58

5.1 Dérivation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5.1.1 Dérivée première : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5.1.2 Dérivées d’ordre supérieure : . . . . . . . . . . . . . . . . . . . . . . . . 60

5.2 Intégration numérique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

5.3 Poids d’une formule de quadrature. . . . . . . . . . . . . . . . . . . . . . . . . 65


SMA - SMI - S4

c
Chapitre 1

Résolution de systèmes linéaires


Méthode direct

1.1 Position du problème :

Dans ce chapitre, nous considérons un système d’équations


linéaires d’ordre n de la forme

Ax = b (1.1)

Ici A est une n × n matrice régulière de coefficients ai j , 1 ≤ i, j ≤ n,


donnés, b est un vecteur colonne à n composantes b j , 1 ≤ j ≤ n,
données et x est un vecteur colonne à n composantes x j , 1 ≤ j ≤ n,
inconnues. Dans la suite, nous utiliserons les notations matricielles
standards, i.e
     
a
 1,1
a1,2 . . . a1,n
 
b1
 
x1

. . .
SMA - SMI - S4

     
 a2,1 a2,2 a2,n   b2   x2 
     
 . . .
     
  .   . 
, b = , b =
     
 
 . . .   .   . 
     
     
 . . . . .
     
    
     
an,1 an,2 . . . an,n bn xn

Le système (4.1) peut s’écrire explicitement sous forme d’un


système de n équations à n inconnues x1 , x2 , ....., xn :
3

c
1.1. Position du problème :




 a1,1 x1 + a1,2 x2 +..... + a1,n xn = b1






 a2,1 x1 + a2,2 x2 +..... + a2,n xn = b2


 .

(1.2).
 .





.







 a x + a x +..... + a x = b
n,1 1 n,2 2 n,n n n

Définition 1.1 : On dira que la matrice A est triangulaire supérieure


(respectivement triangulaire inférieure) si ai j = 0 pour tout couple
(i, j) tel que 1 ≤ j < i ≤ n (respectivement 1 ≤ i < j ≤ n).

Définition 1.2 : Si A est une matrice triangulaire supérieure


(respect. triangulaire inférieure), on dira que les systèmes (1.1) et
(1.2) sont triangulaires supérieurs (resp. triangulaire inférieurs).

Supposons un instant que la matrice A soit triangulaire supérieure


nous constatons alors que le déterminant de la matrice A est
le produit des valeurs diagonales aii et, puisque A est supposée
régulière ; nous avons aii 6= 0, 1 ≤ i ≤ n. Ainsi, quitte à diviser chaque
équation de (1.2) par le terme de la diagonale, il n’est pas restrictif
de supposer que aii = 1, 1 ≤ i ≤ n. Dans ce cas, la matrice est une
matrice triangulaire avec des valeurs 1 dans sa diagonale et, de
(1.2), nous déduisons successivement les inconnues xn , xn−1 , ..., x1 .
SMA - SMI - S4

En effet, nous avons :

xn = bn / an,n

et pour i = n − 1, n − 2, ....3, 2, 1 :

xi = bi / aii − ∑nj=i+1 ( ai j x j )/ aii .

c
1.2. Méthode de Gauss

Dans le cas où la matrice A est régulière mais non nécessairement


triangulaire supérieure, la méthode d’élimination de Gauss aura
pour but de transformer le système Ax = b en un système équivalent
triangulaire supérieure avec des valeurs 1 sur la diagonale.

1.2 Méthode de Gauss

1.2.1 Elimination de Gauss sur un exemple :

Soit le système linéaire c est une matrice triangulaire :

   
4 8 12 4
   
A = 3 et b = 5 (1.3)
   
8 13  
   
2 9 18 11

Le système Ax = b devient dans ce cas :


 


 4x1 +8x2 +12x3 = 4 


 
3x1 +8x2 +13x3 = 5 (1.4)

 

 
2x1 +9x2 +18x3 = 11
 

Première étape,
ça consiste à diviser la première équation de (1.4) par a11 = 4
SMA - SMI - S4

(appelé pivot) pour obtenir :

x1 +2x2 +3x3 = 1. (1.5)

Ensuite nous soustrayons 3 fois (1.5) à la deuxième équation


de (1.4) et 2 fois l’équation (1.5) à la troisième équation de (1.4) :
Nous obtenons un système équivalent à (1.4) qui est

c
1.2. Méthode de Gauss

 
x +2x2 +3x3 = 1
 1

 

 

2x2 +4x3 = 2 (1.6)

 

 
5x2 +12x3 = 9
 

Deuxième étape,
nous divisons la deuxième équation (1.6) par 2 (le deuxième
pivot). Nous obtenons :

x2 +2x3 = 1 (1.7)

Et par la suite :
 
x +2x2 +3x3 = 1
 1

 

 

x2 +2x3 = 1 (1.8)

 

 
2x3 = 4
 

qui est équivalent au système (1.4).

Dernière étape,
finalement, il suffit de diviser la troisième équation par le troisième
pivot, qui est ici 2, pour obtenir :
 
x +2x2 +3x3 = 1
 1

 

 

x2 +2x3 = 1 (1.9)
SMA - SMI - S4


 

 
x3 = 2
 

De (1.9) , il est facile de déduire successivement les inconnues


x1 , x2 , x3 :

x3 = 2 x2 = −3 x1 = 1.

c
1.2. Méthode de Gauss

1.2.2 Algorithme d’élimination

Nous présentons maintenant un algorithme qui, effectué par


un ordinateur, permet de réaliser l’élimination dont, le mécanisme
a été décrit dans la section précédente. Pour réaliser cet objectif,
nous appelons A(i) la matrice et b(i) le second membre obtenus
avant la ième étape de l’élimination. Ainsi le tableau A(i) a la forme
suivante :
 
(1) (1) (1) (1) (1) (1)

a11 a12 a13 a14 . . . a1i . . . a1n

(2) (2) (2) (2) (2)



0 a22 a23 a24 . . . a2i a2n



(3) (3) (3) (3)
0
 

 0 a33 a34 a3i a3n 

(4) (4) (4)
0 0
 

 0 a44 a4i a4n 

 



0 0 0 0 . . 



0 0 . .

A (i )
 
=  , (1.10)
 (i − 1 ) 

 .ai−1,i−1 . 

 (i ) (i ) 

 0 aii ain 

 

 . . 

 



. . 





. . 


(i ) (i )
0 ani ann
Avec A(1) = A, et Ax = b

La ième étape de l’élimination consistera à passer du tableau


A(i) au tableau A(i+1) et du tableau b(i+1) par opération suivante :

étape. Nous divisons la ième ligne de A(i) par le ième pivot aii(i)
i ème
SMA - SMI - S4

(supposé différent de zéro), puis on remplace la ligne L(ji+1) par


la ligne
(i + 1 ) (i ) (i ) ( j) (i )
Lj = L j −m ji ∗ Li , j = i + 1, i + 2, ..., n où, m ji = a ji / aii (1.11)

Nous faisons de même avec le second membre :

(i + 1 ) (i ) (i )
b 0 = bi − m ji ∗ bi (1.12)
j

c
1.2. Méthode de Gauss

1.2.3 Matrice élémentaire de Gauss

Soient les matrices élémentaires de Gauss


 
1 0 0
 
 

 −m21 1 0 

 
 −m31 0 1 . 
M1 =  ,
 

 . . . 

 
. . . 0 
 

 
−mn1 0 0 1

↓ k − ième colonne
 
1 0 0 0
 
 

 0 . . .  
 

 0 . . .  
 

 . . 0 . .  
 
. 1 . . .  ←−−−−−−−−−
 

Mk =   k − i ème ligne (1.1
 

 . −mk+1,k .1 . 

 

 . . . . .  
 

 . . . 0 .  
 
. . 1 0 
 

 
0 −mn,k 0 0 1

(k)
aik
où mi,k = (k)
akk
i = k + 1, k + 2, ..., n en supposant que a(kkk) 6= 0,
SMA - SMI - S4

En posant ek = (0, ....., 1, 0, ..., 0)T et mk = (0, 0, ....., −mk+1,k , ...., −mn,k )T ,on obtient
Mk = I + mk ekT et on vérifie que Mk est inversible et que Mk−1 = I − mk ekT

c
1.2. Méthode de Gauss

Remarque : Matriciellement, dans l’algorithme d’élimination


la première étape est équivalente au produit matriciel A(2) = M1 A(1) .
L’étape finale est alors donnée par :

A(n) = U = Mn−1 Mn−2 .....M2 M1 A(1) , A(1) = A.

Evidemment, l’étape finale n’est accessible par ce procédé que


si tous les pivots aii(i) sont tous non nuls.

Définition : 1.3 : Ak est la sous matrice principale d’ordre k de


A si Ak est la k × k matrice de coefficient ai j , 1 ≤ i, j ≤ k ≤ n.
Nous avons le résultat suivant.

Théorème1 : Si toutes les sous-matrices principales Ak de la


matrice de départ A sont régulières, k = 1, 2, ..., n, alors les pivots
obtenus successivement dans l’élimination de Gauss sont tous
non nuls. Inversement si tous les pivots obtenus au cours de
l’élimination de Gauss sont non nuls, alors toutes les sous-matrices
principales de A sont régulières.
(1) (2) (i )
det Ai = a11 × a22 × ... × aii (1.14)
SMA - SMI - S4

Il est également facile de vérifier que les opérations faites sur


la matrice A impliquent, si Ai est la sous-matrice principale d’ordre
i de A :

c
1.2. Méthode de Gauss

 
(1)


 det A1 = det A1 



 

 (1) (2) 
det A2 = a11 det A2

 


 

 
(1) (2) (3)
 
det A3 = a11 a22 det A3

 


 


 

 



 . 




 

.

 

(1.15)



 . 



 
 (1) (2) (i − 1 ) (i ) 
det Ai = a11 a22 .....ai−1,i−1 det Ai

 


 


 

 



 . 




 

.

 


 


 

 
 . 

Nous concluons de (1.14) et (1.15) que si det Ai 6= 0 pour tout


(1) (2) (i − 1 ) (n)
i = 1, 2, .....n alors les valeurs a11 , a22 , .....ai−1,i−1 , .., ann sont non nulles.

1.2.4 Elimination da Gauss avec changement de Pivot

Comme nous venons de le voir, l’algorithme d’élimination


donné dans la section précédente ne peut être exécuté que si
les pivots successifs sont non nuls, c’est à dire si toutes les sous-
matrices principales de A sont régulières. Il est évident qu’il est
impossible de traiter par cet algorithme le système suivant :

 


 0x1 + x2 +3x3 = 1 


 
(1.16)
SMA - SMI - S4

5x1 +2x2 +3x3 = 4



 

 
6x1 +8x2 + x3 = 1
 

Car, dans ce cas, on ne peut pas diviser la première ligne par le


premier pivot qui est nul (la première sous-matrice principale
est donc singulière !). On voit immédiatement que les choses se
présentent mieux si on échange la première et la troisième ligne
pour obtenir

10

c
1.2. Méthode de Gauss

 


 6x1 +8x2 + x3 = 1 


 
5x1 +2x2 +3x3 = 4 (1.17)

 

 
0x1 + x2 +3x3 = 1
 

En effet, maintenant nous pouvons diviser la première ligne


par le pivot 6.
Cette manière de faire s’appelle” pivotage partiel” ; elle consiste
à échanger deux équations dont le but d’avoir le plus grand
pivot possible en valeur absolue.
Le problème peut se poser même avec un pivot trop petit.
Pour éviter de diviser par des pivots trop petits pouvant conduire
à des solutions absurdes.
Exemple : soit à résoudre le système
 
 10−10 x1 + x2 = 1 
;
 x −x = 0
1 2

La solution exact est x1 = x2 = 1/(1 + 10−10 ) ' 1.


Cependant, si on suppose que les calculs sont effectués en
virgule flottante, avec mantisse à 9 chiffres, la résolution du
système par la méthode de Gauss donne des résultats différents
selon qu’on l’applique avec ou sans pivot
(i) Si on applique la méthode de Gauss sans pivot on obtient
SMA - SMI - S4

 
−10
 10 x1 + x2 = 1 
m21 = 1010 et
 (−1 − 1010 ) x = −1010 
2

Ce qui donne x1 ' 0, x2 ' 1 à cause des arrondis des résultats avec
neuf premiers chiffres significatifs.
(ii) Si on adopte la stratégie du pivot partiel qui consiste
à mettre en première ligne celle dont le coefficient de x1 est le
plus grand en module alors on permute les lignes pour obtenir
11

c
1.2. Méthode de Gauss

 
 x1 − x2 = 0 
 10−10 x + x = 1 
1 2

Pour lequel m21 = 10−10 et qui conduit à la solution approchée


x2 ' 1 et x1 = x2 .

En conclusion, on peut adopter automatiquement la stratégie


du pivot partiel, c’est à dire à chaque étape k :
choisir aii(i) = maxk≥i (k)
aki .

Matriciellement, cette opération revient à multiplier la matrice


A(i) par une matrice de permutation Pkl avant d’appliquer l’élimination
de Gauss. L’étape finale est données par A(n) = U = Mn−1 Pi−1i Mn−2 .....M2 P2i M1 P1i A
où les Mi sont des matrices élémentaires de Gauss et les Pkl des
matrices de permutations (elle échange les lignes k et l) pour
l ≥ k.

Si à une étape k on n’a pas besoin de pivoter, l’écriture reste


valable avec Pkl = I où I est la matrice identité.
↓ k..... l↓
 
1 0 0
 
 

 0 1 0 

 

 0 0 1 0 

 

 0 0 1 0 

 
.. . . . Pkk = 0 1 . Pkl = 1 . .  ←−−−−−−−−−
 

Pkl =   k − i ème ligne (1.18)
 
 0 0 
SMA - SMI - S4

 
 

 . 1 

 

 Plk = 1 Pll = 0 . 

 
.
 
 
 
0 1

Remarque : Pkl A échange les lignes k et l alors que APkl échange


les colonnes k et l. on a encore :Pkl = P−kl 1 = PklT .

12

c
1.2. Méthode de Gauss

Définition 1.4 : Une matrice de permutation est un produit de


matrices de permutation.

1.2.5 Méthode de Gauss avec pivot total

On pourrait aussi adopter la stratégie du pivot total qui consiste,


à chaque étape k, à prendre aii(i) = maxk>i, j>i a(kij) . Ce qui reviendrait
à multiplier la matrice A(i) par deux matrices, de permutation
P et Q l’une à droite pour permuter les lignes et l’autre pour
permuter les colonnes.

1.2.6 Factorisation LU

Tout va donc très bien pour ce système, mais supposons qu’on


ait à résoudre 3089 systèmes avec la même matrice A mais 3089
seconds membres b différents (par exemple on peut vouloir calculer
la réponse d’une structure de génie civil à 3089 changements
différents). Il serait un peu dommage de recommencer les opérations
ci-dessous 3089 fois, alors qu’on peut en éviter une bonne partie.
Comment faire ?
L’idée est de ”factoriser” la matrice A , c’est à dire comme un
produit A = LU, où L est triangulaire inférieure et U triangulaire
supérieure.
SMA - SMI - S4

On reformule alors le système Ax = b sous forme LUx = b et on


résout maintenant deux systèmes faciles à résoudre car triangulaires
Ly = b et Ux = y.

La factorisation LU de la matrice A découle immédiatement de


l’algorithme de Gauss.

13

c
1.2. Méthode de Gauss

Théorème : Décomposition LU d’une matrice Soit A ∈ Mn ( IR)


une matrice inversible, il existe une matrice de permutation P
telle que, pour cette matrice de permutation, il existe un et un
seul couple ( L, U ) où L est une matrice triangulaire inférieure de
termes diagonaux tous égaux à 1 et U est une matrice triangulaire
supérieure, vérifiant

PM = LU

*Preuve : L’existence de la matrice P et les matrices L, U peut

s’effectuer en s’inspirant de l’algorithme ”LU avec pivot partiel”.


En effet, chaque étape i peut s’écrire A(i) = Mi−1 P(i−1) A(i−1) où A(1) = A, P(i−1)
est la matrice de permutation qui permet le choix du pivot
partiel, et Mi−1 est une matrice élémentaire de Gauss (matrice
d’élimination qui effectue les combinaisons linéaires de lignes
permettant de mettre à zéro tous les coefficients de la colonne
i situés en dessous de la ligne i. Pour simplifier, raisonnons sur
une matrice 4 × 4 (le raisonnement est le même pour une matrice
n × n.

En appliquant l’algorithme

M3 P(3) M2 P(2) M1 P(1) A = U


SMA - SMI - S4

Les matrices P(i+1) et Mi+1 ne permutent pas .Prenons par exemple


   
 1 0 0 0   1 0 0 0 
   
 0 1 0 0   0 1 0 0 
( 2
M = )   ( 3 )
P = P34 = 
 
 
 0
 a 1 0 

 0
 0 0 1 

   
0 b 0 1 0 0 1 0

14

c
1.2. Méthode de Gauss

On vérifie facilement que M2 P(2) 6= P(2) M2 ,mais par contre, comme


la multiplication à gauche par P(i+1) permute les lignes i + 1 et i + k,
pour k ≥ 1 et que la multiplication à droite permute les colonnes

i + 1 et i + k de Mi , La matrice Mi = P(i+1) Mi P(i+1) est encore une matrice
triangulaire inférieure avec la même structure que Mi : On a
juste échangé les coefficients extra diagonaux des lignes i + 1 et
i + k. On a donc


P(i+1) Mi = Mi P(i+1) car P(i+1) . P(i+1) = I.

Dans l’exemple précédent, on effectue le calcul

 
 1 0 0 0 
 
 0 1 0 0 
 ∼
P(3) M2 P(3) =   = M2

 0
 b 1 0 

 
0 a 0 1

qui est une matrice triangulaire inférieure de coefficient tous


égaux à 1, et comme P(3) P(3) = I , on donc

P(3) M2 = M2 P(3)

Pour revenir à notre exemple où n = 4 on peut donc écrire


∼ ∼
M3 M2 P(3) M1 P(2) P(1) A = U


∼ ∼
SMA - SMI - S4

Mais par le même raisonnement que précédemment, on P(3) M 1 = M1 P


(3)



où M1 est encore une matrice triangulaire inférieure avec des 1
sur la diagonale. On en déduit que

∼ ∼
M3 M2 M1 P(3) P(2) P(1) A = U,

15

c
1.3. Méthode de Choleski

soit encore PA = LU où P = P(3) P(2) P(1) est bien une matrice de permutation

∼ ∼
et L = ( M 3 M 2 M 1 )−1
est une matrice triangulaire inférieure avec des
1 sur la diagonale.
Le raisonnement pour n=4 se généralise facilement à n arbitraire.
Dans ce cas, l’échelonnement de la matrice s’écrit

Mn−1 P(n−1) Mn−2 P(n−2) ..........M2 P(2) M1 P(1) A = U

Et se transforme en

Fn−1 Fn−1 ......F 1 P(n−1) P(n−2) .......P(1) A = U

où Fi est une matrice triangulaire inférieure avec des 1 sur la


diagonale.
On a ainsi démontré l’existence.

2. Unicité : Pour montrer l’unicité du couple ( L, U ) à P donnée,


supposons qu’il existe une matrice P et des matrices L1 et L2
triangulaires inférieures et U1 U2 triangulaires supérieures telles
que PA = L1 U1 = L2 U2 .
Dans ce cas, on a L−2 1 L1 = U2 U1−1 , or la matrice L−2 1 L1 est une matrice
triangulaire inférieure avec des 1 sur la diagonale, et la matrice
U2 U1−1 triangulaire supérieure, on en déduit que L− 1 −1
2 L1 = U2 U1 = I

et donc L1 = L2 et U1 = U 2 .
SMA - SMI - S4

1.3 Méthode de Choleski

On va maintenant étudier la méthode de Choleski, qui est une


méthode directe adaptée au cas où la matrice A est symétrique
définie positive (s.d.p). On rappelle qu’une matrice A ∈ Mn ( IR)
de coefficients (ai j )i,n j=1 est symétrique si AT = A, où AT désigne la
16

c
1.3. Méthode de Choleski

transposée de A, définie par les coefficients (a ji )n∈ IN et que A est


définie positive si Ax.x > 0 (ou xT Ax > 0) pour tout x 6= 0. Dans ce cas
,x.y désigne le produit scalaire de x et y de IRn . On rappelle que
si A est s.d.p elle est en particulier inversible.

1.3.1 Description de la méthode

Commençons par un exemple. On considère la matrice


 
2 −1 0
 
A =  −1 −1 
 
2
 
0 −1 2

qui est également symétrique. Calculons sa décomposition LU.


Par échelonnement, on obtient

  
1 −0 0 2 −1 0
  
A = LU =  −0.5 −1 
  
1 0  0 3/2
  
0 −2/3 1 0 0 4/3

La structure LU ne conserve pas la symétrie de la matrice A.


Pour des raisons de coût mémoire, il est important de pouvoir
la conserver. Une façon de faire est de décomposer U en sa
partie diagonale fois une matrice triangulaire.
On obtient
SMA - SMI - S4

  
2 0 1 −1/2 0
  
U = 0 −2/3 
  
3/2  0 1
  
0 4/3 0 0 1

On a donc U = DLT , comme tous les coefficients de D sont positifs,


√ √ √
on peut écrire D = D D , où D est la matrice diagonale dont
17

c
1.3. Méthode de Choleski

les éléments diagonaux sont les racines carrées des éléments


√ √ ∼∼ T ∼ √
diagonaux de D, on a donc A = L D DLT = L L , avec L= L D.

Notons que la matrice L est toujours triangulaire inférieure,
mais ses coefficients diaginaux ne sont plus astreints à être égaux
à 1. C’est la décomposition de Choleski de la matrice A.

1.3.2 Théorème : Décomposition de Choleski

Soit A ∈ Mn ( IR) (n ≥ 1) une matrice symétrique définie positive.



Alors il existe une unique matrice L∈ Mn ( IR) telle que
∼ ∼
1. L est triangulaire inférieure, L= (l i j )i,n j=1
2. lii > 0, pour tout i ∈ {1, 2, ...., n}
∼∼ T
3. A = L L

1. Existence de la décomposition Soit A ∈ Mn ( IR) (n ≥ 1) une matrice


symétrique définie positive. On sait déjà qu’il existe une matrice
de permutation P et L triangulaire inférieure et U triangulaire
supérieure telles que PA = LU. A l’avantage dans le cas où la
matrice est s.d.p, est que la décomposition est toujours possible
sans permutation. On prouve l’existence et l’unicité en construisant
la décomposition, c’est à dire en construisant la matrice L.
Démonstration par récurrence sur n
SMA - SMI - S4

1. Pour n=1, on a A = (a11 ).Comme A est s.d.p a11 > 0. On a peut


∼ ∼∼ T
définir L= (l 11 ) où l11 =√a11 , et on a bien A = L L .
2. On suppose que la décomposition de Choleski s’obtient
pour A ∈ M p ( IR), pour 1 ≤ p ≤ n et démontrons que la propriété est
encore vraie pour A ∈ Mn+1 ( IR) s.d.p.
Soit donc A ∈ Mn+1 ( IR) s.d.p ; on peut écrire A sous forme :

18

c
1.3. Méthode de Choleski

 
B a
A = 
aT α

où B ∈ Mn ( IR), a ∈ IRn et α ∈ IR. Montrons que



B est s.d.p, c’est à

y
dire que By.y > 0, pour tout y ∈ IRn − {0} , et x =   ∈ IRn+1
0

Comme A est s.d.p, on a


        
B a y y Bx y
0 < Ax.x =   . = .  = By.y
aT α 0 0 aT 0

Et donc B est s.d.p. Par hypothèse de récurrence, il existe une


matrice M ∈ Mn ( IR), M = (mi j )i,n j=1 telle que :
1. mi j = 0 si j>i (triangulaire inférieure)
2. mii > 0
3. B = MMT .
On va chercher L sous forme
 
∼ M 0
L=  
bT λ

∼∼ T
Avec b ∈ IRn et λ ∈ IR∗+ tels que A = L L . Pour déterminer b et λ,
∼∼ T
calculons L L = A, et on veut que les égalités suivantes soient
vérifiées :
Mb = a et bT b + λ2 = α
SMA - SMI - S4

Comme M est inversible (en effet det ( M) = Πin=1 mii > 0), la première
égalité ci-dessous donne : b−1 = Ma et en remplaçons dans la deuxième
égalité, on obtient :
( M−1 a)T ( Ma) + λ 2 = α, et donc aT ( M T )−1 ( M−1 a) + λ 2 = α soit encore aT ( MM T )−1 a + λ 2 =

c’est à dire

a T B−1 a + λ 2 = α (2.1)

19

c
1.3. Méthode de Choleski

Pour que (2.1) soit vérifiée, il faut que

α − a T B−1 a > 0 (2.2)

Montrons que cette condition est effectivement vérifiée :


 
B−1 a
Soit z =  ∈ IRn+1 . On a z 6= 0 et donc 0 < Ax.x car A est s.d.p
−1
et donc
    
B a B−1 a 0
Az =   = 
aT α −1 a T B−1 a − α

On a donc Az.z = α − aT B−1 a > 0 ce qui démontre l’inégalité (2.2)



On peut choisir ainsi λ = α − a T B−1 a > 0 de tel sorte que (2.1) soit
vérifiée.
Posons :
 
∼ M 0
L=  
−1 −1
(M a) λ

∼ ∼∼ T
L est bien triangulaire inférieure et vérifie lii > 0 et A = L L .
On a terminé ainsi la partie existence.

2. Unicité et calcul de L Soit donc A ∈ Mn ( IR) s.d.p ; on vient de
SMA - SMI - S4


montrer qu’il existe donc L∈ Mn ( IR) triangulaire inférieure telle
∼∼ T
que lii > 0 et A = L L . On a donc

ai j = ∑nk=1 lik l jk ∀(i, j) ∈ {1, ...., n}2 (2.3)


1. Calculons la première colonne de L ; pour j = 1, on a
a11 = l 11 l11 (l 1 j = 0, ∀ j ≥ 2);et donc l11 =√a11
a21 = l 21 l11 (l 2 j = 0, ∀ j ≥ 3); l 21 = al 21
11

.
20

c
1.3. Méthode de Choleski

.
.
ai1 = l i1 l11 li1 = lai1 ∀i ∈ {2, ...., n} .
11


2. On suppose avoir calculé les q premières colonnes de L. On
calcul la colonne (q+1) en prenant j=q+1 dans (2
q+1
pour i = q + 1 aq+1q+1 = ∑k=1 lq+1k lq+1k ; lq+1k = 0 pour k ≥ q + 2
q
q q
= ∑k=1 lq2+1k +l q+1q+1 =⇒ l q+1q+1 = aq+1q+1 − ∑k=1 lq2

Notons que aq+1q+1 − ∑qk=1 lq2+1k > 0 car L existe.
On procède de la même manière pour q + 2, ....., n on a :

q+1 q
aiq+1 = ∑k=1 lik lq+1k = ∑k=1 lik lq+1k +l iq+1 lq+1q+1

Et donc

q 1
liq+1 = ( aiq+1 − ∑k=1 lik lq+1k ) l
q+1q+1


On calcule ainsi toutes les colonnes de L. On a donc démontré
∼ ∼
que L est unique par moyen constructif de calcul de L.
SMA - SMI - S4

21

c
Chapitre 2

Méthodes itératives pour la résolution


des systèmes linéaires

2.1 Rappels : normes, rayon spectral

Définition 1.1 : Norme matricielle-norme induite) On note


Mn ( IR) l’espace vectoriel sur IR des matrices carrées d’ordre n.

a. On appelle norme matricielle sur Mn ( IR) une norme ||.|| sur


Mn ( IR) telle que :

|| AB|| ≤ || A||.|| B|| ∀ A, B ∈ Mn ( IR).

b. On considère IRn muni de la norme ||.||. On appelle norme


matricielle induite sur Mn ( IR) la norme encore notée ||.||, la norme
sur Mn ( IR) définie par :
|| A|| = sup {|| Ax|| ; x ∈ IRn , || x|| = 1} ∀ A ∈ Mn ( IR)
SMA - SMI - S4

Proposition 1.2 Soit Mn ( IR) muni d’une norme induite ||.||. Alors
pour toute matrice A ∈ Mn ( IR), on a :
1.|| Ax|| ≤ || A|| ||X || ∀ x ∈ IRn .

2.|| A|| = max {|| Ax|| ; x ∈ IRn , ||x|| = 1}


n o
|| Ax||
3.|| A|| = max || x||
;x ∈ IRn − {0}

4.||.|| est une norme matricielle.

22

c
2.1. Rappels : normes, rayon spectral

Preuve 1. Soit x ∈ IRn − {0} posons y = ||xx|| , alors || y|| = 1 donc || Ay|| ≤
|| A|| (car || A|| = sup || Ax||) et donc A ||xx|| ≤ || A|| c’est à dire || Ax|| ≤
|| x||=1
|| A|| × || X || ∀ x ∈ IRn − {0} .

si x = 0 Alors Ax = 0 et || X || = 0 et || Ax|| = 0 et l’inégalité est encore


vérifiée.
2. Soit l’application Φ définie sur IRn dans IR : Φ(x) = || Ax|| est
continue sur la sphère unité S1 = {x ∈ IRn , ||x|| = 1} qui est un compact
de IRn . Donc Φ esr bornée et atteint ses bornes. Il existe x0 ∈ IRn tel
que || A|| = || Ax0 || .
|| Ax||
3. Cette égalité résulte du fait que || x||
= x
A || Ax ||
et x
|| Ax||
∈ S1 pour
x 6= 0.

4. Soient A et B ∈ Mn ( IR) on || A|| = sup {|| Ax|| ; x ∈ IRn , ||x|| = 1} , or

|| ABx|| ≤ || A|| × || Bx|| ≤ || A|| × || B|| × || X || ≤ || A|| × || B|| ,

on en déduit que ||.|| est une norme matricielle.

Définition 1.3 : Rayon spectral Soit A ∈ Mn ( IR) une matrice inversible.


On appelle rayon spectral de A la quantité :
n o
ρ( A) = max |λ | ; λ ∈ C, λvaleur propre de A .

Caractérisation de normes induites : Soit A = (ai j )1≤i, j≤n ∈ Mn ( IR)


SMA - SMI - S4

1. On munit IRn de la norme ||.||∞ et Mn ( IR) de la norme induite


correspondante, notée aussi ||.||∞
Alors :

|| A||∞ = max ∑nj=1 ai j


i ∈{1,...,n}

2. On munit IRn de la norme ||.||1 et Mn ( IR) de la norme induite


correspondante, notée aussi ||.||1
Alors :
23

c
2.1. Rappels : normes, rayon spectral

|| A||1 = max ∑in=1 ai j .


j∈{1,...,n}

3. On munit IRn de la norme ||.||2 et Mn ( IR) de la norme induite


correspondante, notée aussi ||.||2 .
Alors :
h i1
T 2
|| A||2 = ρ( A A) , en particulier si A est symétrique, || A||2 = ρ( A).

Proposition 1.5 : Approximation du rayon spectral par une


norme induite Soit A ∈ Mn ( IR) et ε > 0. Il existe une norme spectral
sur IRn (qui dépend de A et ε) telle que la norme induite sur Mn ( IR),
notée ||.|| A,ε vérifie :

|| A|| A,ε ≤ ρ( A) + ε

Corollaire 1.6 : convergence spectrale On munit Mn ( IR) d’une


norme , notée ||.|| . Soit A ∈ Mn ( IR).
Alors :

ρ( A) < 1 si et seulement si Ak converge vers 0 quand k tend vers


+∞.

Preuve : Si ρ( A) < 1, grâce à l’approximation du rayon spectral


SMA - SMI - S4

de la proposition précédente, il existe ε > 0 tel que ρ( A) < 1 − 2ε et


d’une norme induite ||.|| A,ε tel que || A|| A,ε = µ ≤ ρ( A) + ε < 1 − ε, comme
|| A|| A,ε est une norme matricielle, on a Ak ≤ µ k converge vers 0
A,ε

qd k → +∞. Comme Mn ( IR) est de dimension finie, toutes les normes


sont équivalentes et donc

Ak → 0 qd k → +∞.

24

c
2.1. Rappels : normes, rayon spectral

Réciproquement, supposons Ak converge vers 0 qd k tend vers +∞.


et montrons que ρ( A) < 1.
Soit λ une valeur propre et x 6= 0 le vecteur propre associé. Alors
Ak x = λ k x et si Ak → 0 qd k → +∞ alors Ak x → 0 et donc λ k x → 0, qui n’est
possible que si |λ| < 1.

1.7 Proposition : convergence et rayon spectral On munit Mn ( IR)


1/k
d’une norme, notée ||.||. Soit A ∈ Mn ( IR). Alors ρ( A) =lim

Ak .(admise)

1.8 Corollaire : comparaison rayon spectral et norme. On munit


Mn ( IR) d’une norme, notée ||.||. Soit A ∈ Mn ( IR). Alors :

ρ( A) ≤ || A|| .

Par conséquent si M ∈ Mn ( IR) et x(0) ∈ IRn , pour montrer que la


suite x(k) = Mk x(0) converge vers 0 dans IRn , il suffit de trouver une
norme matricielle ||.|| telle que ||.M|| < 1.

Preuve Si ||.|| est une norme matricielle, alors Ak ≤ || A||k et


donc par la caractérisation du rayon spectral donné dans la
1/k
proposition précédente, on obtient ρ( A) =lim

Ak ≤ || A|| .

1.9 Théorème : Matrice de la forme I + A 1. Soit une norme


matricielle induite, I la matrice identité de Mn ( IR) et A ∈ Mn ( IR)
telle que || A|| < 1. Alors la matrice I + A est inversible et on a ( I + A)−1 ≤
SMA - SMI - S4

1
1−|| A||.
.

2. Si une matrice de la forme I + A ∈ Mn ( IR) est singulière, alors


|| A|| ≥ 1 pour toute norme matricielle ||.|| .

Démonstration :
1. Si ρ( A) < 1, les valeurs propres de A sont toutes différentes de
1 et −1. Donc 0 n’est pas valeur propre des matrices I + A et I − A,
qui sont donc inversibles.
25

c
2.2. Méthodes itératives :

Supposons que || A|| < 1 alors on a ρ( A) < 1. Il est facile de vérifier


que
n+1
∑nk=0 Ak ( I − A) = I − A

Si ρ( A) < 1 et le corollaire 1.6 =⇒ Ak → 0 qd k → +∞. De plus, I−A


inversible.
En passant à la limite, on a donc ( I − A)−1 = ∑+k=∞0 Ak . (F)

Réciproquement, si ρ( A) ≥ 1 la série ne peut converger en raison


du corollaire 1.6.
On a démontré plus haut que si ρ( A) < 1 la série de terme générale
Ak est absolument convergente et qu’elle vérifie (F). On en déduit
que si || A|| < 1
∞ k ≤ +∞ || A ||k =
( I + A )−1 ≤ ∑+
k=0 A ∑k=0 1
1−|| A||
.

De même on a ( I − A)−1 = ∑+k=∞0 (−1)k Ak et ( I + A)−1 ≤ 1−||1A||. .

2. Si une matrice de la forme I + A ∈ Mn ( IR) est singulière, alors


λ = −1 est valeur propre et donc ρ( A) = 1 ≥ 1 et en utilisant le corollaire
1.8, on obtient que || A|| ≥ ρ( A) = 1 ≥ 1.

2.2 Méthodes itératives :

2.2.1 Définitions et propriétés


SMA - SMI - S4

Soit A ∈ Mn ( IR) une matrice inversible et b ∈ IRn , on cherche toujours


ici à résoudre le système : Trouver x ∈ IRn tel que Ax = b, mais de
façon itérative, c’est à dire par la construction d’une suite.

Définition 2.1.1 : Méthode itérative On appelle méthode itérative


de résolution du système linéaire Ax = b une méthode qui construit
une suite (x(k) )k∈ IN où ”l’itéré” x(k) est calculé à partir des itérés
x(0) , x(1) , x(2) , ....., x(k−1) censée converger vers x solution de Ax = b.

26

c
2.2. Méthodes itératives :

Définition 2.1.2 : (méthode itérative convergente) On dit que


la méthode itérative est convergente si pour tout choix initial
x(0) ∈ IRn , on a, x(k) → x qd x → +∞.

Enfin, on veut que cette suite soit à calculer. Une idée est de
travailler avec une matrice P inversible qui soit ”proche” de A,
mais plus facile à inverser que A.
On appelle matrice de pré conditionnement cette matrice. On
écrit alors A = P − (P − A) = P − N, et on réécrit le système Ax = b sous
forme :
Px = ( P − A) x + b = Nx + b

Cette forme suggère la construction de la suite (x(k) )k∈ IN à partir


d’un choix initial x(0) donné, par la formule suivante :
Px(k+1) = Nx(k) +b,

ce qui peut s’écrire également


x(k+1) = Bx(k) +c (2.1)

avec B = P−1 N = I − P−1 A et c = P−1 b.


On introduit l’erreur d’approximation e(k) à l’itération définie
par :
e(k) = x(k) − x, k ∈ IRn (2.2)

où x(k) est construit par (2.1) et x = A−1 b. Il est facile de vérifier


SMA - SMI - S4

que x(k) → x = A−1 b qd x → +∞ si et seulement si e(k) → 0 qd k → +∞.

Lemme 2.1.3 : La suite ( e(k) )k∈ I N définie par (2.2) est également
définie par
e(0) = x(0) − x et e(k) = x(k) − x = Bk e(0) (2.3)

comme c = P−1 b = P−1 Ax, on a


e(k+1) = x(k+1) − x = Bx(k) − x + P−1 Ax = B( x(k) − x), B = P−1 N = I − P−1 A

Par récurrence sur k on a e(k) = Bk (x(0) −x)

27

c
2.2. Méthodes itératives :

Théorème 2.1.4 : Convergence de la suite. Soit A, P ∈ Mn ( IR) inversibles.


Soit x(0) donné et la suite (x(k) )k∈I N la suite définie par (2.1)
1. La suite (x(k) )k∈ IN définie par (2.1) converge vers x = A−1 b si et
seulement si ρ(B) < 1.
2. La suite (x(k) )k∈ IN définie par (2.1) converge si et seulement si
il existe une norme induite ||.|| telle que ||B|| < 1.
dém :
1. On a vu aussi que (x(k) )k∈I N définie par (2.1) converge si et
seulement si e(k) → 0 qd x → +∞, on en déduit par le crollaire 1.6 que
(e(k) )k∈ IN converge vers 0 si et seulement si ρ( B) < 1

2. S’il existe une norme induite ||.|| telle que ||B|| < 1 et donc
ρ( B) < 1 et donc d’aprés le corollaire 1.6 la méthode converge.

Réciproquement Si la méthode converge alors ρ(B) < 1, et donc


il existe η > 0 tel que ρ(B) = 1 − η. Prenons ε = η2 et appliquons la
proposition 1.5, il existe une norme induite ||B||B,ε ≤ 1 − ε < 1 d’où
le résultat.

(k+1) ∼ ∼(k)
Théorème 2.1.5 : Considérons deux méthodes itératives ∼x =T x

+c
∼ (0)
et x(k+1) = Tx(k) +c avec ρ(T ) < ρ(T ) et x(0) =∼x alors ∀ε > 0 ∃k0 > 0 tq
∼(k) ∼
ρ( T )
k > k0 sup ee(k) ≥ ( ρ(T )+ε )k .

Donc la méthode itérative de la matrice T converge plus rapidement



que celle de la matrice T, en résumé, l’étude des méthodes itératives
SMA - SMI - S4

consiste à étudier les deux problèmes suivants :


1. Etant donne une méthode itérative de la matrice T, déterminer
si la méthode converge, i.e si ρ( A) < 1 ou s’il existe une norme ||.||
telle que ||T || < 1.

2. Etant donné deux méthodes itératives convergente T et T,
les comparer, la méthode plus rapide est celle ayant le plus petit
rayon spectral.
28

c
2.3. Description des méithodes classiques

2.1.6 On appelle taux moyen de convergence sur k itérations



le nombre R = (k, T ) = − log T k 1/k et taux asymptotique de convergence

lim R(k, T ) = − log (ρ( T )) R( T ) joue le rôle de vitesse
le nombre R(T ) =k→+ ∞
de convergence, plus R(T ) est grand plus rapide est la convergence.

2.3 Description des méithodes classiques

Méthode de Jacobi 3.1 : Elle consiste à choisir P = D = diag(aii )


inversible et N = (−ai j )i6= j . Le schéma itératif est comme suit :

x(k+1) = D −1 ( L + U ) x(k) + D −1 b (3.1.1)

La matrice BJ = D−1 ( L + U ) est dite matrice de Jacobi associée à la


matrice A. Si x(0) est le vecteur initial (donné), l’algorithme de
Jacobi est de la forme

(k+1) (k)
xi = − a1ii ∑ j6=i ai j x j + abiii pour i = 1, 2....., n

Cette algorithme nécessite aii 6= 0 pour i = 1, 2....., n c’est à dire


D inversible.

Explicitement, on obtient
(k+1) (k) (k) (k)
a11 x1 = − a12 x2 − a12 x2 −........... − a1n xn +b1

.
.
SMA - SMI - S4

.
(k+1) (k) (k) (k) (k)
an1 x1 = − an1 x1 − an2 x2 − an2 x2 −........ − ann−1 xn−1 +bn

D’après le théorème précédent, une condition suffisante pour


que la méthode de JACOBI converge est ρ(B J ) < 1 ou BJ < 1.

Théorème 3.1.2

29

c
2.3. Description des méithodes classiques

Si A est une matrice carrée à diagonale strictement dominante


en lignes alors la m éthode de Jacobi converge.

Preuve On a ∑nj=1 ai j < | aii | par définition BJ = D−1 ( L + U ),


j 6 =i

D’autre part (b J )i j = − aaiiij pour i 6= j et (b J )ii = 0 d’où BJ ∞


= max ∑ j (b J )i j =
i
( )
max
i
1
| aii | ∑nj=1 ai j et on a BJ ∞
< 1.
j 6 =i

Corollaire 3.1.3

Si A est une matrice carrée à diagonale strictement dominante


en colonnes alors la méthodes de Jacobi converge.(la démonstration
est identique à celle du théor ème 3.1.2 en considérant la norme
||.||1

3.2 Méthode Gauss-Seidel Pour cette méthode, les matrices P


et N sont données par :
P = D − L inversible et N = U, L et U proviennent de l’écriture A = D − L − U,
le schéma itératif est :

( D − L) x(k+1) = Ux(k) +b (3.2.1)

ou encore
SMA - SMI - S4

x(k+1) = ( D − L)−1 Ux(k) +( D − L)−1 b (3.2.2)

en posant que D − L est inversible (3.2.1) et (3.3.2) peuvent s’écrire


sous forme

Dx(k+1) = Lx(k+1) +Ux(k) +b (3.2.3)

et

x(k+1) = D −1 Lx(k+1) + D −1 Ux(k) + D −1 b (3.3.3)

30

c
2.3. Description des méithodes classiques

En explicitant (3.3.3) on obtient :


(k+1) (k) (k)
a11 x1 = − a12 x2 −............... − a1n xn + D−1 b1
(k+1) (k+1) (k) (k)
a22 x2 = − a21 x1 − a23 x3 −.............. − a2n xn + D−1 b2
.
.
(k+1) (k+1) (k+1) (k+1) (k+1) (k)
aii xi = − ai1 x1 − ai2 x2 −... − aii−1 xi−1 − ai+1 xi+1 −... − ain xn + D−1 bi

(k+1) (k+1) (k+1) (k+1)


ann xn = − an1 x1 − an2 x2 −.............. − ann−1 xn−1 + D−1 bn

La matrice BGS = (D − L)−1 U est dite matrice de Gauss-Seidel associée


à la matrice A.
Remarque :
BGS = ( I − D −1 L)−1 D −1 U.

Théorème 3.2.1 Si A est une matrice carrée à diagonale strictement


dominante en lignes alors la méthode de Gauss-Seidel converge.

Preuve Posons BGS = (D − L)−1 U et montrons que ||BGS ||∞ < 1 où ||BGS ||∞ =
|| BGS x||∞
sup || x||∞
x6=0
Soit y = BGS x = (D − L)−1 Ux alors (D − L) y = Ux ou encore Dy = Ly + Ux
et y = D−1 Ly + D−1 Ux. Considérons l’indice i0 tq
yi0 = max | yi | = || y||∞ = || BGS x||∞
i
Il vient yi0 = ∑ij0=−11 (D−1 L)i0 j y j + ∑nj=i0 +1 (D−1 U )i0 j x j
par suite yi0 = || y||∞ ≤ ∑ij0=−11 aaii00i0j . || y||∞ + ∑nj=i0 +1 ai0 j
ai0 i0 .||x||∞
SMA - SMI - S4

En regroupant les termes


ai0 j || y|| ai0 j
(1− ∑ij0=−11 ai0 i0 ) ||x||∞ ≤ ∑nj=i0 +1 ai0 i0

ai0 j
Par hypothèse, le terme 1− ∑ij0=−11 ai0 i0 >0 d’où on tire :
|| BGS x||∞ || y||∞ ai0 j ai0 j
|| x||∞
= ||x|| ≤ ( ∑nj=i + 1 a )(1− ∑ij0=−11 aii0 i0 )−1
∞ 0 i0 i0

Finalement
|| BGS x||∞
max < 1.
x6=0 || x||∞

31

c
2.3. Description des méithodes classiques

3.3 Méthode de relaxation Si on considère les matrices P et N


dépendantes d’un paramètre w, on obtient A(w) = P(w) − N (w).
Prenons P(w) = w1 D − L et N (w) = 1−ww D + U, en supposant P(w) inversible,
le schéma itératif qui en résulte est le suivant :
(k)
x(k+1) = ( w1 D − L)−1 ( 1−ww D + U ) x +( w1 D − L)−1 b (3.3.1)

L’équation 3.3.1 peut être remplaceée par :


−1
x(k+1) = ( w1 D ) Lx(k+1) +[(1 − w) I + wD −1 U )−1 x(k) +(wD −1 )b (3.3.2)

La matrice de relaxation est donnée par :

Bw = ( w1 D − L)−1 ( 1−ww D + U ).

* Si w = 1, on retrouve la méthode de Gauss-Seidel.


* Si w > 1, on parle de sur-relaxation.
* Si w < 1, on parle de sous-relaxation.
Ici la condition de convergence ||Bw || < 1 dépendra du paramètre
w et par conséquent, on est amené à chercher tous les w pour
lesquels il y a convergence et en suite choisir la valeur optimale
w0 de telle sorte que la vitesse de convergence soit meilleure
possible.
SMA - SMI - S4

Théorème Si A est une matrice hermitienne définie positive


alors la méthode de relaxation converge si w ∈ ]0, 2[ .

32

c
Chapitre 3

Approximation des solutions de


l’equation non linéaire f ( x) = 0

3.1 Rappels et notations :

Définition 1 : Soit k un réel strictement positif et g une fonction


définie sur un intervalle [a, b] de IR à valeurs dans IR.
La fonction g est dite Lipschitzienne de rapport k (ou encore
k − Lipshitzienne si pour tout x et y ∈ [ a, b] on a :

| g( x) − g( y)| ≤ k | x − y| .

Définition 2 : Soit g est une fonction k − Lipschitzienne de rapport k


sur [a, b]. La fonction g est dite contractante de rapport de contraction
k ∈ ]0, 1[ .

Exemple 1 : g( x) = sin x est Lipshitzienne de rapport k = 1.


SMA - SMI - S4

3.1.3 Définition 3 : Soit une g fonction définie sur un intervalle


[ a, b] de IR à valeurs dans IR, la fonction g est dite uniformément
continue sur [a, b], si :
∀ε > 0, ∃η > 0 tel que ∀ x et y ∈ [ a, b] , vérifiant | x − y| ≤ η, on ait | g( x) − g( y)| ≤ ε.

Remarque 1 : Toute fonction Lipschitzienne sur [a, b] est uniformément


continue sur [a, b] .
33

c
3.1. Rappels et notations :

Théorème 1 : (Des valeurs intermédiaires) Soit f une fonction


définie et continue sur un intervalle fermé borné [a, b] de IR. Alors
pour tout θ ∈ f ( [a, b] ), il existe un réel c ∈ [a, b] tel que θ = f (c). Si de
plus f est strictement monotone alors le point c est unique.

3.1.5 Théorème 2 : (TVI. cas particulier θ = 0) Soit f une fonction


définie et continue sur un intervalle [a, b] et vérifiant f (a) × f (b) < 0
alors ∃c ∈ [a, b] tel que f (c) = 0. Si de plus f est trictement monotone
alors c est unique.
3.15 bis :(Théorème de Rolle)
Soit f une fonction définie sur un intervalle [a, b] à valeurs dans
IR et si f est continue sur [ a, b] et dérivable ] a, b[ et vérifie f (b) = f ( a)
alors ∃c ∈ ]a, b[ tel que f (1) (c) = 0

3.1.6 Téorème 3 :(Des accroissemenys finis) Soit f une fonction


définie sur un intervalle [a, b] à valeurs dans IR et si f est continue
sur [a, b] et dérivable sur ]a, b[, alors elle existe ∃c ∈ ]a, b[ tel que :
f ( b ) − f ( a ) = ( b − a ) × f (1) ( c )

où f (1) ( c ) est la dérivée de f au point c.

Théorème 4 : (Formule de Taylor) Soit f une fonction de classe


C n sur un intervalle [ a, b], alors il existe un réel c ∈ ] a, b[ tel que

f (b) = f ( a) + (b − a) f (1) ( a)+ 2!1 (b − a) f (2) ( a)


SMA - SMI - S4

+....+ n!1 (b − a)n f (n) ( a)+ (n+1 1)! (b − a)n+1 f (n+1) (c).

Théorème 5 : (De Maclaurin) Soit f une fonction de classe Cn


sur un intervalle I contenant 0, et telle que f (n) soit dérivable
à l’interieur de l’intervalle de I. Alors ∀ x ∈ I , il existe un réel c
strictement compris entre 0 et x tel que :
f ( x) = f (0) + x f (1) (0)+ 2!1 x2 f (2) (0) + ....+ n!
1 n (n)
x f (0)+ (n+1 1)! xn+1 f (n+1) (c).

34

c
3.1. Rappels et notations :

Définition 4 : Soit θ un réel et f une fonction définie sur un


intervalle I de IR à valeurs dans IR. θ est dit zéro de f si f (θ) = 0.

Définition 5 : Soit θ un réel et g une fonction définie sur un


intervalle I ⊂ IR. On dit que θ est un point fixe de g si g(θ) = θ.

Lemme 1 : Soit I un intervalle de IR et f une fonction définie


sur I et à valeur dans IR. Alors la recherche des zéros de f est
équivalente à la recherche des points fixes de la fonction g définie
par g(x) = x − f (x).

Lemme 2 : Soit g une fonction de classe C1 sur [a, b] . S’il existe


un réel k ≥ 0 tel que : g(1) (x) ≤ k ∀x ∈ [a, b] alors g est k − Lipschitzienne.

Preuve : Il suffit d’appliquer le théorème des accroissements


finis à g sur [x, y] avec x ≤ y. Donc ∃c ∈ ]x, y[ tel que
g ( y ) − g ( x ) = ( y − x ) × g(1) ( c )

donc | g( y) − g(x)| ≤ k | y − x| puisque g(1) (c) ≤ k.

Définition 6 : Soit (xn )n∈ IN une suite admettant pour limite θ.


On appelle erreur de la n-ième étape le réel défini par :
en = xn −θ.
SMA - SMI - S4

Définition 7 : On dit que la convergence (xn )n∈ IN vers θ est d’ordre


p si :

|en+1 |
lim p = c
x→+∞ |en |

où c et p sont des réels positifs


* si p = 1 la convergence est dite linéaire
* si p = 2 la convergence est dite quadratique
* si p = 3 la convergence est dite cubique.

35

c
3.1. Rappels et notations :

Définition 8 : On dira que le réel δ est une approximation du


réel α avec une précision ε si |α − δ| ≤ ε.
En particulier, on dira que le terme (xn0 ) d’une suite ( xn )n∈ I N
approche θ avec une précision ε si |xn −θ| ≤ ε.
Exemple :
xn = 1/n tend vers zéro quand n tend vers +∞.
Si on veut une précision ε = 10−3 il suffit de prendre n0 tel que
n0 ≥ 103 .

3.1.16 Théorème 6 : Soit g une fonction k − contractante sur [ a, b] à


valeurs dans [a, b] , et (xn )n∈ IN la suite récurrente définie par
x0 ∈ [ a, b] , x0 donné et xn+1 = g(xn ) pour tout n ≥ 0.
Alors :
1. La suite (xn )n∈ IN converge vers un réel θ.
2. La fonction g admet un point fixe unique.
3. Pour tout n ∈ IN ∗ on a :
n
| xn −θ | ≤ 1k−k | x1 − x0 |

Preuve : Comme x0 ∈ [a, b] et que g une fonction k − contractante sur


[ a, b] à [ a, b ], on a xn ∈ [ a, b ] ∀ n ∈ I N.
SMA - SMI - S4

Le fait que g est une fonction k − contractante sur [ a, b] implique

| xn+1 − xn | ≤ | g( xn ) − g( xn−1 )| ≤ k | xn − xn−1 | ∀n ∈ I N ∗ .

Par conséquent on obtient

| xn+1 − xn | ≤ k n | x1 − x0 | n≥0 (3.1.1)

36

c
3.1. Rappels et notations :

A l’aide de l’inégalité (3.1.1) on montre que la suite ( xn )n∈ IN


vérifie :
xn+ p − xn ≤ xn+ p − xn+ p−1 + xn+ p−1 − xn+ p−2 + .................. +
| xn+1 − xn |
≤ kn+ p−1 | x1 − x0 | + kn+ p−2 | x1 − x0 | + ...................... +
kn | x1 − x0 |
1−k p n
≤ 1−k k | x1 − x0 | .
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | (3.1.2)
L’inégalité (3.1.2) prouve que la suite est de Cauchy car kn →
0 qd k → +∞
alors ∀ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0 on ait :
1−k
kn ≤ | x1 − x0 |ε

et par la suite
1 n
1−k k | x1 − x0 | ≤ ε.
Donc pour tout ε > 0, ∃n0 > 0 tel que pour tout n ≥ n0
on ait :
1 n
xn+ p − xn ≤ 1−k k | x1 − x0 | ≤ ε.
( xn )n∈ I N est de Cauchy et par conséquent elle converge vers
une limite θ. Comme g est continue sur [ a, b], et que xn+1 =
g( xn ) et que xn ∈ [ a, b] ∀n ∈ I N alors on a lim xn = θ = g(θ ),
+∞
SMA - SMI - S4

c’est à dire que θ est un point fixe de g.


Unicité du point fixe :
Supposons que g admet un autre point fixe α 6= β alors on a :
| g(α ) − g(β)| = |α − β| ≤ k |α − β| ou encore (1 − k) |α − β| ≤
0 mais comme k < 1, alors α = β.
Enfin, en faisant tendre p vers +∞ on obtient dans l’inégalité(3.1.2) :

37

c
3.1. Rappels et notations :

1 n
xn+ p − xn ≤ 1−k k | x1 − x0 |

on obtient :

|θ − xn | ≤ 1 n
1−k k | x1 − x0 | ∀n ∈ I N ∗ .

Théorème 7 : (Condition de convergence locale) Soit g une


fonction de classe C 1 au voisinage de θ. Si g(θ ) = θ et g(1) (θ ) <
1, alors ∃ε > 0 tel que ∀ x0 ∈ [θ − ε, θ + ε] la suite ( xn )n∈ IN =
( g( xn−1 ))n∈ IN est définie et converge vers θ,l’unique solution
de g( x) = x dans I = [θ − ε, θ + ε] .

preuve : Puisque g est une fonction de classe C 1 au voisinage


de θ et que g(1) (θ ) < 1 on a :

g(1) ( x) < 1,au voisinage de θ.

Par conséquent, il existe ε > 0 tel que :


∀ x ∈ I = [θ − ε, θ + ε] g(1) ( x) < 1, et puisque g(1) est continue
sur le fermé I, on en déduit qu’∃ k ∈ [0, 1] tel que

∀ x ∈ I = [θ − ε, θ + ε] g(1) ( x ) ≤ k < 1

Pour appliquer le théorème 6, il suffit de vérifier que : g( I ) ⊂


I
Or, par application du théorème des accroissements finis on
SMA - SMI - S4

a:

∀ x ∈ I = [θ − ε, θ + ε] | g( x) − θ | ≤ | x − θ | .

Remarque 2 : * Si g(1) (θ ) = 1, la suite peut converger ou


diverger.
* Si g(1) (θ ) > 1, et si la suite possède une infinité de termes
différents de θ, alors la suite ne peut converger.
38

c
3.2. Méthode de Newton et méthode de la corde

Théorème 8 : La suite récurrente définie par x0 ∈ [ a, b], x0


donné et xn+1 = g( xn ), ∀n ≥ 0, converge linéairement vers θ
et si g est de classe C 1 sur [ a, b], alors
|en+1 |
C = lim =| g(1) (θ ) |
+∞ |en |

preuve : Il suffit d’appliquer le théorème des accroissements


finis dans l’intervalle d’extrémités xn et θ,on a
|en+1 | = | xn+1 − θ | = | g( xn ) − θ | = ( xn − θ ) g(1) (cn ) et de là
on obtient :
|en+1 |
lim = lim | g(1) (cn ) |=| g(1) (θ ) | .
+∞ |en | +∞

3.2 Méthode de Newton et méthode de la corde

3.2.1 Méthode de Newton (ou Newton-Raphson) :

Soit une f : IR → IR une fonction de classe C 1 et θ un zéro


simple de f , c’est à dire f (θ ) = 0 et f (1) (θ ) 6= 0. Supposons
que l’on connaisse une valeur xn proche de θ. Pour calculer
xn+1 nous prenons l’intersection de l’axe Ox avec la droite de
la tangente du graphe de f passant par le point ( xn , f ( xn ))
Clairement, nous avons la relation f ( xn )/( xn − xn+1 ) = f (1) ( xn )
qui donne, lorsque x0 est choisi proche de θ, la méthode de
SMA - SMI - S4

Newton :
f ( xn )
xn+1 = xn − f (1) ( xn )
n = 0, 1, ....... (3.2.1)

Nous voyons ainsi que la la méthode de Newton est une méthode


de point fixe pour calculer θ. En effet, il suffit de constater que
si on pose :

39

c
3.2. Méthode de Newton et méthode de la corde

f ( x)
g( x) = x − f (1) ( x)
alors f ( x) = 0 ⇐⇒ x = g( x) (du moins
au voisinage de θ pour lequel f (1) ( x) 6= 0) et (3.2.1) s’écrit
x n + 1 = g ( x n ).

En vu d’utiliser le Théorème de la convergence locale, calculons


g(1) ( x ) :
si f est C 2 :

( f (1) ( x))2 − f ( x) f (2) ( x)


g(1) ( x ) = 1 − 2
[ f (1) ( x) ]

et par la suite , puisque f (θ ) = 0 et f (1) (θ ) =⇒ g(1) (θ ) = 0.


Nous obtenons le résultat suivant :

Théorème 9 : Supposons f est C 2 et supposons que θ soit tel


que f (θ ) = 0 et f (1) (θ ) 6= 0. Alors ∃ε > 0 si x0 satisfait |θ − x0 | ≤
ε, la suite ( xn )n∈ IN donnée par la méthode de Newton (3.2)
converge vers θ. De plus la convergence est quadratique.
Preuve :
f ( x)
on a g( x) = x − f (1) (x) et g(1) (θ ) < 1 alors la convergence
annoncée dans ce théorème est une conséquence du théorème
de la convergence locale.
A priori la covergence est linéaire
SMA - SMI - S4

R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|

si nous prenons y = θ nous tirons que

| g( x) − g(θ )| ≤ k | x − θ | ≤ | x − θ | ≤ ε.

40

c
3.2. Méthode de Newton et méthode de la corde

Nous allons maintenant montrer que la convergence est quadratique,


ceci est une conséquence du fait que g(1) (θ ) = 0.
Nous développons f autour de xn , nous obtenons :

f ( x) = f ( xn ) + ( x − xn ) f (1) ( xn ) + 2!1 ( x − xn )2 f (2) (ξ x )

où ξ x ∈ à l’intervalle d’extrimité x et xn . En choisisant x = θ


dans l’égalité ci-dessous, en divisant par f (1) ( xn ) et en tenant
compte du fait que f (θ ) = 0, nous avons :

f ( xn ) (2)

f 1) ( xn )
( + θ − xn + 2ff (1)((ξxθ )) ( x − xn )2 = 0
n

En utilisons (3.2.1) nous obtenons


(2)
1 | f (ξθ )|
| xn+1 − θ | = 2 | f (1) ( xn )| | θ − xn |2

Il suffit maintenant de poser

max| f (2) (ξθ )|


1 x∈ I
C= 2 min| f (1) ( xn )|
x∈ I

Pour obtenir

| xn+1 − θ | ≤ C | x − xn |2

d’où la convergence quadratique.


SMA - SMI - S4

B. Mhéthode de la corde (ou Newton modifiée) Cette méthode


permet d’éviter qu’à chaque itération de (3.2.1) on ait à évaluer
f (1) ( xn ). La méthode de la corde consiste à remplacer f (1) ( xn )
par f (1) ( x0 ) dans (3.2.1), ce qui donne :
f ( xn )
xn+1 = xn − f (1) ( x0 )
n = 0, 1.........

41

c
3.2. Méthode de Newton et méthode de la corde

Le calcul de la suite ( xn )n∈ IN s’effectue en prenant toujours la


même pente f (1) ( x0 ), d’où l’appelation méthode de la corde. Ici
encore, nous posons
f ( x)
g( x) = x − f (1) ( x 0)

et constatons que f (θ ) = 0 si g(θ ) = θ.


Ainsi on a

x n+1 = g ( x n )

et la méthode est une méthode de point fixe.

Remarque : g dépend du point fixe de départ x0 .

Théorème 10 : Supposons f de C 2 et supposons θ soit tel que


f (θ ) = 0 et f (1) (θ ) 6= 0. Alors ∃ε > 0 tel que si x0 ∈ I =
[θ − ε, θ + ε], la suite ( xn )n∈ IN donnée par la méthode de la corde
converge vers θ. La convergence est linéaire.

Preuve : f de C 2 et puisque f (1) (θ ) 6= 0, il est facile de montrer


qu’∃ε > 0 et k < 1 tels que x0 ∈ I = [θ − ε, θ + ε] on a

(1) f (1) ( x)
g ( x) = 1 − f (1) ( x0 )
<k ∀ x ∈ I.
SMA - SMI - S4

et par la suite on a
R x (1) (1)
| g( x) − g( y)| = y g ( t ) dt ≤ max g ( t ) | x − y | <
t∈ I
k | x − y|

si y = θ, on a | g( x) − g(θ )| ≤ k | x − θ | , c à d | g( x) − θ | ≤
k |x − θ|

42

c
3.3. Méthode de dichotomie :

3.3 Méthode de dichotomie :

Soit f une fonction continue sur [ a, b] vérifiant f ( a) × f (b) ≤


0.
La fonction f admet au moins un zéro dans [ a, b]. La méthode
de dichotomie consiste à approcher θ par un encadrement, en
réduisant à chaque étape l’intervalle de moitié selon l’algorithme
suivant

Etape I : on pose a0 = a et b0 = b, on pose c = a0 +2 b0 puis on


teste si c0 = θ c’est terminé, sinon si f ( a0 ) × f (c0 ) ≤ 0 alors
θ ∈ [ a0 , c0 ] , on pose a1 = a0 et b1 = c0 puis c1 = a1 +2 b1 .
Si f (b0 ) × f (c0 ) ≤ 0 alors θ ∈ [c0 , b0 ] , alors on pose a1 = c0 et
b1 = b0 puis c1 = a1 +2 b1 .
b0 − a0
Aprés cette étape la longueur de [ a1 , b1 ] est égale à 2 =
b− a
2 .

Etape II : On recommence le procédé de l’étape 1.

Etape k : A chaque étape k du procédé, soit on tombe sur ck =


θ soit on diminue la longueur de l’intervalle de moitié.

Théorème : Les ak , bk et ck satisfont les propriétés suivantes :


SMA - SMI - S4

1. [ ak+1 , bk+1 ] ⊂ [ ak , bk ] .
bk − ak b0 − a0
2. bk+1 − ak+1 = 2 = 2k+1
.
3. la suite ck converge vers θ.
b− a
4. |ck − θ | ≤ 2k+1
.

43

c
3.3. Méthode de dichotomie :

Preuve : 1. Pour k ≥ 0 on ck = ( ak + bk )/2 et [ ak+1 , bk+1 ] =


[ ak , ck ] ou [ck , bk ] donc [ ak+1 , bk+1 ] ⊂ [ ak , bk ] .
2. On a par construction bk+1 − ak+1 = (bk − ak )/2 montre par
récurrence que

bk − ak = (b − a)/2k

Pour k = 0 la relation est vraie.


Si on suppose que la relation est vraie à l’ordre k, c’est à dire
bk − ak = (b − a)/2k .
Montrons alors que bk+1 − ak+1 = (b − a)/2k+1 .
1
En effet, bk+1 − ak+1 = (bk − ak )/2 = 2 (bk − ak )/2 = (b −
a)/2k+1 .
3. Par construction θ ∈ [ ak , bk ] et ck = ( ak + bk )/2 est le milieu
de [ ak , bk ] donc :

|ck − θ | ≤ (bk − ak )/2 ≤ (b − a)/2k+1 → 0 qd k → +∞.

En d’auters termes :

ck → θ qd k → +∞.

Remarque : Le théorème précédent permet de calculer à l’avance


SMA - SMI - S4

le nombre maximal n ∈ I N d’itérations assurant la précision ε,


en effet :
Pour que cn vérifie : |ck − θ | ≤ (b − a)/2n+1 à la n-ième
étape, il suffit que n vérifie : (b − a)/2n+1 ≤ ε, on a alors :

|ck − θ | ≤ (b − a)/2n+1 ≤ ε,
b− a
ε ≤ 2n+1 ⇐⇒ n ≥ ln(b−lna)−2
Lnε
− 1.

44

c
3.4. Méthode de la fausse position (Fegula Falsi)

Exemple : f ( x) = x3 + 4x2 − 10. On vérifie graphiquement


que f admet une racine réellé dans [1, 2] et que la méthode de
dichotomie est appliquable. f (1) × f (2) ≤ 0.
Pour trouver une approximation de cette racine, on peut réaliser
la méthode de dichotomie avec une précision égale à 10−10 .
On a les résultats suivants : n (numérique) = 33 n(théorie) =
32, 21928
x = 1.3652300134 f ( x) = −2.378897e − 0.11.

3.4 Méthode de la fausse position (Fegula Falsi)

Au lieu de prendre à chaque étape ck qui est le milieu de [ a, b],


la méthode de fausse position prend le point d’intersection de
l’axe Ox avec la droite passant par ( ak , f ( ak )) et (bk , f (bk )).
L’équation de cette droite est donnée par :
x− a y− f ( a)
b− a = f (b)− f ( a)

−bk
Elle coupe l’axe Ox au point : M(ck , 0) où ck = ak + f ( ak ) f (aak)− f (b )
.
k k

On suit le procédé comme dans le cas de dichotomie en testant :


SMA - SMI - S4

Si f (ck ) × f ( ak ) ≤ 0 alors θ ∈ [ ak , ck ] , alors on pose ak+1 = ak


et bk+1 = ck .
Si f (ck ) × f (bk ) ≤ 0 alors θ ∈ [ck , bk ] , alors on pose ak+1 = ck
et bk+1 = bk .
Puis on cherche à nouveau la droite passant par ( ak+1 , f ( ak+1 ))
et (bk+1 , f (bk+1 )).

45

c
3.4. Méthode de la fausse position (Fegula Falsi)

Exemple : f ( x) = x3 − 20 et comme f (0.75) × f (4.5) < 0


on peut donc appliquer la méthode de la fausse position dans
l’intervalle [0.75, 4.5] .

La solution est x = 2.7133.


SMA - SMI - S4

46

c
Chapitre 4

Problèmes d’interpolation

4.1 Position du problème :

Supposons que l’on veuille chercher un polynôme p de degré


n ≥ 0 qui, pour des valeurs t0 , t1 , t2 , ...., tn distinctes données, prennent
des valeurs p0 , p1 , p2 , ...., pn respectivement, c’est à dire

p(t j ) = p j , pour 0 ≤ j ≤ n (4.1)

Une manière apparemment simple de résoudre ce problème


est d’écrire

p(t) = a + a1 t + a2 t2 +......... + an tn (4.2)

où a0 , a1 , a2 , ...., an sont des coefficients qui devront être déterminés.


SMA - SMI - S4

Les (n + 1) relations (4.1) s’écrivent alors :

a + a1 t j + a2 t2j +......... + an tnj = p j pour 0 ≤ j ≤ n (4.3)

On obtient un système de (n + 1) équations à (n + 1) inconnues


a0 , a1 , a2 , ...., an

Soit T la (n + 1) × (n + 1) matrice définie par :

47

c
4.2. Interpolation de LAGRANGE

 
1 t0 t20 . . . . . . . tn0
 
t21 tn1
 

 1 t1 . . . . . . . 

 

 . . . . 

 

 . . . . 

 
. . . .
 
 
 
T =
 
. . . . 
 
 

 . . . . 

 

 . . . . 

 

 . . . 

 
. . .
 
 
 
1 tn t2n tnn

C’est la matrice de Vandermonde associée aux points t0 , t1 ,


t2 , ...., tn

Si →a et→p sont (n + 1)- vecteurs colonnes suivants :


→ →
a = ( a0 , a1 , a2 , ...., an )t et p = ( p0 , p1 , p2 , ...., pn )t , nous pouvons écrire
(4.3) sous forme matricielles :
→ →
Ta=p (4.4)

Ainsi, le problème consiste à chercher le polynôme p satisfaisant


(4.1) peut se réduire à résoudre le système linéaire (4.4) qui n’est
pas une tâche triviale.
SMA - SMI - S4

4.2 Interpolation de LAGRANGE

1.1 Base de Lagrange : Il est facile de résoudre le problème (4.1)


lorsque toutes les valeurs p j sont égales à zéro sauf une, qui est
fixée à 1.
Soit k un entier donné entre 0 et x, et supposons que l’on ait
pk = 1 et pour j 6= k p j = 0.

Soit ϕk la fonction de t définie par


48

c
4.2. Interpolation de LAGRANGE

(t−t0 )(t−t1 )................(t−tk−1 )(t−tk+1 )..........(t−tn )


ϕk ( t ) = (t (4.5)
k −t0 )(tk −t1 )................ (tk −tk−1 )(tk −tk+1 ).......... (tk −tn )

Le numérateur de ϕk est un produit de n termes (t − t j ), j 6= k et


est donc un polynôme de degré n en t.
Le dénominateur de ϕk est une constante et il est facile de
vérifier que :
(i) ϕk est un polynôme de degré n
(ii) ϕk (t j ) = 0 si j 6 = k, 0 ≤ j ≤ n

(iii) ϕk (tk ) = 1
A chaque point tk nous avons donc associé un polynôme ϕk de
degré n valant 1 en tk et zéro aux autres points t j , j 6= k.
Les polynômes ϕ0 , ϕ1 , ϕ2 , ...., ϕn sont linéairements indépendants.
En effet ∀t ∈ IR, si a0 , a1 , a2 , ...., an sont n + 1 nombres réels tels que
∑nj=0 α jϕ j (t) = 0 (∀t ∈ IR), alors pour t = tk nous obtenons :

0 = ∑nj=0 α jϕ j (tk ) = α k ,

et par conséquent tous les αk = 0 pour 0 ≤ k ≤ n.

Notons IPn l’espace vectoriel formé par tous les polynômes de


degré ≤ n de dimension n + 1 et que sa base canonique est donnée
par 1, t, t2 , ...., tn .
Le fait que les polynômes ϕ0 , ..., ϕk , ...., ϕn sont linéairements indépendants
montre que ces derniers forment aussi une base de IPn .

Définition 1.1 : Nous dirons que (ϕ0 , ..., ϕk , ...., ϕn ) est base de Lagrange
SMA - SMI - S4

de IPn associée aux points t0 , t1 , t2 , ...., tn .

Exemple 1.1 : Prenons n = 2, t1 = −1, t2 = 0 et t3 = 1. La base de Lagrange


de IPn associée aux points -1, 0 et 1 est formée par les polynômes
définis par :
(t−t1 )(t−t2 )
ϕ0 ( t ) = (t = 0.5t2 −0.5t (4.6)
0 −t1 )(t0 −t2 )
(t−t0 )(t−t2 )
ϕ1 ( t ) = (t = 1−t (4.7)
1 −t0 )(t1 −t2 )

49

c
4.3. Interpolation d’une fonction continue par un polynôme

(t−t0 )(t−t1 )
ϕ2 ( t ) = (t = 0.5t2 +0.5t (4.8)
2 −t1 )(t2 −t1 )

Revenons au point (4.1) consistant à chercher le polynôme p


de degré n qui prenne des valeurs données p0 , p1 , p2 , ...., pn en des
points distincts t0 , t1 , t2 , ...., tn .
Soit (ϕ0 , ..., ϕk , ...., ϕn ) une base de Lagrange de IPn associée aux
points t0 , t1 , t2 , ...., tn .
Alors le polynôme p cherché est défini par ;
p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ........ + pnϕn (t) = ∑nj=0 p jϕ j (t) (4.9)

En effet, puisque p est une combinaison linéaire de (n + 1) polynômes


ϕ0 , ..., ϕk , ...., ϕn tous de degré n, alors p est lui même de degré n, c’est
à dire p ∈ IPn .
D’autre part, si nous utilisons les propriétés des polynômes
ϕk , nous avons pour k = 0, 1, 2, ......, n :

p(tk ) = ∑nj=0 p jϕ j (tk ) = pk (4.10)

qui est bien la relation (1.1).

Exemple 2 : Trouver un polynôme de degré deux qui vaut en


t0 = −1 en p0 = 8, en t1 = 0 en p1 = 3, en t2 = 3 en p0 = 6.

p(t) = 4t2 −t + 3.

4.3 Interpolation d’une fonction continue par un polynôme


SMA - SMI - S4

Soit une fonction : IR → IR continue donnée et soit t0 , t1 , t2 , ...., tn


(n + 1) points distincts donnés.

Nous cherchons maintenant à interpoler f par un polynôme p


de degré n aux points t0 , t1 , t2 , ...., tn c’est à dire nous cherchons un
polynôme p de degré n tel que :

p(tk ) = f (tk ), 0≤k≤n (4.11)

50

c
4.4. Existance et unicité de l’interpolant

Si f (t) est donnée, alors en posant p j = f (t j ), 0 ≤ j ≤ n et en suivant


ce qui est fait dans la relation (4.3), nous obtenons

p(t) = p0ϕ0 (t) + p1ϕ1 (t) + ..... + pnϕn (t) = ∑nj=0 p jϕ j (t),

où ϕ j , 0 ≤ j ≤ n forment une base de Lagrange de IPn associée aux


points t0 , t1 , t2 , ...., tn .
La solution du point (4.11) est donc définie par :

p(t) = ∑nj=0 f (t j )ϕ j (t) ∀t ∈ IR (4.12)

Définition 1.2 : On dira que le polynôme p défini par (4.12) est


l’interpolant de f de degré n aux points t0 , t1 , t2 , ...., tn .

Exemple 3 : Soit f (t) = et . Trouver l’interpolants de f de degré 2


aux points t0 = −1, t1 = 0, t2 = 1.
Soit maintenant une fonction :[a, b] → IR continue et donnée sur
un intervalle [a, b] . Soit n un entier positif et considérons le cas où
tous les points [a, b], 0 ≤ j ≤ n, sont équidistribués dans [a, b], c’est à
dire t j = a + jh, 0 ≤ j ≤ n, avec h = b−n a . Soit p l’interpolant de f de degré
n aux points t0 , t1 , t2 , ...., tn que nous noterons pn pour montrer qu’il
dépend bien de n choisi au départ. D’aprés (4.12), pn est défini par
pn (t) = ∑nj=0 f (t j )ϕ j (t) ∀t ∈ IR (4.13)

où (ϕ0 , ..., ϕk , ...., ϕn ) est la base de Lagrange de IPn associée aux


points t0 , t1 , t2 , ...., tn . On peut montrer le résultat suivant :
SMA - SMI - S4

4.4 Existance et unicité de l’interpolant

1.51 Théorème 1 : Il existe un polynôme pn unique de degré


≤ n, interpolant f en (n+1) points, c’est à dire tel que :

p(tk ) = f (tk ) pour 0 ≤ k ≤ n.

51

c
4.4. Existance et unicité de l’interpolant

Preuve : Existence :
Soit
(t−t0 )(t−t1 )................(t−ti−1 )(t−ti+1 )..........(t−tn )
Li ( t ) = (t −t
i 0 )(ti −t1 )................ (ti −tk−1 )(ti −ti +1 ).......... (ti −tn )

pn (t) = ∑nj=0 f (t j ) L j (t) pour 0 ≤ j ≤ n, on a Li (t j ) = δi j et par conséquen


p n ( ti ) = f ( ti ) .

Unicité :
Supposons qu’il existe deux polynômes pn et qn de degré ≤ n,
interpolant f aux points t0 , t1 , t2 , ...., tn , en posant
dn = pn −qn , on arrive à une contradiction. En effet, dn est un polynôme
de degré ≤ n et par conséquent il peut avoir au plus n zéros, mais
d’autre part dn (tk ) = 0, pour 0 ≤ k ≤ n ce qui voudrait dire que dn
aurait n + 1 zéros d’où la contradiction donc pn = qn .

1.5.2 Erreure d’interpolation.

1.5.2.1 Théorème : Soit pn le polynôme interpolant de f aux


points a = x0 < x1 < ........ < xn = b, si f est de classe Cn+1 sur [a, b] alors :
a. ∀x ∈ [a, b], il existe Θ = Θ(x) ∈ [a, b] tel que :
en ( x) = f ( x) − pn ( x) = ( f (n+1) (Θ)/(n + 1)!)Πn+1 ( x)

avec
Πn+1 ( x) = ∏in=0 ( x − xi )

b. En posant
SMA - SMI - S4

Mn+1 = max f (n+1) (Θ)


x∈[ a,b]

On obtient :
Mn+1
max | f ( x) − pn ( x)| ≤ (n+1)! x∈[ a,b] | n+1
max Π ( x)|
x∈[ a,b]

et en particulier :
M
max | f ( x) − pn ( x)| ≤ (n+n+11)! (b − a)n+1 .
x∈[ a,b]

52

c
4.4. Existance et unicité de l’interpolant

Lemme 1 : Soit f une fonction définie sur [a, b] à valeurs dans IR


dérivable sur [a, b], si f possède au moins n + 2 zéros distincts sur
0
[ a, b], alors f = f (1) possède au moins n + 1 zéros distincts sur [ a, b] .

Il suffit d’appliquer le théorème de Rolle entre deux zéros


consécutifs de f .

Corolaire 1 : soit f une fonction de classe Cn+1 sur [a, b] . Si f


possède au moins n+2 zéros distincts sur [a, b] alors f (n+1) possède
au moins 1 zéros sur [a, b] .
Il suffit de faire une récurrence en appliquant le Lemme 1
précédent.

Preuve du théorème : Si x = xi , le résultat est évident.


f ( x)− pn ( x)
Si x 6= xi , posons ; R(t) = f (t) − pn (t)− Πn+1 ( x )
Πn+1 ( t ) .

on vérifie alors que R ∈ Cn+1 [a, b] et que :


f ( x)− pn ( x)
R( xi ) = f ( xi ) − pn ( xi )− Πn+1 ( x )
Πn+1 ( xi ) = 0, i = 1, 2, ....., n

et

R( x) = en ( x) − en ( x) = 0.

Par conséquent, R admet au moins n+2 zéros distincts sur


[ a, b], en appliquant le corolaire précédent, on montre que R(n+1)
possède au moins 1 zéros sur [a, b] , c’est à dire qu’il existe Θ ∈ [a, b]
SMA - SMI - S4

tel que R(n+1) (Θ)= 0,


et donc :

en ( x) = ( f (n+1) (Θ)/(n + 1)!)Πn+1 ( x)

ce qui implique que


max |Πn+1 ( x)|
x∈[ a,b]
max |en ( x)| ≤ (n+1)!
Mn+1 .
x∈[ a,b]

53

c
4.4. Existance et unicité de l’interpolant

2 Interpolation de Newton :

2.1.1 Définition : différences divisées soit f une fonction définie


sur [a, b] à valeurs dans IR dérivable sur [a, b] contenant (n+1) points
distincts t0 , t1 , t2 , ...., tn .
On définit les différences divisées d’ordre i de f aux points (xk )
comme suit :
f [ x0 ] = f ( x0 )
f ( x1 )− f ( x0 )
f [ x0 , x1 ] = x1 − x0

.
.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0 pour i ≥ 2.

Exemple : x0 = −1, x1 = 1, x2 = 1, f (x0 ) = 2, f ( x1 ) = 1, f ( x2 ) = −1,

on obtient :
f [ x0 ] = 2

f [ x0 , x1 ] = −1

f [ x1 ] = 1

f [ x2 ] = −1

f [ x1 , x2 ] = −2

f [ x0 , x1 , x2 ] = −0.5.

2.1.2 Propriétés : La valeur d’une différence divisée est indépendante


de l’ordre de xi ;
SMA - SMI - S4

f ( x1 )− f ( x0 ) f (x ) f (x )
f [ x0 , x1 ] = x1 − x0 = f [ x1 , x0 ] = x0 −0x1 + x1 −1x0
f ( x0 ) f ( x1 ) f ( x2 )
f [ x0 , x1 , x2 ] = ( x0 − x1 )( x0 − x2 )
+ ( x1 − x0 )( x1 − x2 )
+ ( x2 − x0 )( x2 − x1 )
= f [ x0 , x1 , x2 ]

= f [ x1 , x2 , x0 ] = f [ x2 , x1 , x0 ] .

De façon générale :
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
f [ x0 , x1 , ......., xi ] = xi − x 0
f ( x0 ) f ( x1 )
= ( x0 − x1 )( x0 − x2 )......( x0 − xi )
+ ( x1 − x0 )( x1 − x2 ).........( x1 − xi )
+ ..
f ( xi )
..... + (x −x .
i 0 )( xi − x2 )......... ( xi − xi −1 )

54

c
4.4. Existance et unicité de l’interpolant

2.1.3 Interpolant de Newton : On appelle interpolant de newton


le polynôme pn donné par :
pn ( x) = f [ x0 ] + f [ x0 , x1 ] ( x − x0 ) + f [ x0 , x1 , x2 ] ( x − x0 )( x − x1 ) + ...

...... + f [ x0 , x1 , .., xn ] ( x − x0 )( x − x1 )...( x − xn−2 )( x − xn−1 ).

Exemple : x0 = −1, f ( x0 ) = 2, x1 = 0, f ( x1 ) = 1, x2 = 1, f ( x2 ) = −1.

f [ x0 ] = 2

f [ x0 , x2 ] = −1

f [ x1 , x2 ] = −2

f [ x0 , x1 , x2 ] = −0.5

pn ( x) = 1 − 1.5x − 0.5x2 .

2.1.5 Base de Newton : Soient t0 , t1 , t2 , ...., tn (n + 1) points deux


à deux distincts d’un intervalle [a, b] de IR et les polynômes Ni
définis par
N0 ( x) = 1, N 1 ( x) = ( x − x0 )

Ni ( x) = ( x − x0 )( x − x1 )........( x − xn−2 )( x − xi−1 ) i = 1, 2, ....., n.

3.1.6 Les polynômes Ni ont les propriétés suivantes : 1. Ni est


un polynôme degré i
SMA - SMI - S4

2. Pour i ≥ 1, Ni (x) admet t0 , t1 , t2 , ...., ti−1 comme racines.


3. La famille { N0 ( x), ......., N n ( x)} est une base de IPn dite base de
Newton.

Preuve : 1. est évidente d’aprés la définition de Ni (x)


2. est évidente d’aprés la définition de Ni
3. Il suffit de montrer que la famille { N0 (x), ......., N n (x)} est libre.
Soient c0 , c1 , ........, cn des constantes telles que

55

c
4.4. Existance et unicité de l’interpolant

∑in=0 ci Ni ( x) = 0

comme les xi sont supposés deux à deux distincts, on a


0 = ∑in=0 ci Ni ( x0 ) = c0

0 = ∑in=0 ci Ni ( x1 ) = c0 N0 ( x1 ) + c1 N1 ( x1 ) = c1 ( x1 − x0 ) ⇒ c1 = 0, car x1 6= x0

.
.
0 = ∑in=0 ci Ni ( xn ) = cn N1 ( xn ) = cn ( xn − x0 )( xn − x1 )........( xn − xn−2 )( xn − xn−1 ) ⇒ cn = 0,

car les xi sont deux à deux distincts.


d’où le résultat.

2.1.7 Théorème : Soit f une fonction numérique définie sur un


intervalle [a, b] .
Soit pn un polynôme interpolant de f en (n+1) points x0 , x1 , ........, xn ∈ [a, b] .
a. on peut exprimer pn (x) comme combinaison linéaires des
Ni ( x) de la base de Newton :

pn ( x) = ∑in=0 Di Ni ( x).

on

obtient le système triangulaire inférieur suivant : 



 pn ( x0 ) = D 0 = f ( x0 )




 

p ( x ) = D 0 + D 1 N1 ( x1 ) = f ( x1 ) 
 
 n 1

 
 

. ( S1 )

 

 
.

 


 


 

pn ( xn ) = D 0 + D 1 N1 ( xn ) + D 2 N2 ( xn ) + ........ + D n Nn ( xn ) = f ( xn )

 

Les Di solutions du système ( S1 ) sont données par


SMA - SMI - S4

D0 = f [ x 0 ]

D1 = f [ x 0 , x 2 ]

.
.
.
f [ x1 ,x2 ,.......,xi ]− f [ x0 ,x1 ,.......,xi−1 ]
Di = xi − x 0 = f [ x0 , ..., xi ] pour i ≥ 2.

56

c
4.4. Existance et unicité de l’interpolant

2.1.8 Exemple : Soit la fonction f telle que


x 0.15 2.30 3.15 4.85 6.25 7.95
f ( x) 4.79867 4.49013 4.2243 3.47313 2.66674 1.51909

Les coeffficients du polynôme interpolant de f dans la base de


Newton sont :
D0 = 4.798670, D 1 = −0.143507, D 2 = −0.056411, D 3 = 0.001229,

D4 = 0.000104,

D5 = −0.000002.
SMA - SMI - S4

57

c
Chapitre 5

Dérivation et intégration numérique

5.1 Dérivation numérique

Dans ce paragraphe, la fonction n’est bien sûr pas connue par


une formule explicite mais :
- ou bien par ses valeurs sur un ensemble discret (en supposant
que les points sont assez proches pour que la notion de dérivée
ait un sens).
- ou bien, le plus souvant, par algorithme de calcul ou une
formule compliquée qui permet, au moins en théorie, de la calculer
en tout point. On suppose bien sûr que la dérivée n’est pas
accessible par un procédé analogue.

5.1.1 Dérivée première :

Supposons qu’on veuille calculer une valeur approchée de


0
f ( xi ).Une première idée, consiste à remplacer f par un polynôme
SMA - SMI - S4

d’interpolation au voisinage du point xi et on dérive celui-ci.


Les formules vont varier en fonction du nombre des points
qu’on choisit pour écrire le polynôme d’interpolation (en général
2 ou 3).
Dans toute la suite, on supposera f connue ou calculable aux
points ....., xi−2 , xi−1 , xi , ......qu0 on supposera proches. On notera hi = xi+1 −xi .

58

c
5.1. Dérivation numérique

5.1.1 Formules à deux points : Le polynôme d’interpolation


sur les deux points xi ,xi+1 s’écrit :
p ( x ) = f ( xi ) + f [ xi , xi +1 ] ( x − xi )

On a donc p0 (x) = f [xi , xi+1 ] , ce qui fournit la formule à droite


0 f ( xi+1 )− f ( xi )
f ( xi ) ' xi +1 − xi (5.1)

On a bien sûr aussi la formule à gauche


0 f ( xi )− f ( xi−1 )
f ( xi ) ' xi − xi −1 (5.2)

5.1.2 Formules à de 3 points : On choisit d’interpoler sur les


points xi−1 , xi , xi+1 (ce qui est normalement plus satisfaisant). Dans
ce cas on a
p( x) = f ( xi ) + f [ xi , xi+1 ] ( x − xi ) + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( x − xi ) (5.3)

Donc
0
p ( x) = f [ xi−1 , xi ] + f [ xi−1, xi , xi+1 ] ( x − xi−1 )( xi − xi−1 )

ce qui fournit, après simplification la formule centrée avec :

hi = xi +1 − xi (5.4)

0 f ( xi+1 )− f ( xi−1 )
f ( xi ) ' 2h (5.5)

Remarque : La formule ci-dessus n’est autre la moyenne des


deux formules décentrés dans le cas équidistants (hi = xi+1 −xi ).
SMA - SMI - S4

5.1.3 Erreur : Pour le calcul théorique de l’erreur commise quand


on remplace f (xi ) par d’une des formules approchées ci-dessus
on a :
0 f ( xi )− f ( xi−1 )
f ( xi )− xi − xi −1 ≤ M2 2h
0 f ( xi+1 )− f ( xi−1 ) 2
f ( xi )− 2h ≤ M3 h6 Mi = max f (i) ( x)
[ a,b]

59

c
5.2. Intégration numérique.

5.1.2 Dérivées d’ordre supérieure :

Le principe est exactement le même, il faut simplement prendre


garde que le degré du polynôme d’interpolation soit suffisant
pour que sa dérivée n-ième soit non nulle !
Par exemple, pour la dérivée seconde, on choisit en général
d’interpoler sur 3 points, ce qui donne
Dérivée seconde : points équidistants
00 f ( xi+1 )+ f ( xi−1 )+2 f ( xi )
f ( xi ) ' h2

avec une erreur


00 f ( xi+1 )+ f ( xi−1 )+2 f ( xi ) h 2
f ( xi ) − h2
≤ M4 12

5.2 Intégration numérique.

5.2 Généralités : Nous avons pour but de calculer numériquement


des intégrales définis. Soit f : [a, b] → IR une fonction continue donnée
sur [a, b]. Nous désirons approcher numériquement la quantité
Rb
a f ( x)dx (5.2.1)

Pour ce faire, nous commençons par partitionner [a, b] en petits


intervalles [xi , xi+1 ], i = 0, 1, 2....., N tels que :
SMA - SMI - S4

a < x0 < x1 < ...... < x N < b (5.2.2)

Soit

h = max | xi+1 − xi |
0 ≤i ≤ N − 1

60

c
5.2. Intégration numérique.

Le réel positif caractérisant la finesse de la partition. Il est clair


que, N augmente, nous pouvons nous placer les points xi de
sorte à ce que h soit petit. Lorsqu’aucune raison nous incite à
choisir des intervalles de longueurs différentes, nous posons
h = b−
N
a
et xi = a + ih, i = 0, 1, ..., N.
Etant donné la partition (5.2.2), il est naturel d’écrire :
Rb R xi +1
a f ( x)dx = ∑iN=−0 1 xi f ( x)dx (5.2.3)

ce sont ainsi les intégrales


R xi +1
xi f ( x)dx

que nous allons approcher dans la suite par des formules appelées
”formules de quadrature”. Mentionnons encore que souvant,
pour donner des formules de quadrature sur un intervalle standart
(par exemple [−1, 1] ,on exécute un changement de variable de la
forme :

t = 2 x x−−xix −1 (5.2.4)
i +1 i

qui, à x ∈ [xi , xi+1 ], fait correspendre t ∈ [−1, 1] Avec ce changement


de variable, nous obtenons :

x = xi +( xi+1 − xi ) t+2 1 (5.2.5)

et par la suite
SMA - SMI - S4

R xi +1 R1
xi f ( x)dx = ( xi+1 − xi ) 12 −1
gi (t)dt (5.2.6)

gi (t) = f ( xi +( xi+1 − xi ) t+2 1 ), t ∈ [−1, 1] (5.2.7)

Nous somme maintenant en mesure de définir la notion de la


formule de quadrature pour approcher numériquement −11 gi (t)dt,
R

gi étant une fonction continue sur [−1, 1] .

61

c
5.2. Intégration numérique.

Définition 5.1 : Si gi est une fonction sur [−1, 1], la formule de


quadrature pour approcher numériquement :

J ( gi ) = ∑ M
j=1 w j gi ( t j ) (5.2.8)
dé f

est définie par la donnée de M points −1 ≤ t1 < ..... < t M ≤ 1 appelées


points d’intégration et M nombres réels w1 , ...., w M appelés poids
de la formule de quadrature. Ces M points et M poids devront
être cherchés de façon à ce que J ( gi ) soit une approximation
numérique de −11 gi (t)dt.
R

Nous remarquons que la formule (5.2.8) est linéaire. En effet,


si gi et li sont deux fonctions continues données sur l’intervalle
[−1, 1] et si α et β ∈ IR, nous vérifions facilement que :

J ( gi +l i ) = α J ( gi ) + βJ (l i ).

Exemple 5.1 : Un exemple classique est la formule à 2 points


( M = 2) :

t1 = −1, t2 = 1, w1 = 1, w2 = 1

et donc

J ( gi ) = gi (−1) + gi (1) (5.2.9).

Nous remarquons que J ( gi ) correspond à l’aire du trapèze hachuré


SMA - SMI - S4

de la figure (5.2).Par conséquent, approcher −11 gi (t)dt par J ( gi ) correspond


R

à approcher l’aire sous le graphe de gi par l’aire du trapèze


hachuré. Pour cette raison, la formule de quadrature (5.2.9) est
appelée ”formule du trapèze”.

fig.

62

c
5.2. Intégration numérique.

Dans les sections suivantes, nous construisons d’autres formules


de quadrature que la formule du ”trapèze”.
Dans, l’égalité (3.7) nous approchons par Ainsi la
R1
−1
gi (t)dt J ( gi ) .
quantité xxii+1 f (x)dx est approchée par :
R

( xi +1 − xi ) t+1
2 ∑M
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.11)

et donc nous allons approcher f ( x)dx par la formule dite ”formule


Rb
a

composite” :

( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 ∑M t+1
j=1 w j f ( xi + ( xi +1 − xi ) 2 ) (3.12)

Exemple 3.2 : t1 = −1, t2 = 1, w1 = 1, w2 = 1. La formule composite (3.12)


s’écrit :

( xi +1 − xi )
Lh ( f ) = ∑iN=−1 1 2 [ f ( xi ) + f ( xi+1 )] (3.13).

La formule composite (3.1) est facile à interpréter graphiquement,


la quantité Lh ( f ) correspond à l’aire hacuée de la fig. 3.2

Fig 3.2 Formule du trapèze.pour approcher dans le cas


Rb
a f ( x)dx
N = 4.

En régle générale nous pouvons procéder de la manière suivante


pour approcher la quantité ab f (x)dx par la quantité Lh ( f ) ; on définit
R
SMA - SMI - S4

une formule de quadrature par la donnée de M points t1 < ..... < t M


et M poids w1 , ....., w M (ces points et ces poids sont reprertoriés
dans des tables numériques ou logiciels de calcules) ; on partitionne
l’intervalle [a, b] en intervalles [xi , xi+1 ] les xi satisfaisant (3.2) et on
calcule Lh ( f ) par la formule composite (3.12).
Avant de montrer comment construire des formules de quadrature,
définissons une propriété de J ( gi ).

63

c
5.2. Intégration numérique.

Définition 3.2 : On dira que la formule de quadrature :

J ( gi ) = ∑ M
j=1 w j gi ( t j ) .
dé f

Pour calculer numériquement −11 gi (t)dt est exacte pour tout polynôme
R

de deg r ≥ 0 si J ( p) = −11 p(t)dt, pour tout polynôme de deg ≤ r.


R

Lorsque la formule de quadrature. J ( gi ) satisfait la propriété de


la définition (3.2), il est possible d’estimer l’erreur entre la valeur
exacte ab f (x)dx et la valeur approchée Lh ( f ), pour autant que f soit
R

assez régulière.

Théorème 3.1 : Supposons que le formule de quadrature :

J ( gi ) = ∑ M
j=1 w j gi ( t j )
dé f

pour calculer numériquement −11 gi (t)dt soit exacte pour des polynômes
R

deg = r. Soit f une fonction donnée sur [ a, b], soit Lh ( f ) la formule


composite définie par (3.12) et soit h la quantité définie par (3.3).
Alors si f est assez régulière (i.e (r + 1) fois continûment dérivable
sur [a, b], il existe une constante C indépendante du choix des
points xi telle que :
Rb
a f ( x)dx − Lh ( f ) ≤ Chr+1 (3.14)
SMA - SMI - S4

Exemple 3.3 : Considérons l’exemple de la formule du trapèze


(3.10) ainsi que la formule composite Lh ( f ) (3.13) qui en découle.
Clairement si p est un polynôme de deg = r = 1,c’est à dire p(t) = α + βt o
α et β ∈ IR.Il est facile de vérifier que lorsque la formule de quadrature
définie par (3.10), alors
R1
J ( p) = −1
p(t)dt

64

c
5.3. Poids d’une formule de quadrature.

Ainsi la formule du trapèze (3.10) pour calculer numériquement


g (t)dt est exacte pour tout polynôme de deg = r = 1.
R1
−1 i

Si l’intervalle [ a, b] est divisé en en N parties égales i.e h = b−Na ,


xi = a + ih, i = 0, 1, ..., N et si f est C 2 [ a, b], alors le théorème (3.1) fournit
l’estimation d’erreur suivante :
Rb
a f ( x)dx − Lh ( f ) ≤ Ch2 (3.15)

où C ne dépend ni de N ni de h. L’estimation (3.15) indique qu’en


principe, lorsqu’on utilise la formule (3.13) pour approcher numériqueme
a f ( x ) dx, l’erreur est divisée par 4 chaque fois que N est multiplié
Rb

par 2!
En fait, l’inégalité (3.14) montre que , lorsque la partition est
finie (h petit), l’erreur obtenue en approchant ab f (x)dx par Lh ( f ) est
R

petite. Cette erreur devient d’autant plus petite avec h et que r


est grand.
Il est donc légitime de chercher des points d’intégration t j et
w j , j = 1, ..., M; de sorte que la formule de quadrature J (.) soit exacte
pour des polynômes de deg = r aussi élevé que possible.

5.3 Poids d’une formule de quadrature.

Dans cette section, nous supposons donnés M points d’integration


distincts dans [−1, 1]
SMA - SMI - S4

−1 < t1 < ..... < t M < +1

et nous cherchons à déterminer les poids w j , j = 1, ..., M, de sorte


que la formule de quadrature J ( g) d=é f ∑ Mj=1 w j g(t j ) soit exacte pour
des polynômes de deg = r aussi élevé que possible.
Pour réaliser cet objectif, considérons la base de Lagrange ϕ1 , ϕ2 , ..., ϕ M
de IP M−1 associée aux points t1 , ....., t M .
65

c
5.3. Poids d’une formule de quadrature.

Par définition, ϕk est le polynôme de deg = M − 1 défini par :


(t−t0 )(t−t1 )................(t−tk−1 )(t−tk+1 )..........(t−tn )
ϕk ( t ) = (t j = 1, ..., M (3.16)
k −t1 )(tk −t2 )................ (tk −tk−1 )(tk −tk+1 ).......... (tk −tn )

Soit g : [−1, 1] −→ IR une fonction continue donnée. Son interpolant



g de deg = M − 1 aux points t1 , ....., t M est défini par :


g (t) = ∑ M
j=1 g ( t j )ϕ j ( t )

R1 ∼
Il semble naturel de remplacer par g (t)dt,puisque
R1
−1
g(t)dt −1

R1 ∼ R1
−1
g (t)dt = ∑ M
j=1 g ( t j ) −1
ϕ j (t)dt,

nous constatons qu’il suffit de poser


R1
w j= −1
ϕ j (t)dt

pour que J ( g) d=é f ∑ Mj=1 w j g(t j ) soit une approximation de


R1
−1
g(t)dt.

Théorème 3.2 : Soit t1 < ..... < t M M points distincts de [−1, 1] et soit
(ϕ1 , ϕ2 , ..., ϕ M ) la base de Lagrange de IP M−1 assoviée à ces M points.
Alors la formule de quadrature :

J ( g) = ∑ M
j=1 w j g ( t j )

est exate pour les polynômes de deg = M − 1 si et seulement si


R1
w j= −1
ϕ j (t)dt, j = 1, ..., M (3.17)
SMA - SMI - S4

Preuve : i) Montrons que si la formule de quadrature J (.) est


exate pour les polynômes de deg = M − 1, alors on a les relations
(3.17). Puisque
R1
J ( g) = ∑ M
j=1 w j p ( t j ) = −1
p(t)dt

pour tout polynôme p ∈ IP M−1 , nous pouvons choisir p = ϕk , k = 1, ..., M


et nous obtenons
66

c
5.3. Poids d’une formule de quadrature.

R1
J (ϕk ) = ∑ M
j=1 w jϕk ( t j ) = −1
ϕk (t)dt

puisque ϕk (t j ) = δk j , nous avons bien,


R1
wk = −1
ϕk (t)dt

ii) Montrons maintenant que si les relations (3.17) sont satisfaites,


alors la formule de quadrature J (.) est exate pour les polynômes
de deg = M − 1.
Soit p ∈ IP M−1 que nous développons dans la base de Lagrange
de IPM−1 associé aux points t1 , ....., t M , i.e

p(t) = ∑ M
j=1 p ( t j )ϕ j ( t )

Ainsi donc
R1 R1
−1
p(t)dt = ∑ M
j=1 p ( t j ) −1
ϕ j (t)dt = ∑ M
j=1 p ( t j ) w j = J ( p ) .

Remarque 3.1 : Les relations (3.17) nous permettent donc de


calculer les poids wk , k = 1, ..., M, d’une formule de quadrature,étant
donné les points d’intégration t1 , ....., t M .De plus, ∑ Mj=1 ϕk (t j ) est le
polynôme de deg = M − 1 qui vaut 1 aux points t1 , ....., t M , et est donc
la fonction identique à 1.
Par conséquent, nous obtenons, en utilisons (3.17)
R1 R1
∑M ( ∑M
SMA - SMI - S4

j=1 w j = −1 j=1 ϕk ( t j ) dt = −1
dt = 2.

Ce qui prouve que la somme des poids caclculés par (3.17) est
toujours égale à 2.

67

c
5.3. Poids d’une formule de quadrature.

Exemple 3.4 : M = 2, t1 = −1, t2 = 1 (formule du trapèzes) et explicitons


la base de Lagrange ϕ1 , ϕ2 associée aux points t1 , t2 :
ϕ1 (t) = 0.5(1 − t) et ϕ1 (t) = 0.5(1 + t)

La relation (3.17) s’écrit :


w1 = −11 ϕ1 (t)dt = 1 et w2 = −11 ϕ2 (t)dt = 1.
R R

Le théorème 3.2 nous assure que les formules de quadratures


construites grâce à (3.17) sont exactes pour les polynômes de deg
= r, avec r plus grand que M − 1.

Dans la suite nous verrons qu’il se peut que ces formules de


quadratures soient exactes pour les polynômes de deg = r, avec r
plus grand que M − 1.

3.3 Formule du rectangle : La formule du rectangle est une


formule à un seul point ( M= 1) : t1 = 0

La base de Lagrange de IP0 associée à t1 est donnée par


ϕ1 (t) = 1 ∀t ∈ [−1, 1]

Ainsi (3.17) nous donne


R1
w1 = −1
ϕ1 (t)dt = 2

et la formule du rectangle devient


J ( g) = 2g(0) (3.18)

On interprète la formule du rectangle (3.18) de la façon suivante :


Elle consiste à remplacer −11 g(t)dt par l’aire du rectangle de base
R
SMA - SMI - S4

[−1, 1] et de hauteur g(0) ( f ig3.3), d’où son nom. Selon le théorème


3.2, cette formule de quadrature est exacte pour tout polynôme
de degré 0, mais en fait elle est meillleure, elle est exacte pour
tout polynôme p ∈ IP1 défini par p(t) = αt + β, où α, β ∈ IR.
Il est alors facile de vérifier que −11 p(t)dt = 2β = 2p(0).
R

Si nous utilisons la formule du rectangle dans la formule composite


(3.12), nous obtenons
68

c
5.3. Poids d’une formule de quadrature.

xi +1 + xi
Lh ( f ) = ∑iN=−1 1 ( xi+1 − xi ) f ( 2 ) (3.19)

et l’estimation (3.14) du théorème (3.1)


Rb
a f ( x)dx − Lh ( f ) ≤ Ch2 (3.20)

L’interprétation géométrique de (3.19) est la suivante :


On somme les aires des rectangles dont la base est le segment
[ xi , xi+1 ] et dont la haureur est f (ζ i ), où ζi est le milieu de [ xi , xi+1 ].

fig 3.3 Formule du rectangle sur [−1, 1]

3.4 Formule de Simpson : La formule de Simpson est une formule


à trois points : M = 3, t1 = −1, t2 = 0, t3 = 1.
La base de Lagrange ϕ1 , ϕ2 , ϕ3 de IP2 associée aux 3 points t1 , t2 , t3
s’écrit
ϕ1 (t) = 0.5(t2 −t), ϕ2 (t) = (1 − t2 ), ϕ3 (t) = 0.5(t2 +t)

Les relations (3.17) deviennent alors :


R1 R1 R1
w1 = −1
ϕ1 (t)dt = 31 , w2 = −1
ϕ2 (t)dt = 43 , w3 = −1
ϕ3 (t)dt = 31

La formule de Simpson s’écrit donc :

J ( g) = 13 g(−1)+ 34 g(0)+ 31 g(1) (3.21)

Elle est une moyenne pondérée entre la formule du trapèze


(poids 13 ) et la formule du rectangle ( poids 23 ).Si nous utilisons cette
formule de quadrature dans (3.12), nous obtenons :
SMA - SMI - S4

h i
Lh ( f ) =∑iN=−1 1 (xi+16−xi ) x +x
f ( xi ) + 4 f ( i+12 i ) + f ( xi +1 ) (3.22)

D’après le théorème 3.2, la formule de Simpson est exacte


pour tout polynôme de deg = r = 2. En fait, elle est exacte pour
tout polynôme de deg = r = 3.
En effet, si g(t) = t3 , alors J ( g) = 0 et L’estimation (3.14)
R1
−1
g(t)dt = 0.
du théorème 3.2 devient donc :
69

c
5.3. Poids d’une formule de quadrature.

Rb
a
f (t)dt − Lh ( f ) ≤ Ch4 .

La formule de Simpson donne une erreur d’ordre h4 . Cette


formulle est souvent utilisée dans la pratique car Lh ( f ) converge
rapidement vers ab f (t)dt lorsque h → 0.
R
SMA - SMI - S4

70

Vous aimerez peut-être aussi