Vous êtes sur la page 1sur 133

Universit Abderrahmane Mira de Bjaia

Facult des sciences exactes


Dpartement de mathmatiques

Analyse Numrique
Cours, 2eme anne licence mathmatiques

Karima MEBARKI1 .

1 version 1.0 mebarqi_karima@hotmail.fr pour toute remarque


ii
Table des matires

Introduction vii

I Analyse numrique I 1
1 Notions sur les erreurs 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Erreurs absolue et relative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Erreur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Erreur relative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Majorants des erreurs absolue et relative . . . . . . . . . . . . . . . . . . . . . 4
1.3 Reprsentation dcimale des nombres approchs . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Chire signicatif (c.s) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Chire signicatif exact (c.s.e) . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Troncature et arrondissement d'un nombre . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Propagation des erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5.1 Erreurs d'une addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.2 Erreurs d'une soustraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5.3 Erreurs d'une multiplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.4 Erreurs d'une division . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.5 Erreurs d'une puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Interpolation polynomiale 11
2.1 Position du problme d'interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Interpolation de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Dirences divises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.2 Polynme d'interpolation de Newton . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.3 Cas particulier : points quidistants . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Erreur d'interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Interpolation de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Evaluation des polynmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.1 Cas d'un polynme quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.2 Cas d'un polynme d'interpolation de Newton . . . . . . . . . . . . . . . . . . 23
2.6.3 Cas d'un polynme d'interpolation de Lagrange . . . . . . . . . . . . . . . . . 24
2.7 Complment du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Interpolation d'Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.2 Meilleur choix de points d'interpolation et polynmes de Tchebychev . . . . . 27

iii
iv TABLE DES MATIRES

2.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 Approximation au sens des moindres carrs 35


3.1 Dnitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Existence et unicit de la meilleure approximation au s.m.c. . . . . . . . . . . 36
3.2.2 Dtermination de la meilleure approximation au s.m.c. . . . . . . . . . . . . . 37
3.2.3 Erreur d'approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.4 Algorithme de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Application au cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4 Application au cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4 Intgration numrique 41
4.1 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Formules de Newton-Ctes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.1 Mthode des trapzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.2 Mthode de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3 Formules de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4 Complment du cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5 Drivation numrique 53
5.1 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Approximation de la drive premire . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 Formules deux points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.2 Formules trois points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.3 Approximation de la drive seconde . . . . . . . . . . . . . . . . . . . . . . . 56
5.2.4 Approximation des drives d'ordre suprieur . . . . . . . . . . . . . . . . . . 56
5.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

II Analyse Numrique II 59
6 Rsolution des systmes linaires 61
6.1 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.2 Mthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2.1 Systmes particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2.2 Mthode d'limination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2.3 Problme pos par la (quasi) annulation des pivots . . . . . . . . . . . . . . . 67
6.2.4 Mthode de la dcomposition LU . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.5 Mthode de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2.6 Mthode de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.3 Mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.3.1 Matrice d'itration et les conditions de convergence . . . . . . . . . . . . . . . 75
6.3.2 Principales mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
TABLE DES MATIRES v

7 Calcul des valeurs et vecteurs propres d'une matrice 89


7.1 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Mthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.3 Mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.3.1 Mthode de la puissance itre . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.3.2 Mthode de Rutishauser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

8 Rsolution des quations non linaires 95


8.1 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.1.1 Sparation des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.2 Mthode de dichotomie (ou de la bissection) . . . . . . . . . . . . . . . . . . . . . . . 96
8.3 Mthode du point xe (des approximations successives) . . . . . . . . . . . . . . . . . 97
8.3.1 Ordre de convergence d'une mthode itrative . . . . . . . . . . . . . . . . . . 101
8.4 Mthodes de type xn+1 = (xn ) = xn fg(x (xn )
n)
. . . . . . . . . . . . . . . . . . . . . . . 103
8.4.1 Mthode de Newton-Raphson (mthode de la tangente) . . . . . . . . . . . . . 103
8.4.2 Mthode de la scante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.4.3 Mthode de la corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

9 Rsolution des quations direntielles ordinaires 111


9.1 Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9.2 Mthode d'Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
9.3 Mthodes de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.4 Mthodes de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
9.4.1 Mthodes de Runge-Kutta d'ordre 2 . . . . . . . . . . . . . . . . . . . . . . . 117
9.4.2 Mthode d'Euler modie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
9.4.3 Mthode du point milieu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
9.4.4 Mthode de Runge-Kutta d'ordre 4 . . . . . . . . . . . . . . . . . . . . . . . . 120
9.5 Mthodes un pas gnrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
9.5.1 Ordre d'une mthode un pas . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
9.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
vi TABLE DES MATIRES
Introduction
En analyse numrique, et pour un problme pos (P ), on tudie toutes les mthodes de rsolution
de (P ), au moyen du calcul arithmtique. L'tude peut englober aussi bien les conditions d'existence
et d'unicit de la solution du problme (P ), et aussi les performances et l'ecacit du procd choisi
(prcision, convergence, stabilit, rapidit,. . . ).

Ordinateur et analyse numrique


Les calculatrices et les ordinateurs nous permettent de faire beaucoup d'oprations et ce trs
rapidement. Mais pour que les machines soient capables de faire ces calculs, il faut les programmer.
C'est l'objet essentiel de l'analyse numrique qui s'est dveloppe avec l'apparition des ordinateurs.
Les caractristiques des ordinateurs (dlit, rapidit, prcision,. . . ect) ont permis d'amliorer plu-
sieurs mthodes numrique connues, et ont facilit la cration d'algorithmes relatifs des problmes
dicilement matriss par l'homme jusque-l.
Mais faire beaucoup d'oprations ne veut pas dire faire n'importe quoi : les mthodes ont un
cot (nombre d'oprations arithmtiques lmentaires), li d'une part au temps de calcul, et d'autre
part la capacit de mmoire ncessaire pour stocker les donnes et les rsultats. D'o l'tude de la
complexit (ecacit) d'un algorithme.

Complexit d'un algorithme


Soit (P ) un problme N variables. On dit d'un algorithme, relatif une mthode de rsolution
de (P ), qu'il est de complexit exponentielle si le cot f (N ) ncessaire sa rsolution croit comme :
N !, N N , N ( o > 1), . . . etc. On crit simplement :

f (N ) = O(N !), f (N ) = O(N N ), f (N ) = O(N ), . . . etc.

D'autre part, un algorithme est de complexit polynmiale si

f (N ) = O(N ), f (N ) = O(N 2 ), f (N ) = O(N ) > 0, . . . etc.

L'intrt, en analyse numrique, est -entre autres objectifs- de mettre au point des algorithmes de
complexit polynmiale.
En gnral, an de choisir le meilleur algorithme possible, il faut choisir l'algorithme :
1. le moins coteux possible en place mmoire,
2. le moins coteux possible en temps de calcul : c'est dire celui qui a de complexit polynmiale.
3. le plus stable possible : c'est dire le moins sensible aux erreurs d'arrondi,
4. le plus prcis possible : c'est dire celui qui permet d'estimer l'erreur.

vii
viii INTRODUCTION

Ce cours est dispens depuis 2009 aux tudiants de 2eme anne licence mathmatiques de l'univer-
sit Abderrahmane Mira de Bjaia. Il a pour objectif de prsenter aux tudiants une varit d'outils
numriques (algorithmes) permettant la rsolution eective d'un certain nombre de problmes. Les
chapitres de ce cours sont illustrs par des exemples d'applications, et une srie d'exercices est pro-
pose la n de chacun d'entre eux. La plupart de ces exercices taient proposs lors des sances de
travaux dirigs ou des preuves de moyenne dure.
Ce cours se compose de neuf chapitres. Il est divis en deux parties couvrant le programme des
modules d'analyse numrique I et analyse numrique II destins aux tudiants de 2eme anne licence
mathmatiques. Particulirement, ce cours traite les sujets suivants :
 Notions sur les erreurs,
 Interpolation et approximation polynomiale,
 Intgration et drivation numriques,
 Rsolution des systmes linaires,
 Rsolution des quations non linaires,
 Calcul des valeurs et vecteurs propres,
 Rsolution des quations direntielles ordinaires.
Enn merci de me communiquer toute erreur ventuelle dans le fond ou dans la forme de ce premier
essai.
Bibliographie
1. Cours de licence de Mathmatiques d'Analyse Numrique de N. Akroune (Universit Abder-
rahmane Mira, Bjaia).
2. Cours de licence de Mathmatiques d'Analyse Numrique de S. Salmon (Universit Louis Pas-
teur, Strasbourg).
3. Cours d'Analyse Numrique de P. Goatin (Universit du Sud Toulon-Var, France).
4. Analyse numrique pour ingnieurs (Deuxime dition). Auteur : Andr Fortin, Editeur :
Presses internationales Polytechnique.
5. Introduction aux mthodes numriques (Deuxime dition). Auteur : Franck Jedrzejewski, Edi-
teur : Springer-Verlag France, Paris 2005.
Premire partie
Analyse numrique I

1
Chapitre 1
Notions sur les erreurs

1.1 Introduction
En gnral, la rsolution des problmes scientiques passe par une reprsentation mathmatique
des phnomnes mis en jeu. Ces phnomnes sont en gnral compliqus et multiples. Pour les
reprsenter, on est amen ngliger certains paramtres et simplier d'autres. Mme avec ces
simplications, les quations obtenues sont souvent insolubles par les mthodes analytiques connues.
Par exemple, on ne sait pas trouver analytiquement, la solution des quations x5 + 3x4 + 7x + 8 =
0, x = ex , sin x + ex = 0, ...etc.
C'est ici que l'analyse numrique se distingue des autres champs plus classiques des mathma-
tiques. En eet, pour un problme donn, il est possible d'utiliser dirents algorithmes de rsolution.
Ces algorithmes dpendent de certains paramtres qui inuent sur la prcision du rsultat. De plus,
on utilise en cours de calcul des approximations plus ou moins prcises. Par exemple, on peut rem-
placer une drive par une dirence nie de faon transformer une quation direntielle en une
quation algbrique. Le rsultat nal et son degr de prcision dpendent des choix que l'on fait.
Une partie importante de l'analyse numrique consiste donc contenir les eets des erreurs ainsi
introduites, qui proviennent de trois sources principales :
 les erreurs de modlisation ;
 les erreurs de reprsentation sur ordinateur ;
 les erreurs de troncature.
Ce chapitre traite principalement des erreurs numriques. La premire source d'erreurs dans
les calculs faits par un ordinateur provient d'abord des erreurs d'arrondi sur les donnes, puis des
oprations eectues sur les donns. Il devrait donc permettre au lecteur de mieux grer les erreurs
au sein des processus numriques an d'tre en mesure de mieux interprter les rsultats.

1.2 Erreurs absolue et relative


dans N : 1, 3, 9;

Nombres exacts dans Q : 2 1 10


, , ;
3 7 3
dans R : 5, , e.

Soit x un nombre exact et x une valeur approche de x, on crit

x ' x ou x x .
Si x > x, x est dite valeur approche par excs.
Si x < x, x est dite valeur approche par dfaut.

3
4 CHAPITRE 1. NOTIONS SUR LES ERREURS


2
' 0, 6666, ' 3, 14,
Exemples : 3 5 ' 2, 23, sont des approximations par dfaut mais e ' 2, 72
est une approximation par excs.

1.2.1 Erreur absolue


Dnition 1.1. On appelle erreur absolue du nombre approch x de x la quantit relle positive,
note (x), dnie par
(x) = |x x | .
Commentaire : Plus l'erreur absolue est petite, plus x est prcis.
Exemple 1.1. 2
Pour la valeur exacte x = 3 , la valeur approche x1 = 0.666667 est 1000 fois plus

prcise que la valeur approche x2 = 0.667. En eet, nous avons :

1 (x) = |x x1 | = | 32 0.666667| = | 23 666667


106
| = 13 106 ,
2 (x) = |x x2 | = | 32 0.667| = | 32 667
103
| = 13 103 .

1.2.2 Erreur relative


Dnition 1.2. On appelle erreur relative du nombre approch x de x la quantit relle positive,
note r(x), dnie par
|x x | (x)
r(x) = =
|x| |x|
Commentaire : l'erreur relative est souvent exprime en pourcentage (prcision relative) par :
r% = r(x) 100
Exemple 1.2. Pour les valeurs exactes x = 23 et y = 151 on considre les valeurs approches x = 0.67
et y = 0.07, respectivement. Les erreurs absolues correspondantes sont :

(x) = |x x | = | 23 0.67| = | 200201


3.102
| = 13 102 ,
(y) = |y y | = | 51 0.07| = | 100105
15.102
| = 13 102 .
Les erreurs relatives correspondantes sont :

|xx | (x)
r(x) = |x|
= |x|
= 0.5 102 = 0.5%,
|yy | (y)
r(y) = |y|
= |y|
= 5 102 = 5%.
Ainsi, bien que les erreurs absolues soient gales, x est une approximation 10 fois plus prcise pour
x que y l'est pour y.

1.2.3 Majorants des erreurs absolue et relative


Si la valeur exacte est connue on peut dterminer les erreurs absolue et relative. Mais dans la
majorit des cas, elle ne l'est pas. Les erreurs absolue et relative deviennent alors inconnues, et pour
les estimer on introduit la notion de majorant de l'erreur absolue et de l'erreur relative.
Dnition 1.3. On appelle majorant de l'erreur absolue d'une valeur approche x de x tout nombre
rel positif not x vriant :
(x) = |x x | 6 x
ou de manire quivalente : x x 6 x 6 x + x, et on crit :

x = x x qui veut dire : x [x x, x + x]


1.3. REPRSENTATION DCIMALE DES NOMBRES APPROCHS 5

Remarque 1.1. 1. Plus x est petit, plus l'approximation x est prcise. D'o, en pratique, on
prend le plus petit x possible.
x
2. Comme x ' x , en pratique on prend rx ' qui est un majorant de l'erreur relative de x
|x |
et on crit x = x |x | rx .
3. A dfaut de l'erreur absolue (l'erreur relative) eective, x (rx ) est appel par abus de langage,

erreur absolue (erreur relative) de x .

1.3 Reprsentation dcimale des nombres approchs


On sait que tout nombre rel positif x peut tre reprsent sous la forme d'une reprsentation
dcimale de dveloppement limit ou illimit :

x = am 10m + am1 10m1 + ... + amn+1 10mn+1 + ......


avec ai {0, 1, 2, ..., 9} pour i 6= m et am 6= 0 o m est le rang suprieur de x (la plus grande
puissance de 10 ).

Exemple 1.3. 5406, 3080 = 5.103 + 4.102 + 0.101 + 6.100 + 3.101 + 0.102 + 8.103 + 0.104
= 3.14159265358... = 3.100 + 1.101 + 4.102 + 1.103 + 5.104 + ... + 5.1010 + 8.1011 + ...
68
3
= 2.101 + 2.100 + 6.101 + 6.102 + 6.103 + 6.104 + ....

Remarque 1.2. Dans la pratique, les nombres utiliss x ont des reprsentations dcimales limites
(car, en gnral, ce sont des nombres approchs).

i. Tous les chires conservs ai s'appellent chires signicatifs du nombre approch x.


ii. Certains des ai peuvent tre nuls.

1.3.1 Chire signicatif (c.s)


Dnition 1.4. On appelle chire signicatif d'un nombre approch, tout chire dans sa reprsen-
tation dcimale dirent de zro ; et un zro s'il se trouve entre deux chires signicatifs, ou s'il
constitue un chire conserv.

Exemple 1.4. Une approximation 6 dcimales de 0.00301045 est :

0.003|{z}
|{z} 0 1|{z}
0
(1) (2) (3)


(1) : Ne sont pas signicatifs car ils ne servent qu' indiquer les rangs des autres chires.
(2) : Etant plac entre les chires signicatifs 1et 3, zro est lui mme un chire signicatif.


(3) : Ce zro traduit le fait que le nombre approch a conserv la dcimale 106
est un chire signicatif.

Exemple 1.5. Les valeurs approches x = 0.0301009 , 400357 ont 6 chires signicatifs (6 c.s.).

Remarque 1.3. 1. On ne peut pas connatre le nombre de chires signicatifs de x = 45800


donn sous cette forme. Pour savoir, il faut soit sa reprsentation dcimale, ou encore -d'une
s
faon quivalente- connatre l'criture sous la forme (p, q) 10 . En eet ;
x = x1 = 4, 58 10 (x1 a 3 c.s. ) ou encore x = x2 = 4, 5800 104 (x2 a 5 c.s. ).
4
6 CHAPITRE 1. NOTIONS SUR LES ERREURS

2. Sur un ordinateur, les nombres sont reprsents en virgule ottante comme suit :
soit x un rel non nul, en virgule ottante x s'crit sous la forme :

x = 0.a1 ...aN .bE ,

avec bN est la base, a = 0.a1 ...aN que l'on appelle la mantisse, 0 ai < b, a1 6= 0, E Z,
l'exposant compris entre deux entiers m et M (m E M ) et N N le nombre de chires
signicatifs.

1.3.2 Chire signicatif exact (c.s.e)


Soit x un nombre exact, x une valeur approche de x dont sa reprsentation dcimale (prise de
gauche droite) est :

x = am 10m + am1 10m1 + ... + amn+1 10mn+1 + amn 10mn


| {z } ... + ak 10k , am 6= 0, k Z.
|{z} | {z } | {z }
1er c.s 2eme c.s neme c.s rang du(n+1)eme c.s

Dnition 1.5.
(importante) On dit que les n premiers chires signicatifs d'un nombre x sont
exacts si l'erreur absolue de ce nombre ne dpasse pas la moiti du rang du n
me chire signicatif.

c'est dire
1
x 10mn+1 .
2

Proposition 1.1. Si un nombre approch possde n c.s. exacts alors :

rx 5.10n .

Exercice 1.1. Donner une borne suprieure de l'erreur absolue et estimer l'erreur relative, si tous
les chires signicatifs des nombres approchs suivants sont exacts.

x1 = 0, 0019, x2 = 99, 200, x3 = 34508, x4 = 0, 000805.

Proprits
a. Si un chire signicatif est exact, tous les chires sa gauche sont exacts.
b. Si un chire n'est pas exact, tous ceux sa droite ne les sont pas.

Exemple 1.6. Soit x = 35.97 et x = 36.00, ici m=1 car x = 3.101 + 6.100 + 0.101 + 0.102 .

x = |x x | = 0, 03 = 0, 3.101 < 0, 5.101 .



m n + 1 = 1
Alors = n = 3. Donc, x est une approximation de x avec trois chires
m=1
signicatifs exacts.

Remarque 1.4. La notion de chire signicatif exact est purement mathmatique, elle ne veut pas

dire que les n premiers c.s. de x concident avec les n premiers c.s. de x; l'exemple ci-dessus l'illustre
bien.
1.4. TRONCATURE ET ARRONDISSEMENT D'UN NOMBRE 7

1.4 Troncature et arrondissement d'un nombre


F Pour approximer = 3.141592653589...., on peut considrer la valeur approche 3.14 ou encore
3.14159, etc... et cela selon le besoin. Dans le premier cas on a tronqu ( couper en liminant une
partie ) le nombre aprs 2 dcimales. Dans le second cas on l'a tronqu aprs 5 dcimales.
F Une mthode habituelle pour tronquer un nombre pour ne garder qu'un nombre ni de chires
signicatifs est l'arrondi :
Rgle d'arrondissement :
Pour arrondir un nombre jusqu' n chires signicatifs, il faut liminer les chires droite du
n chire signicatif conserv si on se trouve aprs la virgule, sinon on remplace par des zros :
ieme

1. Si le (n + 1)ieme chire signicatif est > 5, on augmente le nieme chire de 1.


2. Si le (n + 1)ieme chire signicatif est < 5, les chires retenus restent inchangs.
3. Si le (n + 1)ieme chire signicatif est 5, alors deux cas sont possibles :
i) Tous les chires rejets, situs aprs le (n + 1)ieme c.s., sont des zros : On applique la rgle
du chire pair, i.e. : le nieme chire reste inchang s'il est pair. On lui ajoute 1 s'il est
impair.
ii) Parmi les chires rejets, situs aprs le (n + 1)ieme c.s., il existe au moins un qui soit non
nul : On ajoute 1 au nieme chire.

Remarque 1.5.
1. On n'arrondit que le rsultat nal, jamais les rsultats intermdiaires.

2. Un rsultat nal n'a jamais plus de prcision que la prcision des donnes.

3. Un nombre correctement arrondi ne possde que des chires signicatifs exacts.

Dnition 1.6. On appelle la borne suprieure de l'erreur d'arrondi du nombre approch le nombre
not arr vriant
arr 0, 5 10mn+1 .
aprs l'arrondissement de la valeur approche de x on aura

x = xarr [x + arr ] .

En gnral, on prend x ' arr . Par suite

x = xarr 2x,

o xarr est le nombre approch arrondi.


2x est l'erreur absolue d'arrondi.

Exercice 1.2. Arrondir les nombres suivants 4 c.s.e. et indiquer l'erreur absolue d'arrondi : x1 =
33, 789, x2 = 0, 00489001, x3 = 199993, 99, x4 = 0, 0346750060, x5 = 89765, 5000, et x6 =
9, 007500.

1.5 Propagation des erreurs


Soient x et y deux quantits exactes , x et y des approximations de x et y, respectivement,
x et y des erreurs absolues sur x et y respectivement, rx et ry des erreurs relatives sur x et y
respectivement.
8 CHAPITRE 1. NOTIONS SUR LES ERREURS

1.5.1 Erreurs d'une addition


Erreur absolue : x+y = x + y.
x + y
Erreur relative : rx+y = max (rx , ry )
|x + y |

Dmonstration. Supposons que x , y R+ . Nous avons

x x x x + x et y y y y + y. Donc

a)
(x + y ) (x + y) x + y (x + y ) + (x + y)
c'est dire (x + y) est l'erreur absolue de x + y, d'o (x + y) = x + y.
b)
x+y
rx+y = x +y
x x y y
= x x +y
+ y x +y

x y
= rx .1 + ry .2 , (1 = x +y
> 0, 2 = x +y
> 0 et 1 + 2 = 1)

max(rx , ry ).1 + max(rx , ry ).2

(1 + 2 ) max(rx , ry ) max(rx , ry ).
| {z }
=1

1.5.2 Erreurs d'une soustraction


Erreur absolue : xy = x + y.
x + y x + y
Erreur relative : rxy = max (rx , ry )
|x y | |x y |

Dmonstration. Exercice.

Remarque 1.6. La soustraction est l'opration qui fait perdre le plus de prcision.

Exemple 1.7. Soient x = 255 et y = 250 avec rx = ry = 0, 1% = 103 .


Question : r(xy) =?

Nous avons d'abord : x = x .rx = 0, 255, y = y .ry = 0, 250.

et puis x y = 5 avec une erreur relative :

( x y) x + y
r(xy) =
= ) = 10, 1.102 = 10, 1%.
|x y | |x y |

On remarque que x et y sont 101 fois plus prcis pour x et y (respectivement) que x y l'est pour
x y.
1.5. PROPAGATION DES ERREURS 9

1.5.3 Erreurs d'une multiplication


Erreur absolue : xy = |x | y + |y | x.
Erreur relative : rxy = rx + ry
Dmonstration. Supposons que x , y R+ . Nous avons

x x x x + x et y y y y + y.

a) En supposant x x > 0 et y y > 0, on aura

(x x)(y y) xy (x + x)(y + y).

Si on nglige l'erreur de second ordre xy, on obtient

x y [x y + y x] xy x y [x y + y x].

b)
(xy) x y + y x x y
r(xy) =
=
= +
xy xy x y

1.5.4 Erreurs d'une division


|x | y + |y | x
Erreur absolue : x = .
y
|y |2
Erreur relative : r x
y
= rx + ry .
Dmonstration. Exercice.

1.5.5 Erreurs d'une puissance


Erreur relative : rx = n rx .
n

Erreur absolue : x = n |(x )n1 |x.


n

Dmonstration. Exercice.
10 CHAPITRE 1. NOTIONS SUR LES ERREURS

1.6 Exercices
Exercice 1.3. Soit H la hauteur d'un barrage. Sa valeur mesure h est 74, 260m. Si l'erreur relative
commise sur h est de 0, 3, trouver a, b tels que a H b.

Exercice 1.4. Avec combien de c.s.e. faut-il calculer e 2
pour que l'erreur relative ne dpasse pas
1%?
1
Exercice 1.5.
p
R 3
On dsire approcher I = 0 f (t) dt, o f (t) = t et p N , par la surface S du
1 1 1
triangle de sommets A(0, 0), B( p , 0), C( p , f ( p )). Dterminer la valeur minimale de p pour que
2 4
l'erreur absolue d'approximation ne dpasse pas = 10 puis = 10 .

Exercice 1.6. On considre l'quation

x2 1634x + 2 = 0. (1.1)
1. Rsoudre l'quation (1.1) en eectuant les calculs avec N = 10 chires signicatifs. (Utiliser le
discriminant)

2. Commenter le rsultat obtenu et proposer une autre mthode de calcul pour contourner le pro-
blme pos.

Exercice 1.7. Soient les trois nombres rels :

x = 8, 22 y = 0, 00317 z = 0, 00432.
1. Reprsenter les nombres x, y et z avec virgule ottante.
2. En eectuant les calculs avec N = 3 c.s, calculer la somme x + y + z en faisant :
i) (x + y) + z;
ii) x + (y + z).
3. Commenter les rsultats obtenus. Conclure.

Exercice 1.8.
On veut calculer la surface d'un disque S = R2 o R = 2, 3400, = 3, 1416.
En admettant que tous les chires de R et sont exacts.

1. Estimer les erreurs absolue et relative de S.

2. Calculer S en arrondissant au nombre de chires signicatifs exacts.

Exercice 1.9. Soit l'approximation f (x) ' |df (x)|


x
1. Montrer que ln(x) = x .

2. En dduire l'erreur relative d'une puissance u = xn est telle que u = nx .



3. Dterminer l'erreur absolue et l'erreur relative de la racine nime v = n x.

4. Soient x = 22, 123002 et y = 1, 252468 q o tous les c.s. sont exacts.


x x
Calculer ln( y ) en dduire la valeur de 3 y arrondir au dernier c.s.e.

Exercice
q 1.10. Soit T la priode des petites oscillations du pendule qui est donne par
l
T = 2 g
o l est la longueur du pendule et g la gravit. Supposons que les mesures faites sur T et

l ont donn les rsultats suivants :

T = T T = 1, 936 0, 002 s et l = l l = 92, 95 0, 10 cm


1. Calculer la gravit g en arrondissant au dernier chire signicatif exact.

2. Donner l'erreur relative sur g en pourcentage.


Chapitre 2
Interpolation polynomiale

2.1 Position du problme d'interpolation


Soient (xi , yi ), i = 0, . . . , n, (n + 1) couples de valeurs relles. Des telles valeurs peuvent tre le
rsultat de mesures eectues exprimentalement. Le but du problme d'interpolation est de dter-
miner une fonction F -appartenant une certaine classe- qui passe par les points (xi , yi ) donns,
c'est dire
F (xi ) = yi , i = 0, . . . , n.
Les points (xi , yi ) sont appels les points d'interpolation.

Exemple 2.1. En physique, on mesure exprimentalement la temprature d'un objet qui refroidit au
cours du temps. On obtient une suite de valeurs dirents temps ti . On cherche alors tracer la
courbe de refroidissement la plus proche possible des points mesurs, et ainsi estimer des valeurs
de la fonction en des points non mesurs.

Les fonctions les plus faciles valuer numriquement sont les polynmes. Il est donc important
de savoir approximer une fonction arbitraire par des polynmes.
L'interpolation polynomiale consiste chercher la fonction F sous forme d'un polynme. C'est ce
cas qu'on va s'intresser dans ce chapitre.

Existe-t-il un polynme P tel que P (xi ) = yi , i = 0, . . . , n?

Proposition 2.1. Si les xi sont tous distincts alors il existe un unique polynme Pn de degr infrieur
ou gal n vriant
Pn (xi ) = yi , i = 0, . . . , n.

Dmonstration. On peut crire le polynme Pn comme suit :

Pn (x) = a0 xn + a1 xn1 + . . . + an .

Du fait que Pn (xi ) = yi , i = 0, n, les coecients ai , i = 0, n vrient le systme :

a0 xn0 + a1 xn1

0 + . . . + an = y 0
n1
n
a x + a x + . . . + an = y 1

0 1 1 1



.

(S)

.
.



n n1
a0 x n + a1 x n + . . . + an = y n ,

11
12 CHAPITRE 2. INTERPOLATION POLYNOMIALE

(S) est un systme linaire de dterminant


n n1
x0 x0
n n1 . . . xo 1

x1 x1 . . . x1 1
n
. . . . Y
(2.1)

= = (xi xj )
. . . .
i=0,j>i
.
n . n1 . .

x x . . . x n 1
n n

(c'est le dterminant de Vandermonde). On a 6= 0, car les xi , sont tous distincts. Donc, le systme
(S) admet une et une seule solution (a0 , a1 , . . . , an ), d'o le polynme d'interpolation existe et il est
unique.
Exercice 2.1. f (x) = x4 2x3 + x. Parmi les
Soient la fonction polynmes suivants quel est celui
qui interpole f aux points d'abscisses x0 = 1, x1 = 0 et x2 = 2 :
P1 (x) = 2x4 x2 x, P2 (x) = x2 + x + 1,
P3 (x) = x3 3x, P4 (x) = x2 x.
Remarque 2.1. Dans le cas gnral, on montre que la rsolution du systme plein (S), permettant
le calcul des coecients du polynme d'interpolation, ncessite un nombre d'oprations en O(n3 ). On
utilisera plutt d'autres mthodes, moins coteuses en nombre d'oprations, ds que n devient grand.
Par exemple, l'utilisation des polynmes de Lagrange, prsente ci-dessous, ncessite un nombre
2
d'oprations en O(n ) (voir la section 2.6).

2.2 Interpolation de Lagrange


Rsolvons d'abord le problme partiel suivant :
Construire un polynme Li = Li (x) de degr n tel que
1, si j = i

Li (xj ) = i,j = i = 0, . . . , n x.
0, si j 6= i
Le polynme Li s'annule en x0 , x1 , . . . , xi1 , xi+1 , . . . , xn , il s'crit alors sous la forme :
Li (x) = Ki (x x0 ) . . . (x xi1 )(x xi+1 ) . . . (x xn ), Ki = C te .
Donc,
pour x = xj : Li (xj ) = 0, (j = 0, n, j 6= i),

pour x = xi : Li (xi ) = 1 Ki (xi x0 ) . . . (xi xi1 )(xi xi+1 ) . . . (xi xn ) = 1,


d'o la valeur de Ki
1
Ki =
(xi x0 ) . . . (xi xi1 )(xi xi+1 ) . . . (xi xn )
Donc,
(x x0 ) . . . (x xi1 )(x xi+1 ) . . . (x xn )
Li (x) = ,
(xi x0 ) . . . (xi xi1 )(xi xi+1 ) . . . (xi xn )
ou encore n
Y (x xj )
Li (x) =
j=0, j6=i
(xi xj )

Pour chaque i = 0, n, Li est appel polynme lmentaire de Lagrange au point xi .


Remarquons que deg(Li ) = n.
2.2. INTERPOLATION DE LAGRANGE 13

Proposition 2.2. Les polynmes L0 , L1 , . . . , Ln forment une base de l'espace vectoriel Pn .

Dmonstration. La famille {L0 , L1 , . . . , Ln } est compose de (n + 1) lments. Pour montrer qu'elle


forme une base de Pn , qui est de dimension (n+1), il faut et il sut d'tablir que les Li, i = 0, n sont
linairement indpendants. Etant donn n + 1 scalaires i , i = 0, n.
n n n
Si i Li (x) = 0, alors en particulier i ij = 0, pour tout j = 0, n.
P P P
i Li (xj ) =
i=0 i=0 i=0
D'o, 0 = 1 = . . . = n = 0.

Passant la rsolution du problme gnral qui consiste former Pn vriant les conditions
indiques plus haut. Ce polynme est de la forme :
n
X
Pn (x) = yi Li (x).
i=0

On a bien
1. deg(Pn ) n,
n n
2. Pn (xj ) =
P P
yi Li (xj ) = yi ij = yj , j = 0, 1, . . . , n.
i=0 i=0
Par unicit, le polynme Pn est le polynme cherch. Il s'appelle le polynme d'interpolation de
Lagrange1 qui interpole les points (xi , yi ), i = 0, . . . , n.

Exemple 2.2. Dterminer le polynme d'interpolation P3 de la fonction f dont on connait les valeurs
suivantes :
xi 0 1 3 4
f (xi ) 1 3 0 5

Sous la forme de Lagrange, ce polynme s'crit

3
X
P3 (x) = f (xi )Li(x) = L0 (x) + 3L1 (x) + 5L3 (x)
i=0

o
(xx1 )(xx2 )(xx3 ) 1
L0 (x) = (x0 x1 )(x0 x2 )(x0 x3 )
= 12 (x 1)(x 3)(x 4),
(xx0 )(xx2 )(xx3 )
L1 (x) = (x1 x0 )(x1 x2 )(x1 x3 )
= 61 x(x 3)(x 4),
(xx0 )(xx1 )(xx2 ) 1
L3 (x) = (x3 x0 )(x3 x1 )(x3 x2 )
= 12 x(x 1)(x 3).
1
Donc, P3 (x) = 12 (x 1)(x 3)(x 4) + 12 x(x 3)(x 4) + 5
12
x(x 1)(x 3).

Remarque 2.2. 1. La formule de Lagrange est intressante du point de vue numrique, car elle ne
dpend que des abscisses xi , i = 0, 1, . . . , n. Soit calculer plusieurs polynmes d'interpolation
o les abscisses correspondant ces polynmes restent xs (il n'y a que les points yi , i =
0, 1, . . . , n qui changent). Les polynmes Li , i = 0, 1, . . . , n sont calculs une fois pour toute et
servent ensuite pour tous les polynmes.

2. La mthode d'interpolation de Lagrange prsente deux inconvnients majeurs :

i) L'erreur d'approximation peut ne pas diminuer si on augmente le nombre de points d'inter-


polation (voir TP).

1 Joseph-Louis Lagrange, franais n en Italie, 1736-1813


14 CHAPITRE 2. INTERPOLATION POLYNOMIALE

ii) La mthode n'est pas rcurrente : connaissant Pn le polynme d'interpolation de Lagrange


de degr au plus n en les points (xi , yi ), i = 0, n, si on rajoute le point d'interpolation
(xn+1 , yn+1 ), il existe un unique polynme Pn+1 de degr au plus n + 1. Il est impossible de
dduire Pn+1 partir de Pn , car dans la mthode de Lagrange, l'introduction d'un nouveau
point xn+1 ncessite un nouveau calcul de tous les polynmes Li de Lagrange aux points
xi , i = 0, 1, . . . , n + 1.
Il est intressant de mettre Pn sous une forme rcurrente qui permet de complter les valeurs
dja obtenues sans refaire tous les calculs. On arrive donc au polynme d'interpolation de Newton.

2.3 Interpolation de Newton


L'interpolation de Newton2 utilise les dirences divises ou nies de f aux points donns.

2.3.1 Dirences divises


Dnition 2.1. Soient x0 , x1 , . . . , xn , (n + 1) points (abscisses) distincts de [a, b] et f une fonction
relle dnie sur [a, b] connue uniquement en xi donns. On dnit les dirences divises d'ordres
successifs 0, 1, 2, . . . , n par :


ordre 0 : 0 [xi ] = f (xi ),
= f (xxi+1 )f (xi )




ordre 1 : [xi , xi+1 ] i+1 xi

2 [xi , xi+1 , xi+2 ] = [xi+1 ,xxi+2 ][xi ,xi+1 ]



ordre 2 :


i+2 xi
(I) .
.




.




k1 [xi+1 ,...,xi+k ] k1 [xi ,...,xi+k1 ]

ordre k : k [xi , xi+1 , . . . , xi+k ] = .

xi+k xi

La dernire relation est appele la dirence divise d'ordre k (k = 0, 1, 2, . . . , n) de la fonction f


en xi , xi+1 , . . . , xi+k .
Remarque 2.3. f (a)f (b)
Commeab
[a, b] =
= [b, a], la dirence divise de n'importe quel ordre est
indpendante de la position des points (abscisses) sur lesquels elle est prise.

Calcul des dirences divises


Pour calculer la dirence divise d'ordre n de la fonction f aux points x0 , . . . , xn on forme le
tableau suivant, en appliquant les formules (I) colonne aprs colonne.

xi f (xi ) DD1 DD2 DD3 DDn


x0 f (x0 )
x1 f (x1 ) [x0 , x1 ]
x2 f (x2 ) [x1 , x2 ] 2 [x0 , x1 , x2 ]
x3 f (x3 ) [x2 , x3 ] 2 [x1 , x2 , x3 ] 3 [x0 , x1 , x2 , x3 ]
.. .. .. .. ..
. . . . .
.. .. .. .. ..
. . . . .
xn f (xn ) [xn1 , xn ] 2 [xn2 , xn1 , xn ] 3 [xn3 , . . . , xn ] . . . . . . n [x0 , x1 , . . . , xn ]
2 Sir Isaac Newton, anglais, 1643-1727
2.3. INTERPOLATION DE NEWTON 15

2.3.2 Polynme d'interpolation de Newton


Thorme 2.1. Soient f : [a, b] R et x0 , x1 , . . . , xn , (n + 1) points distincts de [a, b], le polynme
d'interpolation de f aux points xi i = 0, n peut tre mis sous la forme :

Pn (x) = f (x0 ) + [x0 , x1 ](x x0 ) + 2 [x0 , x1 , x2 ](x x0 )(x x1 )


+ . . . + n [x0 , x1 , . . . , xn ](x x0 )(x x1 ) . . . (x xn1 ),
ou encore
n
X i1
Y
Pn (x) = f (x0 ) + i [x0 , x1 , . . . , xi ] (x xj ). (2.2)
i=1 j=0

Remarque 2.4. On peut dnir Pn par la relation de rcurrence :



P0 (x) = f (x0 ),
n1
Pn (x) = Pn1 (x) + n [x0 , x1 , . . . , xn ]
Q
(x xi ), n 1.
i=0

Dmonstration. Soit x [a, b]. D'aprs la dnition des dirence divises on peut crire :

f (x) f (x0 )
[x0 , x] =
x x0
alors,
f (x) = f (x0 ) + [x0 , x](x x0 ),
puis
[x0 , x] [x0 , x1 ]
2 [x0 , x1 , x] = 2 [x1 , x0 , x] =
x x1
d'o,
f (x) = f (x0 ) + [x0 , x1 ](x x0 ) + 2 [x0 , x1 , x](x x0 )(x x1 ).
En continuant ainsi on obtient la formule des dirences divises, on aura donc

f (x) = f (x0 ) + [x0 , x1 ](x x0 ) + 2 [x0 , x1 , x2 ](x x0 )(x x1 )


+ . . . + n [x0 , x1 , . . . , xn ](x x0 )(x x1 ) . . . (x xn1 )
+ n+1 [x0 , x1 , . . . , xn , x](x x0 )(x x1 ) . . . (x xn ).
n i1
Si on pose Pn (x) = f (x0 ) + [x0 , x1 ](x x0 ) + i [x0 , x1 , . . . , xi ]
P Q
(x xj ),
i=1 j=0
et E(x) = n+1 [x0 , x1 , . . . , xn , x](x x0 )(x x1 ) . . . (x xn ), alors

f (x) = Pn (x) + E(x).


Montrons que Pn est le polynme d'interpolation de f en xi , i = 0, n.
i) deg(Pn ) n (vident)
ii) f (xi ) = Pn (xi ) + E(xi ) avec E(xi ) = 0, i = 0, n, donc Pn (xi ) = f (xi ) i = 0, n.

Remarque 2.5. 1. L'expression (2.4) s'appelle polynme d'interpolation de Newton de f aux


points (abscisses) xi , i = 0, n.
2. L'expression de Pn est aussi valable si les points xi , i = 0, n ne sont pas ordonns.
16 CHAPITRE 2. INTERPOLATION POLYNOMIALE

3. Si on rajoute un point d'interpolation xn+1 supplmentaire, le polynme d'interpolation de f


aux points xi , i = 0, n + 1 est donn par :

Pn+1 (x) = Pn (x) + n+1 [x0 , x1 , . . . , xn , xn+1 ](x x0 )(x x1 ) . . . (x xn ).


Exemple 2.3. 1. Dterminer P3 le polynme d'interpolation de la fonction passant par les points
(0, 1), (1, 2), (2, 9), (3, 28).
2. En dduire P4 le polynme d'interpolation passant par les points (0, 1), (1, 2), (2, 9), (3, 28) et
(5, 54).
Solution : On a 4 points, donc deg(P3) 3. Posons xi = i, i = 0, 4.

P3 (x) = f (x0 ) + [x0 , x1 ](x x0 ) + 2 [x0 , x1 , x2 ](x x0 )(x x1 )


+ 3 [x0 , x1 , x2 , x3 ](x x0 )(x x1 )(x x2 ).
Le calcul des dirences divises se fait comme suit :

xi f (xi ) DD1 DD2 DD3


x0 =0 f (x0 ) = 1
x1 =1 f (x1 ) = 2 [x0 , x1 ] = 1
x2 =2 f (x2 ) = 9 [x1 , x2 ] = 7 2 [x0 , x1 , x2 ] = 3
x3 =3 f (x3 ) = 28 [x2 , x3 ] = 19 2 [x1 , x2 , x3 ] = 6 3 [x0 , x1 , x2 , x3 ] = 1
On obtient, P3 (x) = 1 + x + 3x(x 1) + x(x 1)(x 2).
et
P4 (x) = P3 (x) + 4 [x0 , x1 , x2 , x3 , x4 ](x x0 )(x x1 )(x x2 )(x x3 )
= P3 (x) 53 x(x 1)(x 2)(x 3).

2.3.3 Cas particulier : points quidistants


On considre (n + 1) points d'interpolation (xi , yi ) i = 0, n o les xi sont quidistants, soit h la
distance entre deux points conscutifs xi0 , xi0 +1 (h est appel pas d'interpolation).

Dirences nies (non divises) progressives


l'ordre 1 : f (x) = f (x + h) f (x), alors
f (xi ) = f (xi+1 ) f (xi ), i = 0, n 1.
l'ordre k > 1 : k f (x) = (k1 f )(x), alors
k f (xi ) = k1 f (xi+1 ) k1 f (xi ), i = 0, n k.

Table des dirences nies progressives

f (xi ) f (.) 2 f (.) 3 f (.) n f (.)


f (x0 )
f (x1 ) f (x0 )
f (x2 ) f (x1 ) 2 f (x0 )
f (x3 ) f (x2 ) 2 f (x1 ) 3 f (x0 )
.. .. .. ..
. . . .
.. .. .. ..
. . . .
f (xn ) f (xn1 ) 2
f (xn2 ) f (xn3 ) . . . . . . n f (x0 )
3
2.3. INTERPOLATION DE NEWTON 17

Proposition 2.3. Pour tout i = 0, . . . , n, les galits suivantes sont valables :

1. f (xi ) = f (xi+1 ) f (xi ), i = 0, . . . , n 1.


2. 2 f (xi ) = f (xi+2 ) 2f (xi+1 ) + f (xi ), i = 0, . . . , n 2.
3. 3 f (xi ) = f (xi+3 ) 3f (xi+2 ) + 3f (xi+1 ) f (xi ), i = 0, . . . , n 3.
4. En gnral, les dirences nies progressives satisfont la relation

k
X
k
f (xi ) = (1)j Ckj f (xi+kj ), k = 0, . . . , n, i = 0, . . . , n k.
j=0

Dmonstration. Exercice.

Relation entre les dirences nies progressives et les dirences divises


Lemme 2.1. j
f (xi )
j
= j [xi , xi+1 , . . . , xi+j ], j = 1, n, i = 0, n 1.
j!h
Dmonstration. On montre cette relation, pour i = 0, par rcurrence :
Pour j = 1 : [x0 , x1 ] = f (xx11)f
x0
(x0 )
= fh(x0 )
j f (x0 ) j+1 f (x0 )
Supposons que j [x0 , x1 , . . . , xn ] = j! hj
et montrons que j+1 [x0 , . . . , xj+1 ] = (j+1)! hj+1
On a

j [x1 ,x2 ...,xj+1 ] j [x0 ,x2 ,...,xj ]


j+1 [x0 , x1 , x2 , . . . , xj+1 ] =
h jxj+1 x0 j i
1 f (x1 ) f (x0 )
= (j+1)h j! hj
j! hj
j f (x1 )j f (x0 )
= (j+1)! hj+1
j+1 f (x0 )
= (j+1)! hj+1

Formule de Newton progressive


Prenons les points d'interpolation dans l'ordre x0 , x1 , . . . , xn .
D'aprs la formule de Newton avec les dirences divises et le lemme 2.1, le polynme d'interpolation
de Newton progressif s'crit :
2
Pn (x) = f (x0 ) + fh(x0 ) (x x0 ) + 2!h
f (x0 )
2 (x x0 )(x x1 )
n
f (x0 )
+ . . . + n!hn (x x0 )(x x1 ) . . . (x xn1 ),

ou encore sous la forme de rcurrence



P0 (x) = f (x0 ),
n f (x )
Pn (x) = Pn1 (x) + n!h n
0
(x x0 )(x x1 ) . . . (x xn1 ), n 1.

Exemple 2.4. Dterminer le polynme d'interpolation de Newton progressif associ la fonction f


passant par les points (0, 1), (1, 2), (2, 9), (3, 28).

Solution : Posons xi = i, i = 0, 1, 2, 3. Remarquons que les points donns sont quidistants avec
le pas d'interpolation h = 1, alors sous la forme de Newton progressive, le polynme d'interpolation
de f est donn par :
18 CHAPITRE 2. INTERPOLATION POLYNOMIALE

f (x0 ) 2 f (x ) 3 f (x )
P3 (x) = f (x0 ) + h
(x x0 ) + 2!h 2
0
(x x0 )(x x1 ) + 3!h 3
0
(x x0 )(x x1 )(x x2 ).
Le calcul des dirences nies progressives se fait comme suit :

f (xi ) f (.) 2 f (.) 3 f (.) n f (.)


f (x0 ) = 1
f (x1 ) = 2 f (x0 ) = 1
f (x2 ) = 9 f (x1 ) = 7 2 f (x0 ) = 6
f (x3 ) = 28 f (x2 ) = 19 2 f (x1 ) = 12 3 f (x0 ) = 6

D'o, P3 (x) = 1 + x + 3x(x 1) + x(x 1)(x 2).

Proposition 2.4. Posons x = x0 + th, le polynme de Newton progressif s'crit :

n
X t(t 1) . . . (t k + 1)
Pn (t) = f (x0 ) + k f (x0 ).
k=1
k!

Dmonstration. Exercice.

Dirences nies (non divises) rgressives


l'ordre 1 : f (x) = f (x) f (x h), alors

f (xi ) = f (xi ) f (xi1 ), i = 1, n.

l'ordre k > 1 : k f (x) = (k1 f )(x), alors

k f (xi ) = k1 f (xi ) k1 f (xi1 ), i = k, n.

Table des dirences nies rgressives

f (xi ) f (.) 2 f (.) 3 f (.) n f (.)


f (x0 )
f (x1 ) f (x1 )
f (x2 ) f (x2 ) 2 f (x2 )
f (x3 ) f (x3 ) 2 f (x3 ) 3 f (x3 )
.. .. .. ..
. . . .
.. .. .. ..
. . . .
f (xn ) f (xn ) 2
f (xn ) f (xn ) . . . . . . n f (xn )
3

Proposition 2.5. Pour tout i = 0, . . . , n, les galits suivantes sont valables :

1. f (xi ) = f (xi ) f (xi1 ), i = 1, . . . , n.


2. 2 f (xi ) = f (xi ) 2f (xi1 ) + f (xi2 ), i = 2, . . . , n.
3. 3 f (xi ) = f (xi ) 3f (xi1 ) + 3f (xi2 ) f (xi3 ), i = 3, . . . , n.
4. En gnral, les dirences nies progressives satisfont la relation

k
X
k
f (xi ) = (1)j+1 Ckj f (xik+j ), k = 0, . . . , n, i = k, . . . , n.
j=0
2.3. INTERPOLATION DE NEWTON 19

Dmonstration. Exercice.

Le lemme suivant donne la relation entre les dirences nies (non divises) rgressives et les
dirences divises :

Lemme 2.2.
j f (xi+j )
= j [xi , xi+1 , . . . , xi+j ], j = 1, n, i = 0, n 1.
j! hj

Formule de Newton rgressive


Prenons les points d'interpolation dans l'ordre xn , xn1 , . . . , x0 .
D'aprs la formule de Newton et le lemme 2.2, en remplaant les dirences divises par les dif-
frences non divises rgressives et les points {x0 , x1 , . . . , xn } par {xn , xn1 , . . . , x0 }, le polynme
d'interpolation de Newton rgressif s'crit :
2
Pn (x) = f (xn ) + f h(xn ) (x xn ) + 2!f h(x2n ) (x xn )(x xn1 )
n
+ . . . + n!fh(xnn ) (x xn )(x xn1 ) . . . (x x1 ).

ou encore sous la forme rcurrente



P0 (x) = f (xn ),
k f (xn )
Pk (x) = Pk1 (x) + k!hk
(x xn ) . . . (x xnk+1 ), 1 k n.

Exemple 2.5. On considre la mme fonction donne dans l'exemple 2.4. Dterminer le polynme
d'interpolation de la fonction f en x3 = 3, x2 = 2, x1 = 1, x0 = 0 sous la forme de Newton rgressive.
Solution : Ce polynme s'crit :
f (x3 ) 2 f (x3 ) 3 f (x3 )
P3 (x) = f (x3 ) + (x x3 ) + (x x 3 )(x x 2 ) + (x x3 )(x x2 )(x x1 ).
h 2!h2 3!h3

Le calcul des dirences nies progressives se fait comme suit :

f (xi ) f (.) 2 f (.) 3 f (.) n f (.)


f (x0 ) = 1
f (x1 ) = 2 f (x1 ) = 1
f (x2 ) = 9 f (x2 ) = 7 2 f (x2 ) = 6
f (x3 ) = 28 f (x3 ) = 19 2 f (x3 ) = 12 3 f (x3 ) = 6

D'o, P3 (x) = 28 + 19(x 3) + 6(x 3)(x 2) + (x 3)(x 2)(x 1).

Proposition 2.6. Posons x = xn + th, le polynme de Newton rgressif s'crit :

n
X t(t + 1) . . . (t + k 1)
Pn (t) = f (xn ) + k f (xn ).
k=1
k!

Dmonstration. Exercice.
20 CHAPITRE 2. INTERPOLATION POLYNOMIALE

2.4 Erreur d'interpolation


Dans la pratique, l'interpolation polynomiale sert remplacer une fonction f qui est soit inconnue,
soit trop complique, par une fonction plus simple, en l'occurrence un polynme. On dit que l'on
approxime f par le polynme d'interpolation Pn .
Comme c'est le cas dans de nombreuses mthodes d'analyse numrique, il est fondamental d'tu-
dier l'erreur d'approximation. Naturellement, sauf cas particulier, l'expression de l'erreur ne permet
pas son calcul exact ; elle peut cependant tre trs utile pour en calculer une majoration.
L'erreur d'interpolation E(x) = f (x) Pn (x), x [a, b] (a x0 . . . xn b), en utilisant les
dirences divises, quelle que soit la formule de Pn , puisqu'il est unique est donne par :

E(x) = n+1 [x0 , x1 , . . . , xn , x](x x0 )(x x1 ) . . . (x xn ). (2.3)

Cette formule gnrale peut tre modie lorsque la fonction f est (n + 1) fois continument drivable
sur l'intervalle [a, b], qui est le plus petit intervalle contenant les xi , i = 0, n, f C n+1 ([a, b]).
Thorme 2.2. Si f C n ([a, b]), (n + 1) fois drivables sur ]a, b[. Alors

n
f (n+1) () Y
x [a, b], = (x) [a, b]/ E(x) = (x xi ).
(n + 1)! i=0

Dmonstration. Soit x 6= xi , sinon E(x) = f (x) Pn (x) = 0.


D'aprs (2.3), il sut de montrer que

f (n+1) ()
x [a, b], = (x) [a, b]/ n+1 [x0 , x1 , . . . , xn , x] = .
(n + 1)!
On considre sur [a, b] le fonction g dnie par :
n
Y
g(t) = f (t) Pn (t) (t xi ) n+1 [x0 , x1 , . . . , xn , x].
i=0

La fonction g s'annule pour t {x0 , x1 , . . . , x}, donc g C n+1 ([a, b]) et s'annule au moins en (n + 2)
points dans [a, b]. Alors, d'aprs le thorme de Rolle3 , g 0 C n ([a, b]) et s'annule au moins en (n + 1)
points dans [a, b], g (k) a au moins (n k + 2) racines dans [a, b] avec 0 k n + 1, et pour
k = n + 1, g (n+1) a au moins une racine dans [a, b].
Notons par cette racine de g (n+1) , on a
 (n+1)
g () = 0,
g (n+1) (t) = f (n+1) (t) 0 (n + 1)! n+1 [x0 , x1 , . . . , xn , x],
car
n+1 P (t)
d dtn+1
n
= 0, (deg(Pn ) n),
n n
dn+1 ( dn+1 ( tn+1 +Qn (t))
Q Q
n (txi ))
(t xi ) = tn+1 + Qn (t)
Q
i=0
dtn+1
= i=0
dtn+1
= (n + 1)!,
i=0
donc f (n+1) () (n + 1)! n+1 [x0 , x1 , . . . , xn , x] = 0, d'o

f (n+1) ()
n+1 [x0 , x1 , . . . , xn , x] =
(n + 1)!

3 Michel Rolle, franais, 1652-1719


2.5. INTERPOLATION DE GAUSS 21

Consquences : Si f (n+1) est continue sur [a, b], alors


n n
|f (n+1) ()| Mn+1
1. |E(x)| = (x xi )| o Mn+1 = max |f (n+1) (t)|.
Q Q
(n+1)!
| (x xi )| (n+1)!
|
i=0 i=0 t[a,b]
En eet ; une fonction continue sur un compact est borne est atteint ses bornes.
2. Si f est un polynme de degr n, alors f (n+1) (x) = 0 E(x) = 0, x [a, b] donc,
Pn (x) = f (x), x [a, b].

Remarque 2.6. (Remarques importantes)


n
Q
| (xxi )|
i=0
1. L'erreur est compose de deux termes, le terme (n+1)!
qui dpend du choix des points xi et
(n+1)
le terme max |f (t)| li la rgularit de f.
t[a,b]

|ab|n+1
2. Estimation grossire : |f (x) Pn (x)| (n+1)!
kf (n+1) k , x [a, b].
En conclusion, plus f est rgulire, moins l'erreur est grande.

3. Dans la pratique, f est rarement connue, et quand elle l'est, son appartenance C n+1 ([a, b])
n'est pas toujours ralise, et fortiori si le nombre (n + 1) de points (xi , yi )i=0,n est grand !.

4. Pour x donn, x est souvent dicile trouver.


n+1
5. Dans les conditions
n "idales" (f C ([a, b]) et x connu) minimiser |E(x)| revient faire
Q
de mme pour
(x x i ) , alors on a intrt considrer des abscisses xi , i = 0, n proches

i=0
de x (donc rparties -de prfrence- de part et d'autre de x).

6. Pratiquement, on peut montrer qu'il existe un choix optimal des points xi qui permet de mini-
miser l'erreur d'approximation. Ce choix optimal est de prendre pour points d'interpolation les
zros d'un certain polynme de Tchebychev (voir section 2.7).

2.5 Interpolation de Gauss


Soient (2n + 1) points quidistants

xn , x(n1) , . . . , x1 , x0 , x1 , . . . , xn1 , xn tels que h = xi+1 xi , i

Dirences nies (non divises) centrales


On dnit les dirences nies centrales par :
l'ordre 1 : f (x) = f (x + h2 ) f (x h2 ), alors

f (x i+j ) = f (xi ) f (xj ), i, j = 0, n.


2

l'ordre k > 1 : k f (x) = ( k1 f )(x), alors

k f (x i+j ) = k1 f (xi ) k1 f (xj ), i, j = 0, n.


2
22 CHAPITRE 2. INTERPOLATION POLYNOMIALE

Table des dirences nies centrales

f (xi ) f (.) 2 f (.) 3 f (.) 4 f (.) ... 2n f (.)


f (xn )
f (xn+1 ) f (x 2n+1 )
2
f (xn+2 ) f (x 2n+3 ) 2 f (xn+1 )
2
.. .. .. ..
. . . .
..
f (x2 ) .
f (x1 ) f (x ) 3
2
f (x0 ) f (x 1 ) 2 f (x1 )
2
f (x1 ) f (x 1 ) 2 f (x0 ) 3 f (x 1 )
2 2
f (x2 ) f (x 3 ) 2 f (x1 ) 3 f (x 1 ) 4 f (x0 )) . . . . . . 2n f (x0 ))
2 2
.. .. ..
. . .
f (xn2 )
f (xn1 ) f (x 2n3 ) 2 f (xn1 )
2
f (xn ) f (x 2n1 )
2

Le lemme suivant donne la relation entre les trois dirences nies (non divises) :

Lemme 2.3. j f (xi ) = j f (xi+j ) = j f (xi+ j ), j = 1, n, i = n, n 1.


2

Dmonstration. exercice.

Formule de Gauss progressive


Le 1er pas tant progressif. c'est dire, en prenant les points d'interpolation dans l'ordre :

x0 , x1 , x1 , x2 , x2 , . . . , xn , xn .

Le polynme d'interpolation s'crit :


f (x 1 )
2 f (x0 )
Pn (x) = f (x0 ) + h
2
(x x0 ) + 2! h2
(x x0 )(x x1 )
3 f (x 1 )
+ 3! h2
2
(x x0 )(x x1 )(x x1 )
2n f (x0 )
+ . . . + (2n)! h2n (x x0 )(x x1 )(x x1 ) . . . (x xn ).

Formule de Gauss rgressive


Le 1er pas tant progressif. c'est dire, en prenant les points d'interpolation dans l'ordre :

x0 , x1 , x1 , x2 , x2 , . . . , xn , xn .

Le polynme d'interpolation s'crit :


f (x 1 )
2 f (x0 )
Pn (x) = f (x0 ) + h
2
(x x0 ) + 2! h2
(x x0 )(x x1 )
3 f (x 1 )
+ 3! h2 2 (x x0 )(x x1 )(x x1 )
2n f (x0 )
+ . . . + (2n)! h2n
(x x0 )(x x1 )(x x1 ) . . . (x xn ).
2.6. EVALUATION DES POLYNMES 23

Remarque 2.7. Soit une table des points (xi )iN . An d'avoir une bonne approximation de f en
x [min xi , max xi ],
1. la formule de Newton progressive est adapte au dbut de la table,

2. la formule de Newton rgressive est adapte la n de la table,

3. les formules de Gauss sont adaptes au milieu de la table.

Exemple 2.6. Exercice 2.9

2.6 Evaluation des polynmes


2.6.1 Cas d'un polynme quelconque
Il est important de pouvoir valuer des polynmes rapidement et de la faon la plus stable possible.
Pour valuer un polynme de la forme :

P (x) = an xn + an1 xn1 + . . . + a1 x + a0 ,

chaque terme aj xj ncessite j multiplications. Donc, en tout on a n2 (n + 1) multiplications et n


additions.
On peut diminuer le nombre d'oprations en stockant le terme xj1 de sorte que pour calculer
aj xj , il sut de multiplier xj1 par x puis par aj .
D'o 2 multiplications pour chaque monme partir de a2 x2 , on aura donc, 2n1 multiplications
et n additions.
On peut encore diminuer ce cot, en utilisant le schma d'Horner, qui regroupe les termes de P
de la faon suivante :

P (x) = (an xn1 + an1 xn2 + . . . + a2 x + a1 )x + a0


= ((an xn2 + an1 xn3 + . . . + a3 x + a2 )x + a1 )x + a0
= (. . . ((an x + an1 )x + an2 )x + . . . + a1 )x + a0 .
Ce qui donne l'algorithme de rcurrence d'Horner :

T0 (x) = an

T1 (x) = T0 (x)x + an1


..
.
Tk (x) = Tk1 (x)x + ank pour k = 1 . . . n,
..
.
Tn (x) = P (x).

2.6.2 Cas d'un polynme d'interpolation de Newton


Soit P le polynme d'interpolation de Newton de f aux points xi , i = 0, n.

P (x) = f (x0 ) + [x0 , x1 ](x x0 ) + 2 [x0 , x1 , x2 ](x x0 )(x x1 )


+ . . . + n [x0 , . . . , xn ](x x0 )(x x1 ) . . . (x xn1 )

= (. . . ( n [x0 , . . . , xn ](x xn1 ) + n1 [x0 , . . . , xn1 ]) (x xn2 )


+ . . . + [x0 , x1 ])(x x0 ) + f (x0 ).
24 CHAPITRE 2. INTERPOLATION POLYNOMIALE

Ce qui donne l'algorithme d'Horner :


T0 (x) = n [x0 , . . . , xn ]

T1 (x) = (x xn1 )T1 (x) + n1 [x0 , . . . , xn1 ]


..
.
Tk (x) = (x xnk )Tk1 (x) + nk [x0 , . . . , xnk ] pour k = 1, . . . , n,
..
.
Tn (x) = P (x).

2.6.3 Cas d'un polynme d'interpolation de Lagrange


Neville4 et Aitken5 ont propos un algorithme rcurrent de calcul du polynme d'interpolation
de Lagrange sur n points partir d'une expression portant sur (n 1) points.
Soit P le polynme d'interpolation de Lagrange de f aux points xi , i = 0, n.
n n
X Y (x xj )
P (x) = f (xi ) Li (x), o Li (x) = .
i=0
(x i xj )
j=0, j6=i

Le calcul d'un des polynmes lmentaires de Lagrange de degr n ncessite :


2(n 1) multiplications, 2n additions et une division.
Donc pour valuer le polynme P, les oprations ncessaires sont :
(n + 1) polynmes lmentaires de Lagrange, (n + 1) multiplications et n additions. D'o,
Cot=(2n 1)(n + 1) (mulitplications)+ (2n(n + 1) + n) (additions) +(n + 1)(divisions).
On peut diminuer de moiti ce cot en utilisant l'algorithme de Neville-Aitken suivant :
P0,j = f (xj ) pour j = 0, . . . , n,

(xi+1 x)Pi,j (x)(xj x)Pi,j+1 (x)


Pi+1,j (x) = xi+j+1 xj
pour i = 0, . . . , n 1 et j = 0, . . . , n i 1,

Pn,0 (x) = P (x).

2.7 Complment du cours


2.7.1 Interpolation d'Hermite
Exercice :

Soient f : [a, b] R une fonction drivable sur [a, b] et x0 , x1 , . . . , xn , (n + 1) points distincts de


[a, b]. On pose yi = f (xi ), zi = f 0 (xi ), i = 0, 1, . . . , n. An d'amliorer l'interpolation de Lagrange,
on propose de dterminer l'unique polynme P2n+1 de degr infrieur ou gal 2n + 1 qui vrie
P2n+1 (xi ) = yi et P2n+1
0
(xi ) = zi , i {0, 1, . . . , n}, (2.4)
il s'agit de l'interpolation dite de Hermite.
4 Eric Harold Neville, 1989-1961
5 Alexander Craig Aitken, 1895-1967
2.7. COMPLMENT DU COURS 25

1. On considre les polynmes Hi et Ki , i = 0, 1, . . . , n dnis par :

Hi (x) = L2i (x) [1 2L0i (xi )(x xi )] , Ki (x) = L2i (x)(x xi ),


n
(xxj )
o
Q
Li (x) = (xi xj )

j=0, j6=i

a) Montrer que
i) deg(Hi ) = deg(Ki ) = 2n + 1, i {0, 1, . . . , n}.
si j = i;

ii) Hi (xj ) = 1, 0, si j 6= i,
Ki (xj ) = 0, i, j {0, 1, . . . , n}.

si j = i;

ii) Ki (xj ) = 1,
0
0, si j 6= i,
Hi0 (xj ) = 0, i, j {0, 1, . . . , n}.

b) En dduire que
n
X
P2n+1 (x) = [yi Hi (x) + zi Ki (x)] (2.5)
i=0

est un polynme de degr infrieur ou gal 2n + 1 vriant (2.4).

c) Montrer que P2n+1 donn dans (2.5) est le seul polynme de P2n+1 qui satisfait (2.4).
2. On pose f C 2n+1 ([a, b]), drivable (2n + 2) fois sur ]a, b[. Montrer que x [a, b], ]a, b[
tel que
n
f (2n+2) () Y
E(x) = f (x) P2n+1 (x) = (x xi )2 .
(2n + 2)! i=0

Indication : pour tout x [a, b] avec x 6= xi , i = 0, . . . , n, on dnit la fonction t 7 (t) par


n
f (x)P2n+1 (x) Q
(t) = f (t) P2n+1 (t) n (t xi )2 .
(xxi )2 i=0
Q
i=0

3. Application numrique : Soit f (x) = 1


1+x2
, x [0, 1].
i) Dterminer le polynme d'interpolation de Lagrange de f aux points x0 = 0 et x1 = 1.
ii) Dterminer le polynme d'interpolation d'Hermite de f aux points x0 = 0 et x1 = 1.
iii) En dduire deux valeurs approches de f ( 12 ). Comparer les rsultats obtenus et conclure.
Solution :
1. On considre les polynmes Hi et Ki , i = 0, 1, . . . , n dnis par :

Hi (x) = [Li (x)]2 [1 2L0i (xi )(x xi )] , Ki (x) = [Li (x)]2 (x xi ),

o
n
Y (x xj )
Li (x) = .
(x i xj )
j=0, j6=i

si j = i;

1,
a) Pour tout i {0, 1, . . . , n}, on a deg(Li ) = n et Li (xj ) =
0, si j 6= i.
Alors

deg(Hi ) = deg(Ki ) = 2deg(Li ) + 1 = 2n + 1.


26 CHAPITRE 2. INTERPOLATION POLYNOMIALE

Hi (xi ) = [Li (xi )]2 [1 2L0i (xi )(xi xi )] = [Li (xi )]2 = 1,


Hi (xj ) = [Li (xj )]2 [1 2L0i (xi )(xj xi )] = 0, si j 6= i.


 0
Hi (xi ) = 2Li (xi )L0i (xi ) [1 2L0i (xi )(xi xi )] 2L0i (xi )[Li (xi )]2 = 0,
Hi0 (xj ) = Li (xj )L0i (xj ) [1 2L0i (xi )(xj xi )] 2L0i (xi )[Li (xj )]2 = 0, si j 6= i.

Ki (xi ) = [Li (xi )]2 (xi xi ) = 0,
Ki (xj ) = [Li (xj )]2 (xj xi ) = 0, si j 6= i.

Ki0 (xi ) = 2L0i (xi )Li (xi )(xi xi ) + [Li (xi )]2 = [Li (xi )]2 = 1,


Ki0 (xj ) = 2L0i (xj )Li (xj )(xj xi ) + [Li (xj )]2 = 0, si j 6= i.
n
b) Posons P2n+1 (x) = [yi Hi (x) + zi Ki (x)] . D'aprs la question prcdente, on aura
P
i=0
i) deg(P2n+1 ) 2n + 1, c'est vident car (deg(Hi ) = deg(Ki ) = 2n + 1),
n
ii) P2n+1 (xj ) = [yi Hi (xj ) + zi Ki (xj )] = yj Hj (xj ) = yj , j {0, 1, . . . , n},
P
i=0
n
iii) 0
[yi Hi0 (xj ) + zi Ki0 (xj )] = zj Kj0 (xj ) = zj , j {0, 1, . . . , n}.
P
P2n+1 (xj ) =
i=0
c) On suppose qu'il existe un autre polynme de degr au plus 2n + 1, not Q2n+1 , vriant
Q2n+1 (xi ) = yi et Q02n+1 (xi ) = zi , i {0, 1, . . . , n}.
Posons R2n+1 = P2n+1 Q2n+1 , on obtient

R2n+1 (xi ) = P2n+1 (xi ) Q2n+1 (xi ) = 0, i {0, 1, . . . , n}


0 0
R2n+1 (xi ) = P2n+1 (xi ) Q02n+1 (xi ) = 0, i {0, 1, . . . , n},
donc {x0 , . . . , xn } sont des racines doubles de R2n+1 . D'o R2n+1 est un polynme de degr
au plus 2n + 1 possde au moins 2n + 2 racines , ce qui signie que R est le polynme nul.
ce qui implique que Q2n+1 concide avec P2n+1 .
2. On pose f C 2n+1 ([a, b]), drivable (2n + 2) fois sur ]a, b[. Montrer que x [a, b], ]a, b[
tel que
n
f (2n+2) () Y
E(x) = f (x) P2n+1 (x) = (x xi )2 .
(2n + 2)! i=0
Remarquons que E(xi ) = 0, i {0, 1, . . . , n}.
On considre sur [a, b] avec x 6= xi , i = 0, . . . , n, la fonction dnie par :
n
f (x) P2n+1 (x) Y
(t) = f (t) P2n+1 (t) Qn (t xi )2 .
(x xi )2 i=0
i=0

La fonction s'annule pour t {x0 , x1 , . . . , xn , x}, donc C 2n+2 ([a, b]) et s'annule au moins
(n + 2) fois dans [a, b]. Alors, d'aprs le thorme de Rolle a au moins (n + 1) racines dans
]a, b[ direntes de x0 , x1 , . . . , xn . De plus on 0 (xi ) = 0, i {0, 1, . . . , n}, donc 0 a au moins
(2n + 2) racines dans ]a, b[. En appliquant le thorme de Rolle (2n + 2) fois la fonction
sur [a, b], on trouve (2n+2) a au moins une racine = (x) ]a, b[.
Par suite on aura
(2n+2)
() = 0,
(2n+2)
(t) = f (2n+2) (t) 0 f (x)P
n
2n+1 (x)
(2n + 2)!,
(xxi )2
Q
i=0
2.7. COMPLMENT DU COURS 27

car
2n+2
d dtP2n+2
2n+1 (t)
= 0, (deg(P2n+1 ) 2n + 1),
n
(t xi )2 = t2n+2 + S2n+1 (t), avec S2n+1 P2n+1 .
Q
i=0
D'o, x [a, b], ]a, b[:
n
f (2n+2) () Y
E(x) = f (x) P2n+1 (x) = (x xi )2 .
(2n + 2)! i=0

3. Application numrique : Soit [a, b] = [0, 1], x0 = 0, x1 = 1(n = 1) et f (x) = 1


1+x2
, f 0 (x) =
2x
(1+x2 )2
alors y0 = f (0) = 1, y1 = f (1) = 12 , z0 = f 0 (0) = 0 et z1 = f 0 (1)
, = 2.1
De plus
L0 (x) = 1 x, L1 (x) = x et L00 (x) = 1, L01 (x) = 1.
i) Sous la forme de Lagrange P1 s'crit :
1 x1 1 1
P1 (x) = L0 (x) + L1 (x) = + x = x + 1.
2 1 2 2

ii) Sous la forme de Hermite, P3 s'crit : P3 (x) = H0 (x) + 21 H1 (x) 21 K1 (x), o

H0 (x) = [L0 (x)]2 (1 2L00 (x0 )(x x0 )) = 2x3 3x2 + 1,

H1 (x) = [L1 (x)]2 (1 2L01 (x1 )(x x1 )) = 2x3 + 3x2 ,


K1 (x) = [L1 (x)]2 (x x1 ) = x3 x2 .
D'o,
1
P3 (x) = x3 x2 + 1.
2
iii) On a 1
2
[0, 1], d'o les deux approximations de f ( 12 )

1 1 3 1 1 4 3
f ( ) ' P1 ( ) = avec |f ( ) P1 ( )| = | | = 0, 05
2 2 4 2 2 5 4
et
1 1 13 1 1 4 13
f ( ) ' P3 ( ) = avec |f ( ) P3 ( )| = | | = 0, 0125 < 0.05.
2 2 16 2 2 5 16
Donc, la approximation la plus prcise de f ( 2 ) est celle obtenue par l'interpolation de
1

Hermite.

2.7.2 Meilleur choix de points d'interpolation et polynmes de Tcheby-


chev
Contrairement aux interpolations prcdentes dans lesquelles l'utilisateur peut choisir sa subdi-
vision, l'interpolation de Tchebychev impose une subdivision {x0 , x1 , . . . , xn } de l'intervalle d'inter-
polation [a, b] en des points appels points de Tchebychev .
Exercice :

An de dterminer, pour n donn, la subdivision {x0 , x1 , . . . , xn } de [a, b] pour laquelle la quantit

L = max |(x x0 )(x x1 ) . . . (x xn )| soit minimale,


x[a,b]
28 CHAPITRE 2. INTERPOLATION POLYNOMIALE

On propose d'tudier les polynmes de Tchebychev dnis pour tout n N par :

Tn : [1, 1] R
x 7 Tn (x) = cos(n arccos x)

1. a) Montrer que pour tout x [1, 1], Tn satisfont la relation de rcurrence :

Tn+1 (x) = 2xTn (x) Tn1 (x), n 1.

Indication : poser x = cos et utiliser la relation


cos((n + 1)) + cos((n 1)) = 2 cos cos n.

b) Dterminer les trois premiers termes de la suite (Tn )n .


c) En dduire que Tn est un polynme de degr n dont le coecient de xn est 2n1 .
2. Montrer que :
i) |Tn (x)| 1 pour tout x [1, 1].
ii) Tn (cos( kn )) = (1)k pour k = 0, 1, . . . , n.
iii) Tn (cos( (2k+1)
2n
)) = 0 pour k = 1, . . . , n 1.
3. Montrer que pour tout polynme Q de degr n dont le coecient de xn est 2n1 , on a

max |Q(x)| max |Tn (x)| = 1.


x[1,1] x[1,1]

4. a) Soit {x0 , . . . , xn } une subdivision de l'intervalle [1, 1]. Montrer que max |(x x0 )(x
x[1,1]
x1 ) . . . (x xn )| est minimal si et seulement si

(x x0 )(x x1 ) . . . (x xn ) = 2n Tn+1 (x).

b) En dduire que, pour n donn, la subdivision {x0 , . . . , xn } pour laquelle

max |(x x0 )(x x1 ) . . . (x xn )| soit minimal est


x[1,1]

(2k + 1)
xk = cos( ), k = 0, . . . , n.
2(n + 1)

5. Quels subdivision {x0 , . . . , xn } faut-il choisir si l'intervalle d'interpolation est l'intervalle [a, b]?
Commenter l'erreur d'interpolation.
Indication : utiliser le changement de variable xk = a+b 2
+ ab
2
xk .
Solution :
Pour tout n N, on dnit les polynmes de Tchebychev par :

Tn : [1, 1] R
x 7 Tn (x) = cos(n arccos x)
2.7. COMPLMENT DU COURS 29

1. a) Posons x = cos , alors arccos x = ce qui implique que Tn (x) = cos(n), n N. D'autre
part, les formules d'addition des fonctions trigonomtriques donnent :

cos((n + 1)) + cos((n 1)) = 2 cos cos(n).

On en dduit que pour tout x [1, 1] et n N

Tn+1 (x) = cos((n + 1))


= 2 cos cos(n) cos((n 1))
= 2xTn (x) Tn1 (x).

b)
T0 (x) = cos(0) = 1,
T1 (x) = cos(arccos x) = x,
T2 (x) = 2xT1 (x) T0 (x) = 2x2 1.
c) Le degr de Tn et le coecient de xn s'obtiennent par rcurrence.
2. Montrer que :
i) |Tn (x)| = | cos(n arccos x)| 1 pour tout x [1, 1].
ii) Tn (cos( kn )) = cos(n arccos(cos( kn ))) = cos(k) = (1)k ,
k = 0, 1, . . . , n.
C'est dire Tn atteint son extremum sur l'intervalle [1, 1] aux (n + 1) points
k
yk = cos( ), k = 0, 1, . . . , n.
n
pour lesquels il prend alternativement les valeurs 1 et 1.
iii) Tn (cos( (2k+1)
2n
)) = cos(n arccos(cos( (2k+1)
2n
))) = cos( (2k+1)
2
) = 0, k = 0, . . . , n 1.
(2k+1)
Constatons que pour k = 0, . . . , n 1, 2n [0, ]. C'est dire Tn s'annule exactement
n fois sur l'intervalle [1, 1] en les points
(2k + 1)
zk = cos( ), k = 0, . . . , n 1.
2n
3. Raisonnons par l'absurde, supposons qu'il existe un polynme Q de degr n dont le coecient
de xn est 2n1 dirent de Tn tel que

max |Q(x)| < max |Tn (x)| = 1.


x[1,1] x[1,1]

Considrons le polynme R = Tn Q. C'est un polynme de degr (n-1). De plus

R(cos( k
n
)) = Q(cos( k
n
)) Tn (cos( k
n
))

= Q(cos( k
n
)) (1)k

Q(cos( k )) 1, si k est pair ;



= n k = 0, . . . , n.
Q(cos( n )) + 1, si k est impair,
k

Comme |Q(x)| < 1, x [1, 1], alors R(cos( k n


)) prend alternativement le signe (+)ou(-
). On en dduit que la fonction R s'annule au moins une fois dans chacun des intervalles
[cos( k
n
), cos( (k+1)
n
)], k = 0, . . . , n 1. Ainsi R possde n racines dans [1, 1]. Or R est un
polynme de degr (n 1). Ceci n'est possible que si R 0, donc Q Tn . Contradiction.
30 CHAPITRE 2. INTERPOLATION POLYNOMIALE

4. a) Prenons Q(x) = 2n (x x0 )(x x1 ) . . . (x xn ), on a Q est un polynme de degr n + 1


dont le coecient de xn+1 est 2n , ce qui entrane, d'aprs la question prcdente, que

max |2n (x x0 )(x x1 ) . . . (x xn )| max |Tn+1 (x)|.


x[1,1] x[1,1]

Donc, pour que max |(x x0 )(x x1 ) . . . (x xn )| soit minimal if faut et il sut de
x[1,1]
prendre 2n (x x0 )(x x1 ) . . . (x xn ) = Tn+1 (x). C'est dire

(x x0 )(x x1 ) . . . (x xn ) = 2n Tn+1 (x). (2.6)

b) De (2.6) on en dduit que, pour n donn, x0 , . . . , xn sont les (n+1) racines de polynme de
Tchebychev Tn+1 et d'aprs la question (2.d) ces racines sont donnes par :

(2k + 1)
xk = cos( ), k = 0, . . . , n.
2(n + 1)

5. Pour se ramener un intervalle [a, b] quelconque, on utilise le changement de variable suivant

a+b ab
xk = + xk .
2 2
D'o pour que la quantit L = max |(x x0 )(x x1 ) . . . (x xn )| soit minimale, il faut et il
x[a,b]
sut de prendre
a+b ba (2k + 1)
xk = + cos( ), k = 0, . . . , n.
2 2 2(n + 1)
On obtient la majoration suivante le l'erreur d'interpolation de la fonction f C (n+1) ([a, b])
par le polynme Pn

(b a)n+1
|f (x) Pn (x)| max |f (n+1) (t)|, x [a, b].
(n + 1)!22n+1 t[a,b]

C'est la meilleure majoration globale que l'on puisse obtenir. En eet ; soit Mn+1 = max |f (n+1) (t)|,
t[a,b]
pour tout x [a, b] on a

(n+1) n
|f (x) P (x)| = | f (n+1)!
()| Q
| (x xk )|, ]a, b[
i=0
Mn+1
(n+1)!
|(x a+b
2
ba
2
x0 ) . . . (x a+b
2
ba
2
xn )|,
Mn+1 ba n+1
= (n+1)!
( 2 ) |( ba (x 2 ) x0 ) . . . ( ba (x a+b
2 a+b 2
2
) xn )|,
Mn+1 ba n+1
= (n+1)!
( 2 ) |(y x0 ) . . . (y xn )|, o y = ba (x a+b
2
2
) [1, 1]
Mn+1 (ba) n+1 n
= (n+1)! 2
) |2 Tn+1 (y)|
Mn+1 ba n+1 n
(n+1)!
( 2 ) 2 .
2.8. CONCLUSION 31

2.8 Conclusion
En fait, les mthodes d'interpolation polynomiale prsentes dans ce cours (Lagrange, Newton,
Hermite6 ) sont assez peu utilises dans la pratique. D'abord, il est dicile d'interpoler avec des poly-
nmes de degr trs lev : on voit alors apparatre un phnomne d'eets de bord dit phnomne de
Runge7 . Runge a montr en 1901 que quand le nombre de points d'interpolation crot indniment,
le polynme d'interpolation ne converge pas toujours vers la fonction interpole en tous points. La
divergence s'observe aux bords de l'intervalle (la convergence n'est pas uniforme). On peut avoir une
convergence uniforme, en choisissant judicieusement les points d'interpolation (racines d'un certain
polynme de Tchebychev8 ).

Nanmoins, ces mthodes d'interpolation ont un intrt pour construire des formules de quadra-
ture pour l'intgration numrique et des schmas pour rsoudre des quations direntielles.
L'interpolation en utilisant des polynmes de degr lev introduit aussi une grande sensibilit aux
erreurs. On prfre alors faire de l'interpolation par morceaux : c'est dire dcouper l'intevalle
sur lequel on veut interpoler en petits intervalles et interpoler sur chacun des ces petits intervalles
avec des polynmes de degr moindre. c'est la mthode des splines, la mthode d'interpolation la
plus utilise en pratique.

6 Charles Hermite, franais, 1822-1901


7 Carle David Tolm Runge, allemand, 1856-1927
8 Pafnuty Lvovich Chebyshev, russe, 1821-1894
32 CHAPITRE 2. INTERPOLATION POLYNOMIALE

2.9 Exercices
Exercice 2.2. Soient x 0 , x1 , . . . , x n (n+1) points distincts.

1. Montrer que, si f P n (P n est l'ensemble des polynmes de degr infrieur ou gal n) alors
le polynme d'interpolation de f aux points xi (i = 0, 1, . . . , n) est f lui mme.

2. En dduire que, pour tout x rel, on a :


n n
a. b.
xki Li (x) = xk (0 k n)
P P
Li (x) = 1
i=0 i=0 
n
1, si i = j;
c. k
P
(xi x) Li (x) = 0k (0 k n) o ij =
i=0 0, si i 6= j.
Exercice 2.3.
1. Soient x0 , x1 , . . . , xn (n+1) points rels distincts et F, G deux fonctions dnies en ces points.
On considre P et Q les polynmes d'interpolations de F et G ( respectivement ) aux points
x 0 , x1 , . . . , x n .
a. Montrer que P +Q est le polynme d'interpolation de F +G aux points x 0 , x1 , . . . , x n .
b. Donner une condition ncessaire et susante pour que PQ soit le polynme d'interpolation
de FG aux points x 0 , x1 , . . . , x n .
2. Soit la fonction f donne par la table suivante :

1 3
xi 0 2
1 2
f (xi ) 1 3 8 16

a. Dterminer le polynme d'interpolation de Newton de f aux points xi (i = 0, 1, 2, 3).


b. En dduire le polynme d'interpolation de la fonction g dnie par g(x) = xf (x) + x2 aux
points xi (i = 0, 1, 2, 3).
Exercice 2.4. 1. Soit la fonction relle f dnie par :

4 +6x3 11x2 +6x


f (x) = (x3 x2 2x)ex

a. Dterminer le polynme d'interpolation de Newton de f aux points 0, 1, 2, 3 en utilisant la


formule de Newton progressive.

b. Pouvait-on prvoir ce rsultat ?

xi 0 1 2 3
2. Soit g la fonction relle donne par la table suivante :
f (xi ) -1 0 1 -2

a. Dterminer le polynme d'interpolation de g aux points 0, 1, 2 :


i. sous la forme de Lagrange ii. sous la forme de Newton

b. En dduire le polynme d'interpolation de g aux points 0, 1, 2 et 3.


3. a. Dduire des questions prcdentes, le polynme d'interpolation de la fonction
F =f +g aux points 0, 1, 2 et 3.
b. En utilisant l'algorithme de Horner, calculer une valeur approche de F ( 12 ).
c. Estimer le rsultat obtenu, sachant que max |F (4) (x)| 1.
x[0,3]

Exercice 2.5. On considre une fonction impaire f connue aux points

x0 = 2, x1 = 1, x2 = 1 et x3 = 2.
2.9. EXERCICES 33

1. Calculer les polynmes de Lagrange Li (i = 0, 1, 2, 3) en ces points.


2. Calculer L3 (x)L0 (x) et L2 (x)L1 (x). En dduire une expression du polynme d'interpolation
P de la fonction f aux points x0 , x1 , x2 , x3 sous la forme :
P (x) = R(x)f (1) + S(x)f (2)
o R et S sont deux polynmes dterminer.

3. Montrer que P est galement le polynme d'interpolation de f aux points 2, 1, 0, 1, 2.


4. Pour f (x) = sin 2 x, en dduire une approximation de f ( 14 ) ainsi que l'erreur absolue commise.
Exercice 2.6.
1. Soient f : [a, a] R une fonction, a R+ et x0 , x1 , . . . , xn des points de [a, a] tels que :
0 < x0 < x1 < . . . < xn < a.
Montrer que le polynme d'interpolation de f aux points xn , . . . , x1 , x0 , x0 , x1 , . . . , xn est
pair si f est paire.
1
2. Soit f (x) = |x|+1 , x [4, 4]. Dterminer le polynme d'interpolation de Lagrange de f aux
1 1
points 3, 1, 2 , 2 , 1, 3.

Exercice 2.7. On considre la fonction f (x) = sin(x), x [1, 1].


f dnie par
1 1
1. Dterminer le polynme d'interpolation de f, not P2 , aux points 1, 2 , 2 .
1 1
2. Dterminer le polynme d'interpolation de f, not Q2 , aux points 2 , 2 , 1.
1
3. Soit le polynme P (x) = 2 [(x + 1)Q2 (x) (x 1)P2 (x)].

a) Montrer que P est le polynme d'interpolation de f aux points 1, 21 , 12 , 1.


b) Peut-on armer que P est le polynme d'interpolation de f aux points 1, 12 , 0, 12 , 1?
1 1 1
4. Calculer P2 ( 3 ), Q2 ( 3 ) et P ( 3 ) puis comparer les rsultats obtenus.

Exercice 2.8. On considre la fonction f (x) = 16x


2
et on se donne les points

1 3
x0 = 0, x1 = , x2 = 1, x3 = .
2 2
Les valeurs de f en xi sont rsumes dans le tableau suivant :

xi 0 1/2 1 3/2
f (xi ) 1/2 2 8 32

1. Dterminer le polynme d'interpolation de f sous forme de Newton aux points xi , i = 0, 1, 2, 3,


en utilisant les dirences nies.

3

3 16 3
1
2. En dduire une valeur approche de 2. (Indication : 2= 2
)

Exercice 2.9. On donne la table des valeurs de la fonction f dnie par f (x) = cos(x) :
xi -4 72 -3 25 -2 32 -1 21 0
1
2
1
3
2
2
5
2
f (xi ) 1 0 -1 0 1 0 -1 0 1 0 -1 0 1 0

En interpolant par un polynme de degr infrieur ou gal 4 et en utilisant les formules appropries,
calculer des valeurs approches de :

9 12 19
i) cos , ii) cos , iii) cos , vi) cos
10 10 5 5
Estimer l'erreur absolue commise dans chacun des cas.
34 CHAPITRE 2. INTERPOLATION POLYNOMIALE

Exercice 2.10. Soit la fonction f donne par :

xi -3 -2 -1 0 1 2 3
f (xi ) 1 0 -1 2 1 -2 0

1. a) Dterminer le polynme d'interpolation de Lagrange P de f aux points 1, 0, 1.



b) Montrer que x [1, 1] |E(x)| 273 M ;
o E(x) est l'erreur d'interpolation et M = sup |f (3) (x)|.
x[1,1]

c) Calculer f ( 31 ) en arrondissant au dernier c.s.e, sachant que M 101 .


2. a) Dterminer le polynme d'interpolation Q de degr 4, qui permet de calculer une bonne
1
valeur approche de f ( 3 ).

b) Calculer cette valeur approche par l'algorithme d' Horner.

Exercice 2.11. On considre la fonction f dnie par : f (x) = cos(x 2


), x [1, 1].
Dans toute la suite, les expressions seront calcules en fonction de 2.
1. Soit P le polynme d'interpolation de f aux points 1, 12 , 21 , 1.
a) Donner le degr exact de P.
b) Faire la table des dirences divises en ces points.
c) Majorer dans [1, 1] l'erreur d'interpolation E(x) = f (x) P (x) en fonction de
M = sup |f (k) (x)|, k prciser (on ne calculera pas M ).
x[1,1]

2. Soit Q le polynme d'interpolation de f aux points 1, 21 , 0, 21 , 1.


Montrer que Q s'crit sous la forme

Q(x) = P (x) + H(x)

o H est un polynme calculer.



Exercice 2.12. Soit la fonction dnie par f (x) = x + 1, x [0, 1].
1. Dterminer le polynme d'interpolation de Newton P vriant :

1 1
P (0) = f (0), P ( ) = f ( ), P (1) = f (1).
2 2
Calculer P (0.1) et P (0.9). Comparer aux valeurs exactes.

2. Dterminer le polynme d'interpolation d'Hermite Q vriant :

1 1
Q(0) = f (0), Q( ) = f ( ), Q(1) = f (1).
2 2
1 1
Q0 (0) = f 0 (0), Q0 ( ) = f 0 ( ), Q0 (1) = f 0 (1).
2 2
Calculer P (0.1) et P (0.9). Comparer aux valeurs exactes.
Chapitre 3
Approximation au sens des moindres carrs

3.1 Dnitions
Dnition 3.1. Soit E un espace vectoriel rel.

1. L'application
< ., . >: E E R
(x, y) 7 < x, y >
est appele produit scalaire sur E si elle vrie :

i) < x, x > 0, x E,
ii) < x, x >= 0 x = 0E ,
iii) < x, y >=< y, x >, x, y E,
vi) < x, y + z >= < y, x > + < x, z >, x, y, z E, , R.
2. L'application
k.k : E R+

x 7 kxk = < x, x >
est appele norme sur E associe au produit scalaire < ., . > .
3. Un espace vectoriel rel muni par un produit scalaire est dit prhilbertien sur R.
4. Un espace prhilbertien complet pour la norme associe ce produit scalaire est dit espace de
Hilbert.
5. Soit {0 , 1 , . . . , n } une base de E.
a) La famille {0 , 1 , . . . , n } est appele base orthogonale de E si

< i , j >= 0 i, j = 0, n et i 6= j.

b) La famille {0 , 1 , . . . , n } est appele base orthonorme de E si



0, si i 6= j;
< i , j >=
1, si i = j.

Exemple 3.1. 1. Soit E = Rn , x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) E.


L'application
< ., . >: Rn Rn R
n
P
(x, y) 7 < x, y >= xi yi
i=1

35
36 CHAPITRE 3. APPROXIMATION AU SENS DES MOINDRES CARRS

dnit un produit scalaire sur Rn et la norme associe ce produit scalaire est dnie par :

n
! 12
X
x= < x, x > = x2i .
i=1

2. Soit E = C([a, b]), f, g E.


L'application

< ., . >: C([a, b]) C([a, b]) R


Rb
(x, y) 7 < f, g >= a f (x) g(x) dx

dnit un produit scalaire sur C([a, b]) et la norme associe ce produit scalaire est dnie
par :
b  21

Z
2
x= < x, x > = f (x) dx .
a

3. La famille {1, x, 12 (3x2 1)} est une base orthonorme de P2 pour le produit scalaire dni par

Z 1
< f, g >= f (x) g(x) dx.
1

3.2 Position du problme


Soit E un espace vectoriel rel tel que Pn E, f E, o Pn est l'espace des polynmes de degr
infrieur ou gal n. L'approximation polynomiale au sens des moindres carrs consiste dterminer
le polynme P Pn qui vrie
kf P k = min kf P k.
P Pn

P est appel meilleur approximant au sens des moindres carrs de f dans Pn .

3.2.1 Existence et unicit de la meilleure approximation au s.m.c.


Thorme 3.1. (Thorme de la projection) Soient E un espace de Hilbert et F E un convexe
ferm non vide. Alors,

f E, F : kf k = min kf k.
F

De plus, est caractris par :

< f , >= 0 F.

Dans notre cas : F = Pn et dim(Pn ) = n + 1 < , alors d'une part, F est convexe, et d'autre
part, F est complet et donc il est ferm. Donc, le meilleur approximant au sens des moindres carrs
de f dans Pn existe et il est unique.
3.2. POSITION DU PROBLME 37

3.2.2 Dtermination de la meilleure approximation au s.m.c.


Soit {0 , 1 , . . . , n } une base de Pn , f E.
n
X
P Pn = P = aj j , aj R.
j=0
n
X

P Pn = P = ak k , ak R.
k=0
D'aprs le thorme de la projection P vriant
< f P , P >= 0 P Pn
n
< f P , aj j >= 0 aj R, j = 0, . . . , n
P
i=0
n
aj < f P , j >= 0 aj R, j = 0, . . . , n
P

j=0
< f P , j >= 0 j = 0, . . . , n
< P , j >=< f, j > j = 0, . . . , n
n
ak k , j >=< f, j > j = 0, . . . , n
P
<
j=0
n
P a < , >=< f, >
k k j j
j=0
j = 0, . . . , n.

C'est un systme linaire de (n + 1) quations (n + 1) inconnues. On dveloppe ce systme, on aura


le systme matriciel :

< 0 , 0 > < 1 , 0 > < n , 0 >

a0 < f, 0 >


< 0 , 1 > < 1 , 1 > < n , 1 > a1 < f, 1 >
.. .. .. .
. = ..
. . . . .



.
.. .
.. .
..
.
.. .
..


< 0 , n > < 1 , n > < n , n > an < f, n >
Remarquons que ce systme admet une et une seule solution car P existe et il est unique.
Remarque 3.1. 1. Si la famille {0 , 1 , . . . , n } forme une base orthogonale de Pn , on obtient
le systme diagonal

a0

< 0 , 0 > 0 0 < f, 0 >


0 < 1 , 1 > 0 a1 < f, 1 >
.. .. ..
. ..
. =

. . . . .


.. .. .. .
.. .
..

. . .
0 0 < n , n > an < f, n >
D'o,
< f, k > < f, k >
ak = = , k = 0, . . . , n.
< k , k > kk k2
2. Si la famille {0 , 1 , . . . , n } forme une base orthonormale de Pn , on trouve immdiatement

ak =< f, k > k = 0, . . . , n.
38 CHAPITRE 3. APPROXIMATION AU SENS DES MOINDRES CARRS

3.2.3 Erreur d'approximation


v
u
u N
X
2
kf P k = kf k
t ak < f, k >.
i=0

En eef ;
kf P k2 = < f P , f P >
= < f P , f > < f P , P >
= < f, f > < f, P >
N
= kf k2 ak < f, k >
P
i=0

Cas particulier : si la base {0 , 1 , . . . , n } est orthonormale, on obtient


v
u
u N
X
2
kf P k = kf k
t ak 2 .
i=0

3.2.4 Algorithme de Gram-Schmidt


Soit F un espace de dimension nie. En partant d'une base quelconque de F , note {0 , 1 , . . . , n },
on peut dterminer la fois une base orthonorme de F , note {u0 , u1 , . . . , un }, et une autre base
orthonorme, note {h0 , h1 , . . . , hn }, l'aide de l'algorithme de Gram-Schmidt suivant :

h0 = kuu00 k , o u0 = 0 ;



h1 = ku1 k , o u1 = 1 < 1 , h0 > h0 ;

u1

h2 = kuu22 k , o u2 = 2 < 2 , h0 > h0 < 2 , h1 > h1 ;




.

..



k1
uk
o
P


h k = kuk k
, u k = k < k , hm > hm , 1 k n;
m=0
..



.





n1
hn = kuunn k , o un = n
P
< n , hm > hm .
m=0

3.3 Application au cas discret


Soient E = C([a, b]), x0 , x1 , . . . , xN (N + 1) points distincts de l'intervalle [a, b]. Soit f E
connue seulement aux points xi , i = 0, . . . , N. On dnit sur E le produit scalaire
N
X
< g, h >= i g(xi )h(xi ), g, h C([a, b])) o i sont des poids.
i=0

i sont des nombres positifs non nuls la fois. En pratique, on prend des poids gaux.
La norme associe ce produit scalaire est dnie par :

N
! 12
X
kgk = i (g(xi ))2 , g C([a, b])).
i=0
3.4. APPLICATION AU CAS CONTINU 39

Posons k (x) = xk , k = 0, . . . , n. Dans la base canonique de Pn , la meilleure approximation au sens


des moindres carrs P de f s'crit

P (x) = a0 + a1 x + . . . + an xn ,

o (a0 , a1 , . . . , an ) est l'unique solution du systme matriciel :



N N N
a0 N

i xni
P P P P
i i xi i f (xi )
i=0 i=0 i=0 i=0


P N N N
n+1 a1
N
i x2i
P P P

x
i i i xi
i xi f (xi )

i=0 i=0 i=0 i=0
.. .. .. . ..

.. = .
. . . .


.. .. .. .. ..


. . . . .


N N N
PN

i xni i xn+1 2n
i xni f (xi )
P P P
i xi
i=0 i=0
i
i=0 an i=0

3.4 Application au cas continu


Soient E = C([a, b]) muni du produit scalaire
Z b
< g, h >= (x) g(x)h(x) dx g, h E o est une fonction poids.
a

: [a, b] R+ s'annule un nombre ni de fois sur [a, b]. En pratique, on prend 1.
La norme associe ce produit scalaire est dnie par :

N
! 12
X
kgk = (x) (g(x))2 , g C([a, b])).
i=0

Posons k (x) = xk , k = 0, . . . , n. Dans la base canonique de Pn , la meilleure approximation au sens


des moindres carrs P , d'une fonction f E, s'crit

P (x) = a0 + a1 x + . . . + an xn ,

o (a0 , a1 , . . . , an ) est l'unique solution du systme matriciel :


Rb Rb Rb
(x) dx (x) x dx (x) xn dx Rb
a a a
a0 (x) f (x) dx

a
R
b (x) x dx Rb
(x) x2 dx
Rb
a (x) xn+1 dx Rb
a
..
a
.. ..
a1
a
(x) x f (x) dx
.. ..

. . . = .
.

.. .. ..
.
. . . .. ..


. .

Rb Rb Rb
n n+1
(x) x dx a (x) x x dx (x) x2n dx
an
Rb
a a
a
(x) xn f (x) dx
40 CHAPITRE 3. APPROXIMATION AU SENS DES MOINDRES CARRS

3.5 Exercices
Exercice 3.1.
1. Soient les points x0 = 1, x1 = 12 , x2 = 0, x3 = 12 , x4 = 1.

Trouver le polynme P P2 qui ralise le minimum suivant :

4
X 1
min (|xi | P (xi ))2
P P2
i=0
1 + x2i

o P2 est l'ensemble des polynmes de deg 2.


Exercice 3.2. 4
P
Soient f (x) = |x| et < g, h >= g(xi )h(xi ), g, h C([1, 1], R) o
i=0

1 1
x0 = 1, x1 = , x2 = 0, x3 = et x4 = 1.
2 2
1. Dterminer le polynme P de P2 qui ralise la meilleure approximation de f au sens des moindres
carrs.

2. Vrier que Q(x) = 73 x2 43 x4 est le polynme d'interpolation de f aux points xi , i = 0, 4.


3. Dans un mme repre, tracer les graphes de f, P et Q sur [1, 1]. Commenter.

Exercice 3.3. On considre l'ensemble E = C([1, 1]) muni du produit scalaire


Z 1
< f, g >= f (x)g(x) dx.
1

Soit P1 l'ensemble des polynmes de degr 1 et f E.


1. Trouver en fonction de f, le polynme P1 (x) = a + bx qui ralise la meilleure approximation au
sens des moindres carrs de f dans P1 .
2. Montrer que P1 peut se mettre sous la forme :
Z 1
1
P1 (x) = (1 + 3xt)f (t) dt.
2 1

3. Trouver P1 pour f (x) = x3 2x. Tracer les graphes de f et P1 .


4. Evaluer l'erreur et faire sa reprsentation graphique.

Exercice 3.4. On cherche le polynme P2 (x) = a0 + a1 x + a2 x2 qui minimise l'expression


Z 1
dx
(f (x) P2 (x))2
1 1 x2
1. On considre les polynmes orthogonaux, donns par la relation

T0 (x) = 1, T1 (x) = x, Tn+1 = 2xTn (x) Tn1 , n 1;


CalculerT2 , T3 , T4 .
3 4
2. On prend f (x) = 2x + x .
Dterminer P2 dans la base {T1 , T2 , T3 } et dduire les valeurs de a0 , a1 et a2 .
3. Evaluer l'erreur commise.
Chapitre 4
Intgration numrique

4.1 Position du problme


On veut valuer l'intgrale d'une fonction f sur un intervalle [a, b]. Si l'on connait sa primitive
F, alors
Z b
f (x) dx = F (b) F (a) o F 0 = f.
a
Mais dans de nombreux cas, F ne peut pas tre connue.
Rb
Exemple 4.1.
Rb Rb 2 Rb
: a
sin x
x
dx, a
ex dx, a
1 k sin x dx, a
1
dx.
1sin(x)

La plupart des fonctions qui interviennent dans les problmes physiques sont des fonctions soit
trop compliques pour tre intgres, soit seulement donnes par une table de valeurs. Nous cherchons
donc une valeur approche l'aide de sommes nies, qu'on appellera une formule de quadrature :
Z b n
X
I(f ) = f (x) dx ' In (f ) = i f (xi ),
a i=0

o les xi , i = 0, . . . , n sont appels points d'intgration et les i, i = 0, . . . , n poids de la formule


de quadrature.

Dnition 4.1. Une formule de quadrature est dite exacte sur un ensemble V si

f V, R(f ) = I(f ) In (f ) = 0.

Dnition 4.2. Une formule de quadrature est dite de degr de prcision n si elle est exacte pour
xk , k = 0, . . . , n et non exacte pour xn+1 .

41
42 CHAPITRE 4. INTGRATION NUMRIQUE

4.2 Formules de Newton-Ctes


4.2.1 Mthode des trapzes
Rb
Pour valuer numriquement I(f ) =
a
f (x)dx, on divise l'intervalle born [a, b] en n parties
[x0 , x1 ], [x1 , x2 ], ..., [xn1 , xn ] de mme longueur h = ba
n
et on considre les points d'intgration

x0 = a, x1 = x0 + h, ..., xi = x0 + ih (i = 0, n), xn = b.

Si n = 1, x0 = a, x1 = b, on obtient

b
(b a)
Z
f (x)dx ' (f (a) + f (b)).
a 2

C'est la formule simple des trapzes sur l'intervalle [a, b].


L'aire I(f ) [a, b] et le graphe de f peut
comprise entre tre approche par la somme des aires des n
trapzes induits par les points x0 , x1 , ..., xn .
Sur chaque intervalle [xi, xi+1], 0 i n 1 :
xi+1
(xi+1 xi )
Z
f (x)dx ' (f (xi ) + f (xi+1 )).
xi 2

Donc
Rb R x1 R x2 R b=xn
I(f ) = a
f (x)dx = a=x0
f (x)dx + x1
f (x)dx + . . . + xn1
f (x)dx
n1
PR xi+1
= xi
f (x)dx
i=0
n1
h
P
' 2
(f (xi ) + f (xi+1 ))
i=0
h
= 2
(f (x0 ) + 2f (x1 ) + 2f (x2 ) + ... + 2f (xn1 ) + f (xn )).
D'o
" n1
#
Z b
h X
In (f ) = f (x)dx ' f (a) + 2 f (xi ) + f (b) .
a 2 i=1

C'est la formule des trapze composite sur l'intervalle [a, b].


4.2. FORMULES DE NEWTON-CTES 43

Exemple 4.2. 2
Soit f (x) = x , a = 0, b = 1, on prend n = 3 subdivisions.
ba 1 1 2
Donc h = n = 3 , x0 = a = 0, x1 = 3 , x2 = 3 , x3 = b = 1 avec
y0 = f (x0 ) = 0, y1 = f (x1 ) = 9 , y2 = f (x2 ) = 49 et y3 = f (x3 ) = 1.
1

Z 1
h 19
I(f ) = x2 dx ' I3 (f ) = (y0 + 2y1 + 2y2 + y3 ) = ' 0, 351
0 2 54

Erreur d'approximation : I(f ) =


R1 1
0
x2 dx = 3
' 0, 333, d'o,

|0,3510,333|
l'erreur relative ' 0,333
= 5, 4%.

Par contre, si n = 6, l'erreur relative ' 1, 5%.


On remarque numriquement que l'erreur a t divise-approximativement-par 4 lorsque n a dou-
bl (de n=3 n = 6), l'erreur dpend donc de h.

Recherche de l'erreur d'approximation si f C 2([a, b])


Rappel 1 : Si g : [0, a] R drivable sur ]0, a[, alors on peut crire :
Z a
g(a) = g(0) + g 0 (t) dt.
0

Rappel 2 : (le thorme de la moyenne) Soit f, g : [a, b] R continues, si g a un signe constant


sur [a, b], alors [a, b] tel que :

Z b Z b
f (t)g(t) dt = f () g(t) dt.
a a

Rappel 3 : (thorme des valeurs intermdiaires) Soit f : [a, b] R continue de max M et


min m. Alors, y [m, M ], x [a, b]/f (x) = y.
Posons " #
Z b n1
h X
R = I(f ) In (f ) = f (x) dx f (x0 ) + 2 f (xi ) + f (xn )
a 2 i=1
ba
avec xi = x0 + ih (h = n
) i = 0, 1, . . . , n.
Considrons d'abord R1 l'erreur commise sur le 1er l'intervalle [x0 , x1 ]
Z x1 Z x0 +h
h h
R1 = f (x) dx (f (x0 ) + f (x1 )) = f (x) dx (f (x0 ) + f (x0 + h)),
x0 2 x0 2

f tant donne, on remarque que R1 dpend seulement de h, donc R1 = R1 (h).


Drivons R1 une fois on obtient

1 h
R10 (h) = (f (x0 + h) f (x0 )) f 0 (x0 + h).
2 2
0
Notons, en passant, que R1 (0) = R1 (0) = 0.
0 2
Drivons R1 , ceci est permis car f C ([a, b]), on aura

h
R100 (h) = f 00 (x0 + h).
2
44 CHAPITRE 4. INTGRATION NUMRIQUE

Du rappel 1, on a
Z h Z h
t 00
R10 (h) = R10 (0) + R100 (t) dt = f (x0 + t) dt,
0 0 2

et du rappel 2, pour g(t) = t 0 t [0, h], [0, h] et donc 1 [x0 , x0 + h] :
h
f 00 (1 )
Z
R10 (h) = t dt,
2 0

2
alors R10 (h) = h4 f 00 (1 ) avec 1 [x0 , x1 ], mais (du rappel 1) :

h h
f 00 (1 ) h3 00
Z Z
R1 (h) = R1 (0) + R10 (t) dt = t2 dt = f (1 ),
0 4 0 12

R1 (h) est l'erreur d'approximation sur l'intervalle [x0 , x1 ], auquel appartient 1 .


D'o l'erreur totale :

n
X h3 00
R(h) = Ri (h) = (f (1 ) + f 00 (2 ) + ... + f 00 (n )) o i [xi , xi+1 ], i = 0, n 1.
i=1
12

Rcrivons R(h), en mulipliant et divisant par n :

n
f 00 (i )
P
n
X nh3 i=1 nh3
R(h) = = = .m
i=1
12 n 12

o m est la moyenne arithmtique des f 00 (i ) i = 1, ..., n. Comme i [a, b] i = 0, n 1 et f 00 est


continue sur [a, b]; alors d'aprs le thorme des valeurs intermdiaires, [a, b] :
m = f 00 (); d'o :
nh3 00 nh3
R(h) = .f () |R(h)| M2
12 12
(ba)
o M2 = max |f 00 ()|. Comme h= n
, on obtient nalement
t[a,b]

(b a)3
|R(h)| M2 .
12n2
Ceci implique que la formule des trapzes est exacte si f est un polynme de degr infrieur ou gal
1.
De plus, cette formule est de degr de prcision gal 1. En eet ;
2
pour f (x) = x , n = 1, x0 = a, x1 = b, on a

b b
x3

ba 2 ba 2
Z
2
a + b2 + ab 6= I1 (f ) = a + b2 .
 
I(f ) = x dx = =
a 3 a 3 2

Remarque 4.1. Cette borne d'erreur conrme notre observation sur l'exemple donn prcdemment ;
en eet si n est doubl, l'erreur est alors divise par 4 (approximativement ! !). Mais le cumul d'erreurs
d'arrondi (des au calcul numrique) fait que l'on n'atteint pas la valeur exacte de I(f ) lorsque n est
de plus en plus grand.

Exercice 4.1. (exercice d'illustration) Reprendre l'exercice prcdent avec un nombre des points
(xi , yi ) i = 0, . . . , n, de plus en plus grand et observer la convergence de In (f ) vers I(f ).
4.2. FORMULES DE NEWTON-CTES 45

4.2.2 Mthode de Simpson


Dans le cadre de cette mthode, on interpole chaque trois points (xi , yi ), (xi+1 , yi+1 ), (xi+2 , yi+2 )
par un polynme de degr infrieur ou gal 2. Comme trois points induisent deux subdivisions, le
nombre n de subdivisions doit tre pris pair (n = 2m).
On peut prendre le polynme d'interpolation de Lagrange ou celui de Newton. Considrons le polynme
d'interpolation de Newton qui passe par les points (x0 , y0 ), (x1 , y1 ) et (x2 , y2 ), notons le P2 (x). Il
s'crit sous la forme :

y1 y0 y2 2y1 + y0
P2 (x) = y0 + (x x0 ) + (x x0 )(x x1 ).
h 2h2
Donc comme f (x) ' P2 (x) x [x0 , x2 ], on a
Z x2 Z x2
h
f (x) dx ' P2 (x) dx = (y0 + 4y1 + y2 ).
x0 x0 3
1
C'est la premire formule de Simpson simple sur l'intervalle [x0 , x2 ]. D'o

Rb R x2 R x4 R b=x2m
a
f (x) dx = a=x0
f (x) dx + x2
f (x) dx + . . . + x2m2
f (x) dx

h
' (y
3 0
+ 4y1 + y2 ) + h3 (y2 + 4y3 + y4 ) + ... + h3 (y2m2 + 4y2m1 + y2m )

h
= 3
[y0 + y2m=n + 2(y2 + y4 + ... + y2m2 ) + 4(y1 + y3 + y2m1 )]

h
P P
= [y
3 0
+ yn + 2 yi + 4 yi ].
i pair i impair

Donc,
!
b
ba
Z
h X X
I(f ) = f (x) dx ' In (f ) = y0 + yn=2m + 2 yi + 4 yi o h=
a 3 i pair i impair
n

C'est la premire de Simpson composite sur l'intervalle [a, b].


Application l'exemple prcdent, avec n=4:
f (x) = x2 , a = 0, b = 1, h = 1/4, d'aprs la formule de Simpson
Z 1  
h 1 5 1 1
f (x) dx ' I4 (f ) = (y0 + y4 + 2y2 + 4(y1 + y3 )) = 0+1+ + = = I(f ) ?!
0 3 12 2 2 3

Recherche de l'erreur d'approximation si f C 4([a, b])


En suivant une dmarche quasi-analogue au cas de la mthode des trapzes, on tire que :

n h5 (4)
[a, b], R(h) = I(f ) In (f ) = f (). (4.1)
180
Par consequent,

(b a)5
|R(h)| = |I(f ) In (f )| M4 , o M4 = max |f (4) (t)|.
180n4 t[a,b]

1 Thomas Simpson, anglais, 1710-1761


46 CHAPITRE 4. INTGRATION NUMRIQUE

Ceci implique que la formule de Simpson est exacte si f est un polynme de degr infrieur ou gal
3. De plus, cette formule est de degr de prcision gal 3. En eet ;
4 a+b
pour f (x) = x , n = 2, x0 = a, x1 = 2 et x2 = b :

b b
x5

ba 4
Z
4
b + ab3 + a2 b2 + a3 b + a4 ,

I(f ) = x dx = =
a 5 a 5

alors que

 4 !
ba a+b ba
a4 + 4 + b4 5b4 + 4ab3 + 6a2 b2 + 4a3 b + 5a4 .

I2 (f ) = =
6 2 24

On voit clairement que I(f ) 6= I2 (f ).

Remarque 4.2. Si n a doubl, l'erreur est divise par 16 (approximativement), donc la prsente
mthode est plus performante que celle des trapzes.

Exercice 4.2. Notons par R1 = R1 (h) l'erreur commise sur la subdivision [x0 , x2 ] ou encore sur
[x1 h, x1 + h] :
Z x1 +h
h
R1 (h) = f (x) dx (f (x1 h) + 4f (x1 ) + +f (x1 + h)) .
x1 h 3

En utilisant, les rappels 1, 2 et 3, dmontrer l'ingalit (4.1).

Proposition 4.1. 2
Le degr de prcision des formules de Newton-Ctes (n+1) points est


n, si n est impair ;
n + 1, si n est pair.

L'erreur dans les formules de Newton-Ctes (n + 1) points est en


hn+2 , si n est impair ; ba
o h=
hn+3 , si n est pair, n

Remarque 4.3. 1. On peut dmonter que si le degr de prcision est p alors l'erreur est en hp+2
et rciproquement. Comme le degr de prcision est facile valuer, il est possible d'avoir une
ide de l'erreur.

2. On peut construire des formules de Newton-Ctes qui ne comportent pas les bornes d'intgration
comme points de la formule de quadrature.
sin x
Par exemple, pour intgrer la fonction x entre 0 et 1 on peut utiliser :

La formule du point milieu : ab f (x) dx ' (b a)f a+b


R 
2
.
La formule variante des trapzes : a f (x) dx ' (ba)
Rb  ba
 ba

2
f a + 3
+ f b 3
.
La formule variante de Simpson : a f (x) dx ' (ba)
Rb  a+5b
 ba
 5a+b

8
3f 6
+ 2f 2
+ 3f 6
.
2 Roger Ctes, anglais, 1682-1716
4.3. FORMULES DE GAUSS 47

4.3 Formules de Gauss


On se pose la question suivante : comment choisir au mieux les points d'intgration xi pour que
la formule de quadrature soit de degr de prcision le plus lev possible ? Le problme revient donc
(n)
trouver la fois les poids i , i = 0, . . . , n et les points xi , i = 0, . . . , n de la formule de quadrature :

Z b n
X (n)
f (x) dx ' i f (xi ).
a i=0

On a donc 2n + 2 inconnues dterminer !


On cherche alors une formule de quadrature exacte sur P2n+1 , ce qui donne les 2n + 2 quations :

Z b n
X
k (n)
x dx = i xki , k = 0, . . . , 2n + 1.
a i=0

Remarque 4.4. Le degr de prcision de la formule propose peut-il tre 2n + 2?


La rponse est non. En eet ; soit le polynme de degr 2n + 2,
Q(x) = (x x0 )2 (x x1 )2 . . . (x xn )2 .
Rb
Ce polynme est strictement positif (si x 6= xi , i = 0, . . . , n) donc a Q(x) dx > 0,
n
P (n)
alors que i Q(xi ) = 0.
i=0

Thorme 4.1. 3
Les formules de type Gauss sont stables et convergentes pour toute fonction conti-
nue.

Remarque 4.5. 1. Stable signie les poids intervenant dans la formule de quadrature sont stric-
tement positifs.
n Rb
P (n)
2. Convergente signie lim i f (xi ) = a
f (x) dx.
n+ i=0

3. Les formules de type Gauss sont souvent utiles pour les intgrales impropres convergentes.

Exemple 4.3. Soit la formule de quadrature 2 points :


Z 1
f (x) dx = 0 f (x0 ) + 1 f (x1 ) + R(f ).
1

Dterminons les poids 0 , 1 et les points d'intgration x0 et x1 pour que la formule propose soit
exacte sur P3 . Les quatre quations sont les suivantes :
R1
f 1, R(f ) = 0 1 1 dx = 2 = 0 + 1 ,
R1
f (x) = x, R(f ) = 0 1 x dx = 0 = 0 x0 + 1 x1 ,
R1
f (x) = x2 , R(f ) = 0 1 x dx2 = 32 = 0 x20 + 1 x21 ,
R1
f (x) = x3 , R(f ) = 0 1 x dx = 0 = 0 x30 + 1 x31 .

D'o, 
0 x0 = 1 x1 ,
0 x1 (x21 x20 ) = 0.
De la dernire quation on tire :

3 Carl Friedrich Gauss, allemand, 1777-1855


48 CHAPITRE 4. INTGRATION NUMRIQUE

 soit 1 = 0, 0 = 2 et x0 = 0 ce qui est impossible puisque 0 x20 + 1 x21 = 32 ,


 soit x1 = 0, 0 = 0 ou x0 = 0 ce qui est impossible,
 soit x1 = x0 et dans ce cas, on obtient 0 = 1 = 1 et x20 = 13
D'o la formule de quadrature :

Z 1
1 1
f (x) dx = f ( ) + f ( ) + R(f ).
1 3 3

Remarque 4.6. Il existe des formules de type Gauss o les extrmits de l'intervalle sont des points
d'intgration :

Formule de Gauss-Radau de degr de prcision 2 :


Z 1
1 3 1
f (x) dx = f (1) + f ( ) + R(f ).
1 2 2 3

Formule de Gauss-Labatto de degr de prcision 3 :


Z 1
1 4 1
f (x) dx = f (1) + f (0) + f (1) + R(f ).
1 3 3 3

Formule de Gauss-Labatto de degr de prcision 5 :


Z 1
1 5 1 5 1 1
f (x) dx = f (1) + f ( ) + f ( ) + f (1) + R(f ).
1 6 6 5 6 5 6

4.4 Complment du cours


Exercice :

On se donne une fonction continue f : [a, b] [c, d] R. Approcher par la mthode des trapzes

Z bZ d
I(f ) = f (x, y) dy dx.
a c

Solution :

Supposons que I(f ) peut tre crit sous la forme

Z b Z d 
I(f ) = f (x, y) dy dx.
a c

Rd
Posons g(x) = c
f (x, y) dy et divisons, par analogie au cas d'une seule variable, l'intervalle [a, b]
en n parties gales et l'intervalle [c, d] en m parties gales. Ceci induit deux pas de discrtisation
h = ba
n
dc
et k = m , alors

n1
!
Z b
h X
I(f ) = g(x) dx ' g(a) + 2 g(xi ) + g(b) . (4.2)
a 2 i=1
4.5. CONCLUSION 49
Rd
D'autre part, on applique la formule des trapzes pour approcher g(x) = c
f (x, y) dy avec x constante
et y variable, on obtient

m1
!
k X
g(x) ' f (x, c) + 2 f (x, yj ) + f (x, d) . (4.3)
2 j=1

En substituant (4.3) dans (4.2), on aura

m1
h k
P
I(f ) ' [ (f (a, c)
2 2
+2 f (a, yj ) + f (a, d))
j=1
n1 m1
k
P P
+2 2
(f (xi , c) +2 f (xi , yj ) + f (xi , d))
i=1 j=1
m1
+ k2 (f (b, c) + 2
P
f (b, yj ) + f (b, d))]
j=1
m1 m1
hk
P P
= 4
[f (a, c) + f (a, d) + f (b, c) + f (b, d) + 2( f (a, yj ) + f (b, yj ))
j=1 j=1
n1
P n1
P n1
P m1
P
+2( f (xi , c) + f (xi , d)) + 4 i j f (xi , yj )]
i=1 i=1 i=1 j=1
n P
P m
= i j f (xi , yj )
i=0 j=0

o
xi = a + ih, xn = b i = 0, n, yj = c + jk, ym = d j = 0, m

hk
00 = n0 = m0 = nm = 4

hk
0j = nj = i0 = im = 2
, i = 1, n 1 j = 1, m 1

ij = hk, i = 1, n 1 j = 1, m 1
Remarque 4.7. Ce procd peut tre adapt au calcul numrique d'intgrales triples ou multiples.

4.5 Conclusion
1. Les formules des trapzes et de Simpson sont les plus utilises et souvent sous leurs formes
composites.

2. Les formules de Gauss sont nanmoins plus prcises et peuvent de la mme faon tre composes.

3. L'intgration numrique est aussi trs utile pour calculer numriquement des intgrales doubles :

Z bZ d
f (x, y) dx dy.
a c
50 CHAPITRE 4. INTGRATION NUMRIQUE

4.6 Exercices
Exercice 4.3. Calculer Arctg(3) par les mthodes d'intgration des trapzes et de Simpson pour
n=6.
Rx
Indication : Arctg(x) = dt
1+t2

0

Exercice 4.4. On lance une fuse verticalement du sol et l'on mesure pendant les premires 80
secondes l'accleration :

t (en s) 0 10 20 30 40 50 60 70 80
(en m/s2 ) 30 31.63 33.44 35.47 37.75 40.33 43.29 46.70 50.67

Calculer la vitesse V de la fuse l'instant t = 80s, par la mthode des trapzes puis par Simpson.

Exercice 4.5.
1. Dterminer le nombre de subdivisions ncessaires de l'intervalle d'intgration [, ] pour va-
3
luer 0.5 10 prs, par la mthode de Simpson, l'intgrale
Z
cosx dx

2. Dterminer le nombre de subdivisions ncessaires des intervalles d'intgration pour valuer


0, 5 106 prs, par la mthode des trapzes les intgrales :
Z 1 Z 1
dx dx
i) , ii)
0 1 + ex 0 1 + sin x

Exercice 4.6.
1. Construire un polynme P qui passe par les points (0, 0), (1, 0) et (1, 2).
R1
2. Prendre n subdivisions sur [0, 1] et approcher 0
P (x) dx par la mthode :

a) Des trapzes (n = 3); valuer ensuite l'erreur relative commise.

b) De Simpson (n = 30).
Exercice 4.7. Soit f une fonction continue donne sur l'intervalle [1, 1]. Notons par P le polynme
de degr deux qui interpole f en les points 1, 0 et 1.
R1
1. Exprimer 1 P (t) dt en fonction de f (1), f (0) et f (1).
2. Vrier que l'expression obtenue concide avec une formule d'intgration numrique dont on
donnera le nom et la valeur du pas de discrtisation.

Exercice 4.8. f une fonction relle continue et dnie sur l'intervalle [a, b]. On pose h =
Soit
ba
n
pour n = 3, x0 = a, x3 = b, xi = x0 + ih (i = 0, 3). On considre la formule de quadrature :
Z b
I(f ) = f (t) dt ' f (x1 ) + f (x2 ).
a

1. Dterminer les deux coecients et sachant que la mthode est exacte sur P1 .
2. Gnraliser l'criture prcdente au cas o n = 3m.
3. Evaluer l'erreur relative commise en utilisant cette mthode pour approcher I( ln(x)
x
) sur [1, 2] en
prenant n=3 subdivisions.
4.6. EXERCICES 51

Exercice 4.9. Soit la formule d'intgration numrique suivante :

Z 1  
1 2
f (x) dx = af (0) + bf ( ) + cf ( ) + df (1) + R(f ).
0 3 3
1. Dterminer a, b, c et d de sorte que R(f ) = 0 quelle que soit f appartenant l'espace vectoriel
des polynmes de degr infrieur ou gal 3.

2. Trouver p le degr de prcision de la formule propose.

3. En admettant que l'erreur d'approximation soit de la forme :

R(f ) = Kf (p+1) (), [0, 1],

dterminer la constante K.

Exercice 4.10.
1. Dterminer le polynme d'interpolation de Lagrange P d'une fonction f construite sur les
points :
1 1
1, , , 1.
3 3
2. Par intgration du polynme obtenu, en dduire la formule d'intgration approche suivante :

Z 1
1 3 1 3 1 1
f (x) dx f (1) + f ( ) + f ( ) + f (1).
1 4 4 3 4 3 4

3. En dduire la formule d'intgration approche sur l'intervalle [a, b].

a+b ba
Indication : utiliser le changement de variable y= 2
+ 2
x
4. Application : Calculer, l'aide de la formule de quadrature propose, les intgrales

Z 1 Z 3
x
e dx, ex dx.
1 5

Calculer l' erreur commise dans chaque cas.

Exercice 4.11. (Mthode du point mileu)


Soit f : [a, b] R une fonction continue. An d'approcher son intgrale sur[a, b] en (n = 2m)
parties gales de longueur h. On pose x0 = a, xn = b xi = x0 + ih, yi = f (xi ) (i = 0, n).
R xi+2
La mthode propose consiste remplacer, pour (i = 0, 2, 4, ..., n 2), l'intgrale x f (x) dx par
i
l'aire du rectangle de cts f (xi+1 ) et (xi+2 xi ).

1. Trouver les (n + 1) coecients rels (ai = ai (h)) tels que

Z b n
X
I= f (x) dx ' ai yi = V (h)
a i=0

2. Si f est susamment continment drivable, dterminer l'expression de l'erreur d'intgration


R(h) = I V (h)
3. Dans quel(s)cas la mthode est-elle exacte ?

4. Trouver lim R(h) quand h tend vers 0.


52 CHAPITRE 4. INTGRATION NUMRIQUE

5. Quel est le nombre minimal de subdivisions eectuer sur l'intervalle [1, 2] pour que l'erreur
1 4
absolue commise sur l'intgrale de f (x) = x ne dpasse pas 2 10 .

Exercice 4.12. (Mthode des rctangles)


R b
On considre lintgrale f (x)dx. On se donne une subdivision x0 , x1 , . . . , xn de l'intervalle [a, b] tel
a
ba
que xi = a + ih o h = n . Dans la mthode des rectangles, on remplace la fonction f par une
fonction constante par morceaux. Soit g la fonction dnie par

g(x) = f (xi ) pour x [xi , xi+1 ].


Rb n1
P
1. Posons S= a
g(x)dx. Montrer que S=h f (a + ih).
i=0
2. On suppose que la fonction f est continue sur lintervalle [a, b] et continment drivable sur
lintervalle ouvert ]a, b[. On pose
Z +h
(h) = f (x)dx hf () o a < + h b.

h2 0
Montrer quil existe un nombre c ]0, h[ tel que (h) = 2 f (c + ).
0
3. On suppose que |f (x)| k, x [a, b]. Montrer que
b
(b a)2
Z
| f (x)dx S| k
a 2n
Exercice 4.13. Soit
1
f C ([0, 1], R). On considre la formule de quadrature
Z 1
f (x) dx 0 f (0) + 1 f 0 (0) + 2 f (c)
0
o c ]0, 1] i R, i = 0, 1, 2.
et
1. Calculer 0 , 1 , 2 et c sachant que la formule de quadrature soit exacte pour tout polynme de
degr 3.
2. Construire partir de cette formule de quadrature sur [0, 1] une formule de quadrature sur [a, b].
3. On subdivise [a, b] en n parties gales de longeur h. Gnraliser la formule de quadrature obtenue
sur [a, b]
R1
4. Application numrique. f (x) = ex . Calculer 0
ex dx par la formule de quadrature. Estimer son
erreur.

Exercice 4.14. Soient a et h deux rels donns, h > 0. On pose


Z a+h
E(f ) = f (x)dx hf (a) hf (a + h).
a
1. Dterminer les valeurs de , et de sorte que l'on ait

p P2 , E(p) = 0.
2. Supposons que = 14 , = 43 , = 23 .
3. Trouver l'ordre de prcision de la mthode propose.
a) 3
Montrer que pour toute fonction f C (R) il existe ]0, 1[ tel que

E(f ) = K h4 f (3) (a + h) o K est une constante indpendante de f


Indication : on pourra considrer l'application R : [0, h] R dnie par :
R(h) = E(f ) et on remarque que R(0) = R0 (0) = 0.
b) 3
Calculer K puis l'erreur relative commise lorsque f (x) = (x a) .
Chapitre 5
Drivation numrique

5.1 Position du problme


Comme pour l'intgrale, on voudrait tre en mesure d'valuer numriquement la drive d'une
fonction lourde manipuler ou qui n'est connue que en un certain nombre de points. Ce problme
de drivation numrique est trs commun en ingnierie et en analyse numrique (c'est la base des
mthodes de dirences nies).
On considre une fonction f : [a, b] R de classe susamment leve, x ]a, b[ x.
On veut approcher (au mieux !) les drives de la fonction f au point x.
Or
f (x + h) f (x)
f 0 (x) = lim ,
h0 h
avec h>0 (petit), on obtient
f (x + h) f (x)
f 0 (x) '
h
0
Nous constatons que cette approximation de f (x) fait intervenir la valeur de f en x et x + h, ce
0 00 (n)
qui nous conduit approcher les nombres f (x), f (x), . . . , f (x) en utilisant un ensemble discret
de points.
Une des mthodes les plus anciennes utilises pour obtenir des formules de drivation numrique
1
consiste construire des quotients direntiels l'aide des dveloppements de Taylor .

5.2 Approximation de la drive premire


Fixons h>0 (petit) et introduisons les notations :

h f (x) = f (x + h) f (x),
h f (x) = f (x) f (x h),
2h f (x) = f (x + h) f (x h).

5.2.1 Formules deux points


Eectuons un premier dveloppement de Taylor d'ordre 1 de f autour de x:

h2 00
f (x + h) = f (x) + hf 0 (x) + f (), [x, x + h].
2
1 Brook Taylor, anglais, 1685-1731

53
54 CHAPITRE 5. DRIVATION NUMRIQUE

On obtient

f (x+h)f (x) f (x)


DFP)

f 0 (x) ' fhd


0
(x) = h
= h
, c'est la formule de dirences nies progressives (

E = h2 f 00 (), [x, x + h] c'est l'erreur commise

Eectuons un deuxime dveloppement de Taylor d'ordre 1 de f autour de x:

h2 00
f (x h) = f (x) hf 0 (x) + f (), [x h, x].
2
On obtient

f (x)f (xh) f (x)


DFR),

f 0 (x) ' fhg
0
(x) = h
= h
, c'est la formule de dirences nies rgressive (

E = h2 f 00 (), [x h, x]

c'est l'erreur commise.

Les formules obtenues sont donc deux approximations d'ordre 1 de la drive premire et l'erreur
chaque fois tend vers 0 quand h tend vers 0.
Augmentons l'ordre du dveloppement de Taylor de f autour de x:
h2 00 h3 000
f (x + h) = f (x) + hf 0 (x) + 2
f (x) + 6
f (1 ), 1 [x, x + h],

h2 00 h3 000
f (x h) = f (x) hf 0 (x) + 2
f (x) 6
f (2 ), 2 [x h, x].

En soustrayant membre membre, on obtient

h3 000
f (x + h) f (x h) = 2hf 0 (x) + (f (1 ) + f 000 (2 )).
6
Ce qui donne

f (x+h)f (xh) 2h f (x)


DFC),
0 0
f (x) ' fhc (x) = 2h
= 2h
, c'est la formule de dirences nies centres (
2 2
E = h12 (f 000 (1 ) + f 000 (2 )) = h6 (f 000 (), [x h, x + h],

c'est l'erreur commise.

La formule centre (symtrique) est une formule d'approximation d'ordre 2 et donc plus prcise
que les deux premires formules, mme si elle ncessite la connaissance de f au mme nombre de
points. Il faut cependant noter que les points utiliss sont disposs symtriquement par rapport celui
o l'on calcule la drive.

Remarque 5.1. Supposons que l'intervalle [a, b] est dcoup en N intervalles, on pose h = ba et on
les points de grille xi de sorte que xi = a + ih, i = 0, . . . , N. Supposons
N
introduit que f est connue
uniquement en les points de grille xi . Alors pour approcher f 0 (xi ), i = 0, . . . , N :
1. La formule de dirences nies progressive donne :

f (xi+1 ) f (xi )
f 0 (xi ) ' fhd
0
(xi ) = , i = 0, . . . , N 1. (5.1)
h
On remarque que la relation (5.1) n'est pas dnie pour i = N, on perd donc le dernier point de
0
grille quand on utilise cette relation pour approcher f (xi ).
5.2. APPROXIMATION DE LA DRIVE PREMIRE 55

2. La formule de dirences nies rgressive donne :

f (xi ) f (xi1 )
f 0 (xi ) ' fhg
0
(xi ) = , i = 1, . . . , N. (5.2)
h
On remarque que la relation (5.2)
n'est pas dnie pour i = 0, on perd donc le premier point de
0
grille quand on utilise cette relation pour approcher f (xi ).

3. La formule de dirences nies centres donne :

f (xi+1 ) f (xi1 )
f 0 (xi ) ' fhc
0
(xi ) = , i = 1, . . . , N 1. (5.3)
2h
On remarque que la relation (5.3) n'est pas dnie pour i=0 et i = N, on perd donc le premier
et le dernier point de grille quand on utilise cette relation pour approcher f 0 (xi ). Constatons
aussi que
0 0
0
fhg (xi ) + fhd (xi )
fhc (xi ) = , i = 1, . . . , N 1.
2
Exemple 5.1. Pour illustrer les trois formules prcdentes, considrons la fonction
x 7 f (x) = 2x ,; x [1, 5] passant par les points (x0 , y0 ) = (1, 2), (x1 , y1 ) = (2, 4), (x2 , y2 ) =
(3, 8), (x3 , y3 ) = (4, 16) et (x4 , y4 ) = (5, 32).
0
Nous voulons approcher le nombre f (x2 ) :
f (x3 )f (x2 )
1. La formule de DFP : f 0 (x2 ) ' fhd
0
(x2 ) = h
= y3 y2 = 8.
0 0 f (x2 )f (x1 )
2. La formule de DFR :f (x2 ) ' fhg (x2 ) = h
= y2 y1 = 4.
f (x3 )f (x1 )
3. La formule de DFC :f
0 0
(x2 ) ' fhc
2h
(x2 ) == y3 y
2
1
= 6.
0 x
Evaluons les erreurs d'approximation sachant que f (x) = ln 2 2 , x [1, 5] :

E1 = |f 0 (x2 ) fhd
0
(x2 )| = |8 ln 2 8| ' 2, 454.
0 0
E2 = |f (x2 ) fhg (x2 )| = |8 ln 2 4| ' 1, 545.
E3 = |f 0 (x2 ) fhc
0
(x2 )| = |8 ln 2 6| ' 0, 454.

D'o, la meilleure formule pour approcher f 0 (3) est celle de DFC.

5.2.2 Formules trois points


Il est possible de dvelopper d'autres formules, pour cela il sut d'eectuer un dveloppement de
Taylor de f autour de x avec un pas 2h par exemple :

4h3 000
f (x + 2h) = f (x) + 2hf 0 (x) + 2h2 f 00 (x) + f (1 ), 1 [x, x + 2h].
3

h2 00 h3
f (x + h) = f (x) + hf 0 (x) + f (x) + f 000 (2 ), 2 [x, x + h].
2 6
En combinant ces deux quations de faon faire disparatre la drive seconde, on obtient

4f (x+h)3f (x)f (x+2h)


0
fhd (x) = 2h
est une approximation de la drive premire de f en x;

h2 00
[x, x + 2h]

E = 3
f (), c'est l'erreur commise.
56 CHAPITRE 5. DRIVATION NUMRIQUE

5.2.3 Approximation de la drive seconde


Pour obtenir une approximation de la drive seconde, nous procdons de la mme faon, mais
partir de dveloppements de Taylor d'ordre 4 :

0h2 00 h3 000 h4 (4)


f (x + h) = f (x) + hf (x) + f (x) + f (x) + f (1 ), 1 [x, x + h].
2 6 24
h2 00 h3 h4
f (x h) = f (x) hf 0 (x) + f (x) f 000 (x) + f (4) (2 ), 2 [x h, x].
2 6 24
Aprs addition, on obtient

2 f (x)
h
00 f (x+h)2f (x)+f (xh)
fhd (x) = h2
= h2
est une approximation de la drive seconde de f en x;
2
E = h12 f (4) (), [x h, x + h]

c'est l'erreur commise.

Cette formule est donc d'ordre 2 (le terme d'erreur tend vers 0 quand h tend vers 0) et est trs
importante dans la pratique.

5.2.4 Approximation des drives d'ordre suprieur


On peut videmment gnraliser cette approche et dterminer des approximations des drives
d'ordre suprieur.
h f h f
On a dja vu que h
, h et 2h
2h
f
approximent la drive premire de f (en x) avec une prcision
2
proportionnelle h, h et h respectivement. Ces trois oprateurs sont linaires par rapport f et
sont appels oprateurs aux dirences nies
. Pour n N , on peut gnraliser ces concepts
d'oprateurs pour approximer la drive d'ordre n de f en un point x ]a, b[. Pour cela, on va dnir
rcursivement :

nh f (x) = h (n1 n n1 n n1
h f )(x), h f (x) = h (h f )(x), h f (x) = h (h f )(x).

De manire analogue au cas o n = 1, on peut montrer que

nh f nh f hn f
, et
hn hn hn
(n)
sont des approximations de f (en x) avec une erreur proportionnelle h, h et h2 , respectivement,
n+1 n+1 n+2
ds que f est de classe C , C et C , respectivement.

Remarque 5.2. La drivation numrique est une opration trs instable, c'est dire trs sensible
aux erreurs d'arrondi (soustraction entre termes voisins). Prenons par exemple

f (x + h) f (x h)
f 0 (x) = + O(h2 ),
2h
o f (x h) = f (x h) e1 et f (x + h) = f (x + h) e2 , alors

f (x + h) f (x h) e2 + e1
f 0 (x) = + O(h2 ).
2h 2h
Si le pas h est trop rduit il y'aura beaucoup d'erreurs d'arrondi.
5.3. EXERCICES 57

5.3 Exercices
Exercice :
Soit f : [a, b] R une fonction de classe au moins C 5 sur l'intervalle [a, b]. On se xe un
nombre (h > 0) "petit" ainsi qu'un point quelconque x ]a, b[. Soit le rapport
f (x + 3h) 3f (x + h) + 3f (x h) f (x 3h)
A=
8h3
1. Montrer que le rapport A approche une drive de f que l'on dterminera. Donner l'ordre de
prcision de cette approximation.

2. Vrier que A concide avec une formule de drivation numrique que l'on donnera.

Solution :
1. Eectuons les dveloppements de Taylor de f au voisinage de x jusqu' l'ordre 4 avec un reste
5
en O(h ) :

h2 00 h3 000 h4 (4)
f (x + h) = f (x) + hf 0 (x) + 2
f (x) + 6
f (x) + 24
f (x) + O(h5 ), (1)

h2 00 h3 000 h4 (4)
f (x h) = f (x) hf 0 (x) + 2
f (x) 6
f (x) + 24
f (x) + O(h5 ), (2)

9h2 00 9h3 000 9h4 (4)


f (x + 3h) = f (x) + 3hf 0 (x) + 2
f (x) + 2
f (x) + 8
f (x) + O(h5 ), (3)

9h2 00 9h3 000 9h4 (4)


f (x 3h) = f (x) 3hf 0 (x) + 2
f (x) 2
f (x) + 8
f (x) + O(h5 ). (4)
Le numrateur du rapport A s'crit alors :

(3) 3 (1) + 3 (2) (4) = 8h3 f 000 (x) + O(h5 ).

Autrement dit, A = f 000 (x) + O(h2 ).


D'o, A approxime la drive troisime de f en x, avec une erreur en O(h2 ).
2. On a 3 f (x) = f (x + 3h) 3f (x + h) + 3f (x h) f (x 3h). Alors

3
2h f (x)
A=
(2h)3
D'o, le rapport R n'est autre que la formule des dirences nies centres (symtriques) d'ordre
000 3 f (x) 2
3 qui approxime f (x) par 2h (2h)3
avec une erreur en O(h ).

Exercice :
Soit f : [a, b] R une fonction de classe au moins C 6 sur l'intervalle [a, b]. On se xe un
nombre (h > 0) "petit" ainsi qu'un point quelconque x ]a, b[.
1. Montrer que le rapport

2f (x + 2h) + 32f (x + h) 60f (x) + 32f (x h) 2f (x 2h)


B=
24h2
approche une drive de f que l'on dterminera. Donner l'ordre de prcision de cette approxi-
mation.

2. Commenter les rsultats obtenus.


58 CHAPITRE 5. DRIVATION NUMRIQUE

Solution :
1. Eectuons les dveloppements de Taylor de f au voisinage de x jusqu' l'ordre 5 avec un reste
6
en O(h ) :

h2 00 h3 000 h4 (4) h5 (5)


f (x + h) = f (x) + hf 0 (x) + 2
f (x) + 6
f (x) + 24
f (x) + 120
f (x) + O(h6 ), (1)

h2 00 h3 000 h4 (4) h5 (5)


f (x h) = f (x) hf 0 (x) + 2
f (x) 6
f (x) + 24
f (x) 120
f (x) + O(h6 ), (2)

4h3 000 2h4 (4) 4h5 (5)


f (x + 2h) = f (x) + 2hf 0 (x) + 2h2 f 00 (x) + 3
f (x) + 3
f (x) + 15
f (x) + O(h6 ), (3)

4h3 000 2h4 (4) 4h5 (5)


f (x 2h) = f (x) 2hf 0 (x) + 2h2 f 00 (x) 3
f (x) + 3
f (x) 15
f (x) + O(h6 ). (4)
Le numrateur du rapport B s'crit alors :

32 [(1) + (2)] 2 [(3) + (4)] 60f (x) = 24h2 f 00 (x) + O(h6 ).


Autrement dit, B = f 00 (x) + O(h4 ).
4
D'o, B
approxime la drive seconde de f en x, avec une erreur en O(h ).
n
f fn n
h f 00
2. Rappelons que hhn , hhn et (h) n approximent f en x avec une erreur proportionnelle h, h et
2
h (respectivement). Donc le rapport B est beaucoup plus prcis.
Exercice :
Soit f : [a, b] R une fonction de classe au moins C 6 sur l'intervalle [a, b]. On se xe un
nombre (h > 0) "petit" ainsi qu'un point quelconque x ]a, b[.
1. Montrer que le rapport

f (x + 2h) 4f (x + h) + 6f (x) 4f (x h) + f (x 2h)


C=
h4
approche une drive de f que l'on dterminera. Donner l'ordre de prcision de cette approxi-
mation.
Solution :

1. Eectuons les dveloppements de Taylor de f au voisinage de x jusqu' l'ordre 5 avec un reste


6
en O(h ) :

h2 00 h3 000 h4 (4) h5 (5)


f (x + h) = f (x) + hf 0 (x) + 2
f (x) + 6
f (x) + 24
f (x) + 120
f (x) + O(h6 ), (1)

h2 00 h3 000 h4 (4) h5 (5)


f (x h) = f (x) hf 0 (x) + 2
f (x) 6
f (x) + 24
f (x) 120
f (x) + O(h6 ), (2)

4h3 000 2h4 (4) 4h5 (5)


f (x + 2h) = f (x) + 2hf 0 (x) + 2h2 f 00 (x) + 3
f (x) + 3
f (x) + 15
f (x) + O(h6 ), (3)

4h3 000 2h4 (4) 4h5 (5)


f (x 2h) = f (x) 2hf 0 (x) + 2h2 f 00 (x) 3
f (x) + 3
f (x) 15
f (x) + O(h6 ). (4)
En combinant ces quatre quations, on obtient

[(3) + (4)] 4 [(1) + (2)] + 6f (x) = h4 f (4) (x) + O(h6 ).


Donc, C = f (4) (x) + O(h2 ).
D'o, C est une approximation de la drive seconde de f en x, avec une prcision en O(h2 ).
Deuxime partie
Analyse Numrique II

59
Chapitre 6
Rsolution des systmes linaires

6.1 Position du problme


On appelle systme linaire d'ordre n, (n N ), une expression de la forme

AX = b, (6.1)

o A = (aij ), 1 i, j n, dsigne une matrice carre d'ordre n de nombres rels ou complexes,


b = (bi ), 1 i n, un vecteur colonne rel ou complexe et X = (xi ), 1 i n, est le vecteur des
inconnues du systme. La relation (6.1) quivaut aux quations

n
X
aij xj = bi , i = 1, . . . , n.
j=1

La matrice A est dite rgulire (inversible) si det(A) 6= 0; on a existence et unicit de la solution X


si et seulement si la matrice A est inversible.
On cherche rsoudre le systme linaire (6.1).
Thoriquement, si A est inversible, la solution du systme AX = b est donne par la formule de
1
Cramer :
det(Ai )
xi = , i = 1, . . . , n,
det(A)
o Ai est une matrice obtenue partir de A en remplaant la iieme colonne de A par le vecteur b.
Cependant l'application de cette formule est inacceptable pour la rsolution pratique des systmes,
car son cot (ou nombre d'oprations) est en O((n + 1)!). Par exemple, sur un ordinateur eectuant
109 oprations par seconde il faudrait au moins 1047 annes pour rsoudre un systme linaire de
seulement 50 quations.
Il faut donc dvelopper des algorithmes alternatifs avec un cot raisonnable. Ce problme est un
des plus importants de l'analyse numrique.
Dans les sections suivantes plusieurs mthodes sont analyses. Ces mthodes se divisent en deux
catgories :

a) Mthodes directes : Ce sont des mthodes qui permettent d'obtenir la solution X de (6.1),
si l'ordinateur faisait des calculs exacts, en un nombre ni (en relation avec n) d'oprations
lmentaires.

b) Mthodes itratives : Ce sont des mthodes qui consistent construire une suite de vecteurs
(n)
X convergeant vers la solution X.
1 Gabriel Cramer, 1704-1752

61
62 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

Dans toute la suite de ce chapitre, on suppose que A est une matrice inversible de Mn (R),
o Mn (R) est l'ensemble des matrices carre d'ordre n coecients rels.

Remarque 6.1. Le fait que les coecients de A soient rels n'est pas restrictif. En eet ; supposons
que l'on veut rsoudre (6.1) dans C, c'est--dire

(A + iB)(X + iY ) = b + ic, o A, B Mn (R) and X, Y, a, b Rn .


On peut le rcrire sous la forme :
    
A B X b
=
B A Y c
ou encore
A0 X 0 = b 0 (6.2)
avec (6.2) est un systme rel de (2n) quations (2n) inconnues.

6.2 Mthodes directes


6.2.1 Systmes particuliers
Systme diagonal
SoitA = (aij )1i,jn o aij = 0, si i 6= j et aii 6= 0 i = 1, n.
t t
Posons X = (x1 , x2 , ...., xn ) et b = (b1 , b2 , ....., bn ) . Alors


a11 x1 = b1
a22 x2 = b2





. bi
AX = b = xi = , i = 1, n,

. aii
.




ann xn = bn

bi
donc la solution est X = (x1 , x2 , ...., xn )t o xi = avec i = 1, n.
Cot : n divisions.
aii

Systme triangulaire suprieur


Soit A = (aij )1i,jn o aij = 0 si i>j et aii 6= 0 i = 1, n. Alors


a11 x1 + a12 x2 + ... + a1n x1 = b1


a22 x2 + ... + a2n xn = b2
.. ..

AX = b . .
.. ..
.

.




ann xn = bn
donc le systme AX = b se rsout par la mthode ascendante, c'est--dire on trouve d'abord xn puis
xn1 , ..., puis x1 ; d'o les relations :
xn = abnn



n
,

n
1
P
xi =


aii
(bi aij xj ), i = n 1, ..., 1.
j=i+1
6.2. MTHODES DIRECTES 63

Cot : n(n1)
2
additions (ou soustractions)+
n(n1)
2
2
multiplications+n divisions=n oprations ; en
eet :
 Le nombre de divisions tant vident.
 Pour calculer xi (i = 1, ..., n), on fait (n i) additions et (n i) multiplications, d'o

n
X n(n + 1) n(n 1)
cot (+) = cot () = (n i) = n2 =
i=1
2 2

Systme triangulaire infrieur


Soit A = (aij )1i,jn o aij = 0 si i<j et aii 6= 0 i = 1, n. Alors



a11 x1 = b1
a 21 x1 + a22 x2 = b2



. .. ..
AX = b .
.. ..
.

.




an1 x1 + an2 x2 + ... + ann xn = bn

donc le systme AX = b se rsout par la mthode descendante, c'est--dire on trouve d'abord x1 puis
x2 , ..., puis xn ; d'o les relations :

b1

x1 = a11
,

i1
1
P
xi = (bi aij xj ), i = 2, . . . , n.


aii
j=1

Cot : n(n1)
2
additions (ou soustractions),
n(n1)
2
multiplications et n divisions.

Remarque 6.2. Les cots des trois mthodes prcdentes sont valables (point de vue calcul sur
machine) pour n pas assez grand ( 100), on s'eorcera donc -dans toute la suite concernant la
catgorie des mthodes directes- de transformer la matrice A du systme AX = b an de nous
ramener au cas triangulaire (le plus souvent) et mme au cas diagonal.

6.2.2 Mthode d'limination de Gauss


Comme les systmes triangulaires sont faciles et conomiques rsoudre, l'objectif est de trans-
former tout systme linaire en systme triangulaire quivalent. Bien que cette mthode soit parmi les
plus anciennes qui ont t proposes pour rsoudre les systmes linaires elle reste encore actuellement
la plus utilise ; en particulier son algorithme est d'exploitation aise sur micro-ordinateur.

Principe de la mthode :
Dterminer une matrice M inversible telle que la matrice MA soit triangulaire suprieure. Alors

AX = b (M A)X = M b,

ensuite rsoudre le systme triangulaire suprieur (M A)X = M b par l'algorithme de remonte.


64 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

Remarque 6.3. En pratique on ne calcule pas M d'une faon explicite, mais par des transforma-
tions quivalentes on ramne le systme de dpart en un systme matrice triangulaire suprieure.
Autrement dit
transformation
(A, b) (A(n) , b(n) ),
o A(n) est une matrice triangulaire suprieure, puis on rsout le systme triangulaire.

A(n) X = b(n) .

Algorithme d'limination de Gauss :


On pose A(1) = A et b(1) = b

..
(1)
(1)
a11
(1)
a12
(1)
a1n .
(1)
b1 L1
..
L(1)
  (1) (1) (1) (1) 2
. a21 a22 a2n . b2

.
A(1) .. b(1) = ..

.. .. .. .. ..
. . . . .


(1) (1) (1) .. (1)
an1 an2 ann . bn Ln
(1)

A la 1ere tape : Si
(1)
a11 6= 0 (sinon on fait une permutation de lignes) on fait les aectations
suivantes : (2) (1)
L1 L1

(1)
L(2) L(1) i1 L(1) ai1
i1 = , 2 i n.

i i 1 o (1)
a11

On obtient donc

..
(2)
(2)
a11
(2)
a12
(2)
a1n .
(2)
b1 L1
..
L(2)
  (2) (2) (2) 2
. 0 a22 a2n . b2

.
A(2) .. b(2) = . .. .. .. .. ..
.. . . . .


(2) (2) .. (2)
0 an2 ann . bn Ln
(2)

o (2) (1) (2) (2)



a1j = a1j , 1 j n; b1 = b1 ;




(2)
ai1 = 0, 2 i n;

(2) (1) (1)





aij = aij i1 a1j , 2 i, j n;



(2)
(1) (1)
bi = bi i1 b1 , 2 i n.
Remarque 6.4. Si on pose

1
21
..
. 0

E (1) = 31 1


0
. ..

.. .
n1 1

on aura A(2) = E (1) .A(1) .


6.2. MTHODES DIRECTES 65

A la kieme tape (1 k n 1) : Si
(k)
akk 6= 0 (sinon on fait une permutation de lignes) on fait les
aectations suivantes :


(k+1) (k)
Li

Li , 1 i k;
(k)
aik
L(k+1) (k) (k)
Li ik Lk ik = , k + 1 i n.


i o (k)
akk

On obtient donc

..

(k) (k) (k) (k) (k+1)
a11 a12 a1n . b1
L1

..
(k+1)
(k) (k) (k) L
0
a22 a2n . b2 2
. .. .. ..
.

0 . .
 . .

. ..

. .. ..
A(k+1) .. b(k+1) = .. .
(k)

(k) (k)
akk akn . bk .
..

.

. ..

. (k+1) (k+1) (k+1) ..
. 0 ak+1,k+1 ak+1,n . bk+1

.
.
.. .. .. .. ..
. . . .


.. (k+1)
0 0
(k+1)
an,k+1
(k+1)
an,n .
(k+1)
bn Ln

o
(k+1) (k)


aij = aij , 1 j n;


1 i k;
(k+1) (k)

bi = bi ,








(k+1)
aij = 0, 1 j k, k + 1 i n;




(k+1) (k) (k)
aij = aij ik akj , k + 1 j n;




k + 1 i n.




b(k+1) = b(k) b(k)


i i ik k

Remarque 6.5. Si on pose


1


..
. 0

1


k+1,k
(k)

E =
0 ..


k+2,k .


..
0

.
nk 1

on aura A(k+1) = E (k) .A(k) , 1 k n 1.


En ritrant (n 1) fois l'opration on obtient :

AX = b A(n) X = b(n)
66 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

avec
(1) (1) (1) (n)

a11 a12 a1n b1
(2) (2) b(n)

a22 a2n 2
.. .. .
.
A(n) =
. . , b(n) =
.
0 ..
.. ..
. . .
(n) (n)
ann bn
A(n) tant une matrice triangulaire suprieure.

Remarque 6.6. 1. Pour A(1) = A on a trouv que

A(k+1) = E (k) .A(k) = E (k) .E (k1) .A(k1) = E (k) .E (k1) E (1) .A(1) .

Alors
A(n) = |E (n1) .E (n2) (1)
{z E } .A = M A.
(k)
2. Les akk , k = 1, n sont appels "pivots de la mthode de Gauss".

3. La mthode de Gauss permet de calculer det(A) par

n
Y
j (i)
det(A) = (1) aii o j est le nombre de permutations .
i=1

k ime
(k) (k)
4. Si la tape akk = 0, alors il existe p, k + 1 p n tel que apk 6= 0, car

(k) (k)

kk akn
a

det(A) = a11 a22 ak1,k1 ... ..
(1) (2) (k1)
6= 0.

.
(k) (k)

a
nk ann

(k)
5. Au cours de la triangularisation, si l'on trouve que l'un des pivots akk = 0, on permute la ligne
ieme (k)
du pivot avec une ligne suprieure Lp , k + 1 p n dont l'lment de la k colonne apk est
non nul.

6. La mthode de Gauss sans permutation de lignes s'appelle "Gauss ordinaire".

Exemple 6.1.

2 5 1 2 5 3 2 5 3
A = 1 3 1 , A(2) = 0 0 1 , A(3) = A(2) = 0 6 12
3 4 2 0 6 12 0 0 1

Cot de la mthode d'limination de Gauss ordinaire


   
. .
Pour passer de A(k) .. b (k)
A(k+1) .. b (k+1)
on utilise

(1)
(k+1) (k) aik (k)
aij

= aij (k) akj , k + 1 j n;
akk

k + 1 i n.
(1)
aik
b(k+1) (k)
= bi
(k)


i (k) bk
akk
6.2. MTHODES DIRECTES 67

Alors chaque tape k, 1 k n1 on a (nk+1)(nk) additions (soustractions), (nk+1)(nk)


multiplications et (n k) divisions, donc
n1 n1
(n k) = 23 n3 + 21 n2 67 n.
P P
Cot total = 2 (n k + 1)(n k) +
k=1 k=1
n
Rappel : 2 n
P
k = 6
(n+1)(2n+1). D'o, le cot total de la mthode de Gauss (limination+rsolution
i=1
2 3
d'un systme triangulaire) est 3 n + 12 n2 76 n + n2 = O( 23 n3 ) car pour n grand, n2 est ngligeable
3
devant n .

6.2.3 Problme pos par la (quasi) annulation des pivots


Exemple 6.2. Soit  un petit nombre rel et considrons le systme linaire :

x1 + x2 = 1,
(S )
x1 + x2 = 2.

Rsolvons d'abord le systme (S ) par la mthode de Gauss ordinaire (sans permutations).

.. ..
! !
    (1)
.  1 . 1 .  1 . 1 L1
A(1) .. b(1) = .. , A(2) .. b(2) = .. (1) (1)
1 1 . 2 (1)
a11 = 0 1 1
. 2 1 L2 1 L1 .
 

On a donc immdiatement la valeur de x2 : x2 = 12


1
.
1
Par substitution, on obtient x1 : x1 = 1 .
Pour  = 0, on trouve x1 = x2 = 1.
9 9 9 9 9 9
Pour  = 10 , o 10 est la prcision de la machine, on trouve 1 10 10 et 2 10 10
sur la machine, d'o x2 = 1 et x1 = 0 qui n'est pas la solution du systme donn !
Si par contre, on permute les lignes 1 et 2, on obtient :

..
  !
. 1 1 . 2
A(2) .. b(2) = .. ,
0 1 109 . 1 2.109

or 1 109 1 et 1 2.109 1 sur la machine, d'o x2 = 1 et x1 = 1 qui est la solution du systme


donn.

Conclusion : Il ne faut pas utiliser des pivots trop petits car les erreurs d'arrondi peuvent
donner des solutions fausses. Un moyen de contourner le problme d'un pivot nul ou presque est
d'utiliser la technique de pivotage. Il existe deux stratgies de pivotage :

Pivotage partiel : k ieme


tape (1 k n 1) d'limination de Gauss le pivot partiel est
la
(k) (k)
choisi parmi les coecients (aik )kin tel que sa valeur absolue soit la plus grande, soit ai k cet
  0

(k) (k)
lment |ai0 k | = max ( aik ) . On permute ensuite si (i0 6= k) la k ieme ligne et la ligne (i0 ).
kin

Pivotage total : k ieme tape (1 k n 1) d'limination de Gauss le pivot total est choisi
la
(k) (k)
parmi les coecients (aij )ki,jn tel que sa valeur absolue soit la plus grande, soit ai0 j0 cet
 
(k) (k)
lment |ai0 j0 | = max ( aij ) puis on fait les permutations des lignes et des colonnes cor-
ki,jn
respondantes. Catte technique n'est utilise que dans de rares cas pratiques.
Attention A chaque permutation de colonnes les inconnues changent de places.
68 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

Remarque 6.7.
1. La mthode de Gauss n'est jamais programme sans au moins une stratgie de pivot partiel.

2. Les pivots petits ne disparaissent pas, ils sont juste rejets la n de l'algorithme o leur
inuence est moins grande.

6.2.4 Mthode de la dcomposition LU


Principe de la mthode :
1. Dcomposition de la matrice A de faon la mettre sous la forme A = LU o L est une matrice
triangulaire infrieure unitaire et U est une matrice triangulaire suprieure.

2. Rsolution : Le systme AX = b devient


LY = b
AX = b LU X
|{z} UX = Y
Y

donc la rsolution du systme AX = b revient la rsolution de deux systmes triangulaires.

Thorme 6.1. Soit A une matrice telle que les sous matrices principales A[k] = (aij )1i,jk de
A soient inversibles pour tous 1 k n, alors il existe une matrice L = (lij )1i,jn triangulaire
infrieure telle que lii = 1, i = 1, n et une matrice triangulaire suprieure U telle que A = LU.
De plus cette dcomposition est unique.

Dmonstration. Existence : Montrons que tous les pivots d'limination de Gauss sont non nuls,
(k)
c'est dire akk 6= 0 pour 1 k n 1. On le dmontre par rcurrence.
(1) (1)
Le premier pivot a11 est forcment non nul car a11 = det(A[1] ) 6= 0.
(k) (r)
Supposons que akk 6= 0 pour 1 k r 1 et montrons que arr 6= 0.
(1) (2) (r1) (r)
On a det(A[r] ) = a11 a22 . . . ar1,r1 arr . Or d'une part, par hypothse det(A[r] ) est dirent de
(k) (r)
zro et d'autre part, par hypothse de rcurrence akk 6= 0 pour 1 k r 1. Donc arr est
aussi dirent de zro.
Unicit : Soit A = L1 U1 = L2 U2 , d'o U1 U21 = L1
1 L2 = D.
Comme U1 U2 est une matrice triangulaire suprieure et L1
1
1 L2 est une matrice triangulaire
infrieure et D a des 1 sur la diagonale, alors D = In ce qui implique que U1 = U2 et L1 = L2 .

Dtermination des matrices L et U


a) En utilisant l'algorithme d'limination de Gauss ordinaire : Au premier pas d'limina-
tion de Gauss, on trouve


1
21
..
. 0

A(2) = E (1) .A(1) o E (1) = 31 1


0
. ..

.. .
n1 1
6.2. MTHODES DIRECTES 69

Au deuxime pas, on trouve



1
0 1 0
..

..
. 32 .

(3) (2) (2) (2)

A =E .A o E =
... 0 ..

.

42
. ..
.

. .
0 n2 1
de la mme manire au k -ime pas d'limination, on obtient

1


..
. 0

1


k+1,k
(k+1) (k) (k) (k)

A =E .A o E =
0 ..


k+2,k .


..
0

.
nk 1
ce qui nous donne
A(n) = E (n1) .A(n1)
= E (n1) .E (n2) .A(n2)
= E (n1) .E (n2) . . . E (1) .A.
Posons U = A(n) et L1 = E (n1) .E (n2) E (1)
alors U = L1 A d'o A = LU o
1
L = E (n1) .E (n2) . . . E (2) .E (1)
1 1 1
= E (1) . E (2) . . . E (n1)

1
21 1 0
.

= 31 32 . .


. .. .. ..

.. . . .
n1 n2 n,n1 1
et
(1) (1) (1)

a11 a12 a1n
(2) (2)

a22 a2n
.. ..
U = A(n) =
. .

0 .. ..

. .
(n)
ann
b) En appliquant l'algorithme de la mthode :
En connaissant A = (aij )1i,jn , on crit l'galit A = LU
a11 a1j a1n u11 u12 u1n

1
..
.
..
.
..
.
l21 1 0 u22 u2n
. .. ..

..
ai1 aij ain = l31 . .


0
. .. .. ... .. .. . ..

.. . . . . .. .
an1 an2 ann ln1 ln,n1 1 unn
70 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

n(n+1) n(n1)
(U contient 2
lments et L contient 2
lments). Par identication on obtient un
2 2
systme linaire de n quations n inconnues. En rsolvant le systme obtenu dans des cas
particuliers (n = 2, 3, 4), on constate que la dtermination des lments de L et U cherchs se
fait suivant l'algorithme gnral :


lii = 1, 1 i n;




u1j = a1j , 1 j n;







ai1

li1 = , 2 i n;


u11

m1
P
u = a lmk .ukj , m j n;


mj mj




k=1
2 m n.



 


m1
P
lim = aim lik .ukm /umm , m + 1 i n;




k=1

Cot de la mthode
n
(m 1)(n m + 1) = O( 61 n3 )
P
 Calcul de U: cot()=cot(+)=
m=1
n1
(m 1)(n m) = O( 16 n3 )
P
 Calcul de L: cot()=cot(+)=
m=1
n
P n(n1)
et cot(/)= (n m) = 2
.
m=1
D'o, cot total = O( 23 n3 )=cot de Gauss.

Utilit de la dtermination LU
Calcul de dterminant Grce la factorisation LU, on peut calculer le dterminant d'une matrice
carre avec O( 23 n3 ) oprations, vu que

n
Y
det(A) = det(L) det(U ) = det(U ) = ukk .
k=1

Rsolution : Supposons qu'on veut rsoudre le systme AX = b. Dcomposons A


LU, sous forme
alors AX = b devient (LU )X = b ou encore L(U X) = b. Posons Y = U X, on
cherche alors Y
tel que LY = b est un systme triangulaire infrieur qu'on rsout par la mthode descendante. Y
tant trouv, on cherche X tel que U X = Y est un systme triangulaire suprieur qu'on rsout
par la mthode ascendante.
Cot total : cot(dcomposition LU)+cot(rsolution de deux systmes triangulaires), c'est
dire, Cot total=O( 32 n3 ) + 2n2 = O( 23 n3 ).
Calcul de l'inverse d'une matrice : Soit A une matrice carre inversible d'ordre n,
(1) (n) 1 1
notons par v , . . . , v les colonnes de sa matrice inverse A , i.e. A = (v (1) , . . . , v (n) ).
1
La relation A.A = In se traduit par les n systmes linaires suivants :
Av (k) = e(k) , 1 k n, (6.3)
o e(k)
est le vecteur colonne ayant toutes les composantes nulles sauf la kime composonte
(k)
qui est 1, e = (0, . . . , 1, . . . , 0)t . Une fois connues les matrices L et U qui dcomposent la
matrice A, rsoudre les n systmes (6.3) gouverns par la mme matrice A.
6.2. MTHODES DIRECTES 71

Exemple 6.3. Soit le systme linaire suivant



2 5 1 x1 12
1 3 1 x2 = 8
3 4 2 x3 16

A l'aide de la dcomposition LU de A:
1. Rsoudre le systme donn en dterminant les matrices L et U :

a) En utilisant l'algorithme d'limination de Gauss ordinaire.

b) En appliquant l'algorithme de la mthode.

2. Calculer l'inverse de A.

6.2.5 Mthode de Cholesky


Dans le cas d'une matrice A symtrique dnie positive, il est possible de rsoudre le systme
AX = b avec un nombre d'oprations gal presque la moitie du nombre d'oprations utilises dans
la mthode de Gauss.

Dnition 6.1. Une matrice A Mn (R) est dite dnie positive si et ssi X t AX > 0, X
Rn {0Rn }.
   
1 2 x1
Exemple 6.4. Soient A=
2 8
et X=
x2
R2 . On a

  
t 1 2 x1
X AX = (x1 , x2 ) = (x1 + 2x2 )2 + 4x22 > 0 X R2 {(0, 0)}.
2 8 x2

Dnition 6.2. A Mn (R) est dite dnie positive si et ssi toute sous-matrice principale
A[k] = (aij )1i,jk , k = 1, n de A est de dterminant strictement positif.

Thorme 6.2. Si A
est une matrice symtrique et dnie positive alors, il existe (au moins) une
t
matrice triangulaire infrieure R telle que A = RR .
De plus, si on impose que les lments diagonaux de R soient tous positifs, alors cette dcomposition
est unique.

Dmonstration. On a A dnie positive assure l'existence de la dcomposition LU de A o L =


(lij )1i,jn est une matrice triangulaire infrieure unitaire et U = (uij )1i,jn est une matrice trian-
gulaire suprieure (car toute sous-matrice principale A[k] ), k = 1, n de A est de dterminant non
nul).
k
Remarquons que det(A[k] ) = ujj , k = 1, 2, ..., n ce qui implique que uii > 0, i = 1, n.
Q
j=1
1
Soit D et D les matrices diagonales dnies par
2

1
D = diag(u11 , u22 , ..., unn ), D 2 = diag( u11 , u22 , ..., unn )
 1 1
alors D 2 = diag( u111 , u122 , ..., u1nn ). D'une part, on a

1 1
A = LU = LIn U = LD 2 (D 2 )1 U
72 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

Posons
1
R = (rij )1i,jn = LD 2 , matrice triangulaire infrieure avec rii = uii
1
H = (hij )1i,jn = (D 2 )1 U, matrice triangulaire suprieure avec hii = uii ,
alors
A = RH.
D'autre part, on a A est symtrique, alors
A = At
RH = H t Rt
1 1
H (Rt ) = (R)1 H t ( multiplions les deux cts gauche par (R)1 et droite par (Rt ) )
1 1
= H (Rt ) = In et (R)1 H t = In (H (Rt ) est M.T.S. et (R)1 H t est M.T.I. )
= H = Rt .

Algorithme de Cholesky2
Son principe est le suivant : on crit la matrice A sous la forme RRt o R = (rij )1i,jn , rij = 0
si j > i, ensuite on identie colonne aprs colonne on aura
Premire colonne : (j
= 1)

2
a11 = = r11 = a11 ( si on impose que r11 > 0)
r11
ai1 = ri1 r11 = ri1 = ra11
i1
, 2 i n.
Deuxime colonne : (j = 2)p
2 2 2
a22 = r21 + r22 = r22 = a22 r21 ( si on impose que r22 > 0)
1
ai2 = ri1 r21 + ri2 r22 = ri2 = r22 (ai2 ri1 ri2 ), 3 i n.
Ainsi on a construit l'algorithme suivant :


r11 = a11 ;



ri1 = ra11





i1
, 2 i n;




pour 2 j n



s

j1
P 2
r = a rjk ;



jj jj


k=1




j1

 
1
P
aij rik rjk , j + 1 i n.

rij = r

jj
k=1

Cot de la mthode
n
P n(n1)
n extractions de racines carrs, (n j) = 2
(divisions),
j=1
n
O( 13 n3 ) (cot() et cot(+))
P
2 (j 1)(n j) =
j=1
n
(j 1) = O( 21 n2 )
P
(cot() et cot(+) dans les racines carrs).
j=1
Cot total=O( 31 n3) la moiti de celui de Gauss.
2 Andr Louis Cholesky, franais, 1875-1918
6.2. MTHODES DIRECTES 73

Conclusion :
On peut utiliser la dcomposition RRt d'une matrice A symtrique dnie positive pour rsoudre
le systme linaire AX = b ou pour inverser A, de la mme manire que pour la dcomposition (LU).

n
Remarque 6.8. A = RRt det(A) = (det(R))2 = rii2 .
Q
1. Si o R = (rij )1i,jn alors,
i=1

2. La dcomposition A = RRt n'est pas unique si on n'impose pas que rii > 0, i = 1, 2, . . . , n.
j1
2 2
P
3. Pour une matrice dnie positive on a : rjj = ajj rjk > 0, donc, si a une tape de calcul
k=1
2
on trouve que rjj < 0, la matrice A n'est pas dnie positive.

6.2.6 Mthode de Gauss-Jordan


Principe de la mthode :
1. Transformation de la matrice A en la matrice identit :

transformation
(A, b) (In , b(n) ),

o In est la matrice identit dans Mn (R).


2. Rsolution du systme :

AX = b In X = b(n) X = b(n) .

Algorithme de Gauss-Jordan :
On pose A(1) = A et b(1) = b

..
(1)
(1)
a11
(1)
a12
(1)
a1n .
(1)
b1 L1
..
L(1)
  (1) (1) (1) (1) 2
. a21 a22 a2n . b2

..
A(1) .. b(1) =

.. .. .. .. .. .
. . . . .


(1) (1) (1) .. (1)
an1 an2 ann . bn Ln
(1)

A la 1ere tape : Si
(1)
a11 6= 0 (sinon on fait une permutation de lignes) on fait les aectations
suivantes : (2)
1 (1)
L1
(1)
a11
L1

(2) (1) (1) (2)



Li Li ai1 L1 2 i n.

On obtient

..
(2)
1 a12 a1n
(2) (2)
. b1
(2) L1
 ..
L(2)
 (2) (2) (2) 2
. 0 a a2n . b2

..
A(2) .. b(2) = . 22.. .. .. .. .
.. . . . .


(2) (2) .. (2)
0 an2 ann . bn Ln
(2)
74 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

o (1) (2)
(2) a (2) b1

a1j = 1j (1) , 1 j n; b1 = (1) ;

a11 a11




a(2) = 0, 2 i n;


i1

(2) (1) (1) (2)



aij = aij ai1 a1j , 2 i, j n;




(2) (1) (1) (2)
bi = bi ai1 b1 , 2 i n.

A la kieme tape (1 k n) : Si
(k)
akk 6= 0 (sinon on fait une permutation de lignes) on fait les
aectations suivantes :
(k+1) (k)
1
Li (k) L ,
akk i

(k+1) (k) (k) (k+1)



Li Li aik Lk i = 1, n, i 6= k.

On obtient donc
..
(k+1)
1 0 0
(k+1)
a1,k+1
(k+1)
a1,n .
(k+1)
b1 L1
.. .. .. .. ..
L(k+1)
(k+1) 2
. 1 . . . . b2
..
.. .. (k+1) (k+1) .. .
  . 0 . 0 ak1,k+1 ak1,n .
..
(k+1) .. (k+1) .

.. .. (k+1) (k+1) .. ..
A .b =

. . 1 ak,k+1 akn . . ..
.. .. .. .

(k+1) (k+1)
. 0 ak+1,k+1 ak+1,n . .

..
.. .. .. .. ..
.
. . . . .


(k+1) (k+1) .. (k+1) (k+1)
0 0 an,k+1 an,n . bn Ln
o (k)
(k+1) akj
akj = ;


(k)
akk


k + 1 j n;







a(k+1) = a(k) a(k) a(k+1) ,

i = 1, n, i 6= k,
ij ij ik kj

(k)
(k+1) bk
bk =


(k)
akk








b(k+1) = b(k) a(k) b(k+1) i = 1, n, i 6= k.

i i ik k

Remarque 6.9. 1. Pour rsoudre un systme d'ordre n, la mthode de Gauss Jordan ncessite
3
O(n ) oprations (moins rapide que celle de Gauss).

2. Elle est conseille pour inverser une matrice.

transformation
(A, In ) (In , A1 ).

6.3 Mthodes itratives


Quand n est assez grand les mthodes directes ne sont plus envisageables vu le nombre trs grand
d'oprations eectuer qui engendre la propagation des erreurs d'arrondi. On a alors recours
6.3. MTHODES ITRATIVES 75

(0)
aux mthodes itratives qui consistent gnrer - partir d'un vecteur initial X choisi dans
n (n) (n+1)
R - une suite (X )nN telle que : X = F (X ) et lim X = X; o F : R Rn est
(n) (n) n
n+
un oprateur li la mthode.

Principe des mthodes itratives :


Ecrivons d'abord la matrice A sous la forme A=M N o M est inversible, alors

AX = b (M N )X = b
M X = N X + b.

Multiplions les deux cts par M 1 , on aura

X = M 1 N X + M 1 b.

Le principe de toutes les mthodes itratives est le suivant :


(0)
 choisir un vecteur X Rn ,
 gnrer la suite (X
(k)
)kN telle que X (k+1) = M 1 N X (k) + M 1 b,
 si la suite (X
(k)
)kN converge vers X , alors X est la solution du systme AX = b.
Remarque 6.10. 1. Le critre d'arrt se fait, en gnral, sur l'erreur relative de deux itrs
(k) (k+1)
successifs X et X , c'est dire
 
kX (k+1) X (k) k
Test
kX (k+1) k
<
o  choisi petit, ou sur l'erreur absolue si kX (k+1) k est trs petite.
2. La mthode itrative est dite convergente si : X
(0)
Rn , X (k) X quand k + o
X est la solution du systme AX = b.

6.3.1 Matrice d'itration et les conditions de convergence


On appelle, pour M et N choisies, matrice d'itration la matrice B = M 1 N.

Condition ncessaire de convergence


Notons par E (k) = X (k) X le vecteur erreur l'tape k (k N), on a

X = B X + M 1 b (1)
X (k) = B X (k1) + M 1 b, (2)

en soustrayant (1) de (2), on aura

X (k) X = B(X (k1) X ) = B E (k1) .

Alors
E (k) = B E (k1) = B 2 E (k2) = = B k E (0) o E (0) = X (0) X ,
ou encore
X (k) X = B k (X (0) X ).
La mthode converge si X (0) , lim X (k) = X , ce qui est vraie si
k+

lim B k = 0 (0 au sens matriciel).


k+
76 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

Condition ncessaire et susante de convergence


Soit (B) = max{||/ valeur propre de B} le rayon spectral de B. On a le thorme suivant :

Thorme 6.3. La suite (X (k)


)kN dnie par
 (0)
X Rn quelconque
X (k+1) = B X (k) + M 1 b,
converge vers X si et ssi (B) < 1.

Condition susante de convergence


Rappel
1. Soit X = (x1 , , xn )t Rn , les normes dnies par :
Pn
 kXk1 = |xi |
i=1
n  12
2
P
 kXk2 = |xi |
i=1
 kXk = max |xi |
1in
sont quivalentes.

2. Soit A = (aij ) Mn (R),  les normes dnies par :


Pn
 kAk1 = max |aij |
1jn i=1
p
 kAk2 = (t A.A) !
Pn
 kAk = max |aij |
1in j=1
sont quivalentes.

Lemme 6.1. (Relation entre (B) et kBk)


(B) kBki (i = 1 2 ).
Dmonstration. Soit une valeur propre de B, alors X (R )n : BX = X et donc
kBXki = kXki = ||kXki kBki kXki , X (R )n (kBXki kBki kXki ).
D'o, || kBki = (B) kBki ,; i = 1 2 .
D'aprs le lemme 6.1, on tire que l'existence d'une norme k.ki , (i = 1 2 ) de B qui vrie
kBki < 1 est une condition susante pour la convergence de la mthode itrative.

6.3.2 Principales mthodes itratives


On considre la dcomposition suivante de la matrice A

F
A=DEF = D
E
o,

D : la diagonale de A,
E : la partie au dessous de la diagonale deA,
F : la partie au dessus de la diagonale de A.

6.3. MTHODES ITRATIVES 77

a11 a12 a13
Exemple 6.5. Soit A = a21 a22 a23 alors
a31 a32 a33

a11 0 0 0 0 0 0 a12 a13
D = 0 a22 0 , E = a21 0 0 , F = 0 0 a23 .
0 0 a33 a31 a32 0 0 0 0

On suppose que i = 1, 2 , n, aii 6= 0R (on peut s'y ramener si A est inversible).

i) Mthode de Jacobi : M = D, N = E + F
ii) Mthode de Gauss-Seidel : M = D E, N =F
iii) Mthode de relaxation : M = ( 1 )D E, N = ( 1 1)D + F, R .
Remarque 6.11.

1. Si = 1, la mthode de relaxation concide avec celle de Gauss-Seidel.

2. La matrice M est inversible, car elle possde toujours les aii sur la diagonale.

3. la mthode de relaxation est une variante qui gnralise la mthode de Gauss-Seidel. L'in-
troduction du paramtre vise acclrer la convergence de cette dernire.

Prsentation des algorithmes


On va, dans ce qui suit, expliciter les mthodes de Jacobi et Gauss-Seidel, et cela sur un systme
linaire trois quations (n = 3).
Soit donc AX = b o A M3 (R), b R3

a11 x1 + a12 x2 + a13 x3 = b1 (1)
AX = b a21 x1 + a22 x2 + a23 x3 = b2 (2)
a31 x1 + a32 x2 + a33 x3 = b3 (3)

les (aii )i=1,2,...,n tant supposs non nuls ; tirons x1 de (1), x2 de (2) et x3 de (3), on obtient

x1 = (b1 a12 x2 + a13 x3 )/a11 = f (x2 , x3 ) (4)


x2 = (b2 a21 x1 + a23 x3 )/a22 = g(x1 , x3 ) (5)
x3 = (b3 a31 x1 + a32 x2 )/a33 = h(x1 , x2 ) (6)
(0) (0) (0)
soit X (0) = (x1 , x2 , x3 )t R3 quelconque.

La mthode de Jacobi revient au processus itratif suivant :

1ere tape : (1)


(1) (0) (0)
x1 = f (x2 , x3 ) x1
(1) (0) (0) (1) (1)
x2 = g(x1 , x3 ) X = x2
(1) (0) (0) (1)
x3 = h(x1 , x2 ) x3
2ieme tape : (2)
(2) (1) (1)
x1 = f (x2 , x3 ) x1
(2) (1) (1) (2) (2)
x2 = g(x1 , x3 ) X = x2
(2) (1) (1) (2)
x3 = h(x1 , x2 ) x3
78 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

et ainsi de suite, jusqu' satisfaction du critre d'arrt. (Il est vident qu'on ne peut pas calculer
le cot de la mthode).
3
La mthode de Gouss-Seidel revient au processus itratif suivant :

1ere tape :
(1) (0) (0) (1)
x1 = f (x2 , x3 ) Jacobi x1
(1) (1) (0)
x2 = g(x1 , x3 ) X (1) = x(1)

2
(1) (1) (1) (1)
x3 = h(x1 , x2 ) x3
2ieme tape : (2)
(2) (1) (1)
x1 = f (x2 , x3 ) x1
(2) (2) (1) (2) (2)
x2 = g(x1 , x3 ) X = x2
(2) (2) (2) (2)
x3 = h(x1 , x2 ) x3
(c'est dire toutes les composantes calcules (x1 , x2 , ..., xi1 ) sont utilises pour calculer xi ), et
ainsi de suite, jusqu' satisfaction du critre d'arrt.

Gnralisation
Soit AX = b un systme linaire d'ordre n o aii 6= 0, i = 1, 2, , n. Les quations (4), (5)
et (6) prcdentes se gnralisent comme suit :
n
!
X
x i = bi aij xj /aii , i = 1, 2, , n.
j=1, j6=i

Etapes principales de la mthode de Jacobi :


(0) (0) (0)
1. Etant donnes A, b, X (0) = (x1 , x2 , , xn )t , ( la prcision )
et/ou KM ax( le nombre maximal d'itrations ).
!
n
(k+1)
aij xkj
P
2. xi = bi /aii , i = 1, 2, , n.
j=1, j6=i
A rpter pour k = 0, ..., KM ax.
Si
kX (k+1) X (k) k
<
kX (k+1) k
arrter les itrations, et X (k+1) est une solution approche de X solution du systme donn
avec une prcision relative .
Etapes principales de la mthode de Gauss-Seidel :
(0)
1. Etant donnes A, b, X (0) , , xn )t ,  et/ou KM ax.
!
i1 n
(k+1) P (k+1) P (k)
2. xi = bi aij xj aij xj /aii , i = 1, 2, , n.
j=1 j=i+1
A rpter pour k = 0, ..., KM ax.
Si
kX (k+1) X (k) k
<
kX (k+1) k
arrter les itrations, et X (k+1) est une solution approche de X solution du systme donn
avec une prcision relative .
6.3. MTHODES ITRATIVES 79

Remarque 6.12. 1. S'il existe i0 [1, n] tel que ai0 i0 = 0, on procde une permutation de
ligne sur A (et sur b).
2. En gnral, la convergence de l'une de ces mthodes n'implique pas la convergence de l'autre.

3. Plus que (B) << 1, plus que la convergence du processus itratif



X (0) Rn donn
X (k+1) = BX (k) + C
vers la solution exacte du systme AX = b est plus rapide.

Exemple 6.6. Soient les quatre systmes linaires Ai X = bi , i = 1, 2, 3, 4.



1 2 2 2 1 1
A1 = 1 1 1 A2 = 2 2 2
2 2 1 1 1 2

4 1 1 7 6 9
A3 = 2 9 0 A4 = 4 5 4
0 8 6 7 3 8
Etudier la convergence des mthodes de Jacobi et Gauss-Seidel appliques chaque systme,
(0)
pour tout choix de X R3 , en utilisant le rayon spectral des matrices d'itrations. Conclure.
Rponse On trouve les rsultats suivants :
1.
0 2 2 0 2 2
J1 = 1 0 1 G1 = 0 2 3
2 2 0 0 0 2
avec (J1 ) = 0 < 1, (G1 ) = 2 > 1,
d'o la mthode de Jacobi converge X (0) R3 , alors
(0)
que celle de Gauss-Seidel ne converge pas X R3 .
2.
0 12 21 0 12 12

J2 = 1 0 1 G2 = 0 12 12
1 1
2 2
0 0 0 12
avec (J2 ) = 1, 118 > 1, (G2 ) = 12 < 1, d'o la mthode de Gauss-Seidel converge
X (0) R3 , alors que celle de Jacobi ne converge pas X (0) R3 .
3.
0 41 14 0 14 14

J3 = 29 0 0 G3 = 0 18 1
8
4
0 3 0 0 6 16
1

avec (J3 ) = 0, 44 < 1, (G3 ) = 0, 018 < 1, d'o les deux mthodes convergent X (0)
R3 , mais comme (G3 ) < (J3 ) alors, la mthode qui converge plus rapidement est celle de
Gauss-Seidel.

4.
0 67 97 0 67 97

J4 = 45 0 4
5
G4 = 0 24
35
64
35

7 3 69 123
8 8
0 0 140 280
avec(J4 ) = 0, 64 < 1, (G3 ) = 0, 77 < 1, d'o les deux mthodes convergent X (0) R3 ,
mais comme (J4 ) < (G4 ) alors, la mthode qui converge plus rapidement est celle de
Jacobi.
80 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

D'autres conditions susantes de convergence des mthodes de Jacobi et Gauss-


Seidel
Soit le systme linaire AX = b o A Mn (R) inversible, J la matrice d'itration de Jacobi
dnie par :
 a
aijii , si i 6= j;
J = (ij )1i,jn o ij =
0, si i = j.
On a vu qu'une condition susante pour que le processus itratif converge (vers la solution du
systme (S)) est que kJkN o N est l'une des trois normes matricielles prsentes.
!
n
P
Prenons la norme k.k : kJk = max |ij | , alors
1in j=1

n
X
kJk < 1 |ij | < 1, i = 1, 2, , n
j=1

et pour i x, on a
( |i1 | + |i2 | + + |in | ) < 1
ou encore
n
1 X
(|ai1 | + |ai2 | + + |ain |) < 1 = |aij | < |aii |
aii j=1, j6=i

auquel cas on dit que la matrice A est diagonale dominante stricte.

Remarque 6.13. On aboutit la mme conclusion pour la mthode de Gauss-Seidel (exercice).


D'o le rsultat suivant :

Thorme 6.4. Pour que les processus itratifs de Jacobi et de Gauss-Seidel convergent ( X (0)
Rn ), il sut que la matrice A du systme AX = b soit diagonale dominante stricte (D.D.S).

Proposition 6.1. Si A est symtrique dnie positive, alors le processus itratif de Gauss-Seidel
converge X (0) Rn .

Mthode de relaxation
La matrice d'itration est dans ce cas B = M 1 N o M = ( 1 )D E, N = ( 1

)D + F,

avec un paramtre dans R .
On remarque que si = 1, cette mthode concide avec celle de Gauss-seidel ; on l'utilise pour
acclrer la convergence de Gauss-Seidel :

>1 procd de sur-relaxation,


=1 mthode de Gauss-Seidel,
<1 procd de sous-relaxation.

En crivant le processus itratif :

X (k+1) = (M 1 N )X (k) + M 1 b,

alors la mthode de relaxation consiste en le schma suivant :


(k) (k+1) (k+1)
lors du passage de X X on ne retient pas X pour la suite, mais X (k+1) + (1
(k)
)X . Autrement dit
(k+1) (k) (k+1) (k)
X X + (|{z}
X X ),
GS
6.3. MTHODES ITRATIVES 81

et en injectant cette expression dans l'algorithme de Gauss-Seidel, on trouve l'algorithme sui-


vant : !
i1
X n
X
(k+1) (k) (k+1) (k)
xi = xi + bi aij xj aij xj /aii , i = 1, 2, , n.
j=1 j=i

Convergence de la mthode de relaxation


Thorme 6.5. (conditions sur le paramtre )
Cas d'une matrice A quelconque (mais inversible), une condition ncessaire pour que la
(0) n
mthode de relaxation converge X R ) est que ]0, 2[.
Si A est diagonale dominante sticte, alors la condition susante de convergence est que
]0, 1].
Si A est symtrique dnie positive, alors la condition ncessaire et susante de conver-
gence est que ]0, 2[.
82 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

6.4 Exercices
Mthodes directes
Exercice 6.1. Soient les systmes d'quations linaires suivants :

x+yz =3 3x + y 5z = 14 3x y + 2z = 3
a) 2x y + 3z = 0 b) 2x + y 3z = 5 c) x y + z = 4
x 2y + z = 5 x y z = 4 2x + y z = 3



2x + 6y + 2z + 8t = 16
10x y + 2z = 6
9x z + 3t = 5
x + 4y + 2z + 2t = 5 x + 11y z + 3t = 25 2x + 4y + 9z + t = 1

d) e) f)

x + y + 2z + 4t = 9
2x y + 10z t = 11
x + 2y + 4z 8t = 3
x+y+z+t=2 3y + 8t z = 15 x + t z + 4y = 7

1. Rsoudre les systmes linaires donns par la mthode d'limination de Gauss (lorsque cela
est possible).

2. Rsoudre les systmes linaires donns avec la technique du pivot total.

3.a) Donner la dcomposition L.U des matrices des systmes a) et e).


b) Retrouver les solutions de ces systmes.
Exercice 6.2. Soient i , i = 1, 2, 3, 4, quatre nombres rels non nuls et distincts deux deux
et soit A M4 (R) dnie par :


1 2 /1 3 /1 4 /1


1 1 3 /2 4 /2

A=


1 1 1 4 /3



1 1 1 1

On note par la matrice diagonale = diag(1 , 2 , 3 , 4 ).


1. Triangulariser le systme AX = b par la mthode de Gauss ordinaire en justiant pourquoi
ceci est possible.

2. Donner alors la dcomposition LU de A et en dduire la dcomposition A = LDV o


D = diag(U ).
3. a) Calculer l'inverse de la matrice L par deux mthodes direntes.
b) Vrier que V = 1 Lt et en dduire V 1 .
c) Pour i = ia, i = 1, 2, 3, 4 et a R , crire A et calculer A1 .
6.4. EXERCICES 83

Exercice 6.3. On dsire rsoudre le systme linaire HX = K o K est un vecteur donn et


H est une matrice tridiagonale inversible.

k1
a1 b1 0 0 ... 0

k2

c2 a2 b2 0 ... 0




..


0 c3 a3 b3 ... 0 .

H=

,
K=
.

... ... ... ... ... ... ..



0 ... 0 cn1 an1 bn1 .
..




0 0 ... 0 cn an
kn

1. En appliquant la mthode d'limination de Gauss ordinaire (les pivots tant supposes tous
non nuls), crire la forme gnrale de la matrice triangulaire obtenue, ainsi que le vecteur
constant.

2. Rsoudre ce dernier systme.

Exercice 6.4. On considre le systme AX = b dni par :



1 2
A = 1 3 1 R et b R3 .
2 1 3

1. Pour quelles valeurs du paramtre , la matrice A est-elle symtrique dnie positive ?

2. On pose = 0. Quelle mthode directe peut-on utiliser pour rsoudre le systme


AX = b? justier votre rponse.
3. On considre = 1.
i) Rsoudre les systmes linaires AY [i] = ei (i = 1, 2, 3) o ei est le ime vecteur de la
3
base canonique de R .

ii) Donner la dcomposition LU de A, en justiant son existence.


iii) En dduire A1 puis U 1 .
Exercice 6.5. Soit A = (aij )1i,j3 la matrice dnie par :

i(4i + 5), si i = j,
aij =
3 min(i, j), si i 6= j.

1. Donner la dcomposition R.Rt de A l'aide de l'algorithme de Cholesky en justiant son


existence.

2. En dduire la solution du systme AX = b o b = (1, 1, 0)t .


3. Comment peut-on rsoudre, avec un minimum d'oprations, le systme A2 X = b? Justier
votre rponse.
84 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES

Mthodes itratives

Exercice 6.6. On considre la matrice A et le vecteur b dnis par :

1 1
3
8
0 4 8

1
1

0
A= 0
, b=
3 3

1 1 5
2
0 8 8

1. a) Rsoudre le systme AX = b par la mthode d'limination de Gauss.


b) En dduire le dterminant de A.
c) Peut-on utiliser les mthodes LU et Cholesky pour retrouver la solution du systme
AX = b?
2. a) Ecrire le processus itratif de Jacobi correspondant au systme AX = b.
b) Soit X = ( 12 , 0, 1)t , calculer
(0)
X (1)
et X (2)
. Donner l'erreur absolue commise dans
chacun des cas en norme k.k .

c) Etudier la convergence de cette mthode.

3. Peut-on rcrire le systme AX = b de manire assurer la convergence de la mthode de


(0)
Jacobi X R3 ?
2 4

2 3 3
0

Exercice 6.7.
2

Soit le systme linaire AX = b o
1 2 3
A= et
0
b=



3 1 4 1
k ime
(k)
1. On note par akk le pivot de la tape d'limination de Gauss et A[k] la sous matrice
d'ordre k de A .

i) Montrer l'quivalence : det(A[k] ) 6= 0, k = 1, ..., n a(k)


kk 6= 0, k = 1, ..., n
ii) Peut-on utiliser les mthodes LU et Cholesky pour rsoudre le systme AX = b?
2. On considre le processus itratif de Jacobi associ au systme AX = b :

X (k+1) = JX (k) + C.

i) Dterminer J et C .
ii) Calculer le polynme caractristique P de J.
iii) Sparer les racines de P.
vi) Que peut-on dire sur la convergence de la mthode de Jacobi.
3. i) Montrer que si tout coecient (ij ) de la matrice de Jacobi J associe un systme
1
linaire d'ordre n vrie : |ij | < n
, alors la mthode de Jacobi converge pour tout
vecteur initial X (0) Rn .
ii) En dduire que la mthode de Jacobi associe la matrice B = (bij )0i,j3 o


aij , si i 6= j;
bij = converge X (0) R3 .
8aii , si i = j,
6.4. EXERCICES 85

Exercice 6.8.
I) Soit le systme linaire AX = b o A Mn (R) et b Rn . Montrer que si le processus itratif
associ ce systme 
X (0) Rn ,
X (k+1) = BX (k) + C, k 0.
converge vers X la solution exacte du systme AX = b, alors

i) kX X (k) k kBk
1kBk
kX (k) X (k1) k ( estimation pas pas )

ii) kX X (k) k kBkk


1kBk
kX (1) X (0) k ( estimation priori )

II) Soit le systme d'quations linaires (1) : Ax = b dni par



3 1 1
t
A = 1 3 1 , et b = (4, 4, 2) .
1 1 3

1. Vrier que les processus itratifs de Jacobi et Gauss-Seidel associs au systme linaire
3
(1) convergent, quelque soit le vecteur initial de R . On dsigne par X la solution exacte
du systme (1).
2. Dans cette partie, on considre la mthode de Jacobi associe au systme (1)

X (0) R3 ,
o J et f sont dterminer
X (k+1) = JX (k) + f, k 0,

On pose X (0) = (0 2 0)t .


a) Calculer X (2) et estimer l'erreur kX (2) Xk .
b) Quel est le nombre susant d'itrations n1 partir duquel on a :
kX (n) Xk 102 ?
c) (n) (n) (n)
Montrer que : n N, x1 + x2 = 2 et x3 = 0.

d) En dduire la solution exacte X du systme (1).

3. Dans cette partie, on considre la mthode de Gauss-Seidel associe au systme (1)



Y (0) R3 ,
o G et g sont dterminer
Y (k+1) = GY (k) + g, k 0,

On pose Y (0) = (0, 2, 0)t .


a) Calculer Y (2) et estimer l'erreur kY (2) Xk .
b) Quel est le nombre susant d'itrations n1 partir duquel on a
kY (n) Xk 102 ?
4. Commenter les rsultats obtenus.

Exercice 6.9. On considre la matrice A et le vecteur b dnis par :



1 1 1 1
A = 0 2 1 , b= 1
1 1 12 0

1. Rsoudre le systme AX = b par la mthode d'limination de Gauss.


86 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES


0 1 1
2. Soit la matrice B = 0 0 12
2 2 0
a) Quelle relation y-a-t-il entre les matrice A et B? Ecrire le processus itratif correspon-
dant.

b) Montrer que P () = det(B I3 ) = 3 3 + 1.


c) Sparer graphiquement les racines de P et vrier que P admet une racine spare
1 1
[ 10 , 3 ]. Conclure.

d) Comment peut-on dterminer l'approximation initiale X (0) pour retrouver la solution


exacte du systme AX = b (de la question 1) aprs une tape ?

Exercice 6.10. On considre le systme d'quations linaires (S) : Ax = b dni par


2 1
A = 1 , o , R , vrient = 1 et b R3 .
1 2

1. a) Calculer P () = det(J I3 ) o J est la matrice d'itration de Jacobi associe A.


b) Montrer que P (1) < 0 et tudier la convergence de la mthode de Jacobi applique
(0)
(S) pour tout choix de x R3 .
c) La matrice A peut-elle tre une matrice D.D.S ?

2. On considre la mthode de Gauss-Seidel associe au systme (S)


X (0) R3 ,
X (k+1) = GX (k) + g.

Calculer G et g; en dduire l'ensemble des valeurs de , pour lesquelles la mthode de


Gauss-Seidel applique (S) converge pour tout choix de x(0) R3 .

Exercice 6.11. Soit rsoudre le systme d'quations linaires Ax = b dni par



1 0 0 b1
1 1 0 b2
A=
0 1 1 ,
R, b=
b3

0 0 1 b4

1. Que peut-on dire de la convergence des mthodes de Jacobi et Gauss-Seidel sans calculer
les matrices d'itration si

(a) = 3;
(b) = 2.
2. Dans le cas o = 3, dnissons b =t (1, 0, 2, 28).
i) Calculer la solution exacte du systme Ax = b, en utilisant la mthode de Gauss.
ii) Calculer les trois premiers itrs des mthodes de Jacobi et Gauss-Seidel en partant de
x(0) =t (0, 0, 0, 0).
iii) Comparer ces itrs la solution exacte. les rsultats sont-ils cohrents avec ceux de la
question 1-(a).
6.4. EXERCICES 87

iv) S'il y a convergence des deux mthodes, dterminer celle qui converge le plus vite.
Pourquoi ?

Exercice 6.12. On considre la matrice A et le vecteur b dnis par :

1

1 3
0 0
1 1
A= 3
1 3
, b= 1
1
0 3
1 0

1. Vrier que les processus itratifs de Jacobi et de Gauss-Seidel associs au systme linaire
AX = b convergent, pour tout vecteur initial de R3 .
2. On considre le processus itratif de Jacobi associ au systme (1) :

X (0) R3 ,
o J et f sont dterminer .
X (k+1) = JX (k) + f, k 0,

On pose X (0) = 0R3 .


a) Calculer X (2) et estimer l'erreur kX (2) Xk1 , o X est la solution exacte du systme
(1).
b) Calculer (J) le rayon spectral de J.
3. On considre le processus itratif de Gauss-Seidel associ au systme AX = b :

Y (0) R3 ,
o G et g sont dterminer .
Y (k+1) = GY (k) + g, k 0,

a) Calculer (G) le rayon spectral de G. En dduire que (G) = ((J))2 .


b) On pose Y (0) = 0R . Montrer que : k N, 3y3(k) + y2(k) = 0.
3

c) En dduire la solution exacte X du systme AX = b.


Exercice 6.13. 1. Pour une matrice carre quelconque A montrer que (A) kAk pour toute
norme matricielle.

2. On suppose A symtrique dnie positive. Montrer que (A) kAk2 .


3. Soit
1
A = 1 , R.
1
a) Pour quelles valeurs de la matrice A est-elle dnie positive ?
b) Ecrire la matrice J de l'itration de Jacobi.
c) Pour quelles valeurs de la matrice de Jacobi converge-t-elle ?
d) Ecrire la matrice J de l'itration de Gauss-Seidel.
e) Calculer (G). pour quelles valeurs de cette mthode converge-t-elle plus vite que celle
de Jacobi ?
88 CHAPITRE 6. RSOLUTION DES SYSTMES LINAIRES
Chapitre 7
Calcul des valeurs et vecteurs propres
d'une matrice

7.1 Position du problme


Soit Aune matrice carre coecients dans K (K = R ou C ). On cherche les valeurs et
n
vecteurs propres C, X (K ) (respectivement) de A tels que :

valeur propre de A X (Kn ) : AX = X.

X vecteur propre de A C : AX = X.
Soit P le polynme caractristique de A. Alors

valeur propre de A P () = det(A I) = 0,

c'est dire est une racine du polynme caractristique P.


Les mthodes de recherche des valeurs et vecteurs propres sont classes en deux type :

Mthodes directes : elles procdent, gnralement, en trois tapes principales :


i) recherche des coecients de P,
ii) calcul des racines de P,
iii) obtention de vecteurs propres.
Mthodes itratives : ce sont des mthodes qui ne consistent pas en la recherche du polynme
caractristique P.

7.2 Mthodes directes


1. Calcul direct de P () = det(A I) : n = 2, 3, 4, le dterminant d'une matrice est,
Pour
relativement, facile calculer manuellement. Pour n (assez) grand, il faut utiliser un ordina-
teur, qui fait l'valuation du dterminant d'une matrice d'ordre n en cot de O(n!) (complexit
exponentielle). Par exemple, si n = 20, un ordinateur trs puissant mettra des annes pour
calculer det(A).
2. Mthode de Krylov : Rappelons d'abord le thorme important suivant :
Thorme 7.1. (Thorme de Cayley-Hamiltion) Si l'on note par P () le polynme caract-
ristique d'une martice carre d'ordre n A. Alors P (A) = 0Mn (K) .

89
90 CHAPITRE 7. CALCUL DES VALEURS ET VECTEURS PROPRES D'UNE MATRICE

On a
P () = (1)n ( n
r(A)n1
 Tn1  + n2
n2
+ n3 n3 . . . + det(A))
= (1)n n + k k
P
o 0 = det(A), n1 = T r(A).
k=0
Cette mthode permet le calcul des coecients du polynme P comme suit :
D'une part, d'aprs le thorme prcdent, on a

n1
X n1
X
n n k n
P (A) = (1) [A + k A ] = 0Mn (K) = A = k Ak , o k = k .
k=0 k=0

D'autre part, soient Y0 un vecteur non nul


de Rn ,B une matrice carre d'ordre n dnie par :
0
2
B = [Y0 , AY0 , A2 Y0 , . . . , An1 Y0 ], et X= . On trouve,

..
.
n1
n1
!
X
BX = 0 Y0 + 1 A Y0 + . . . + n1 An1 Y0 = k Ak Y 0 = An Y 0 .
k=0

X qui contient les symtriques des coecients


C'est dire le vecteur du polynme P vrie le
n
systme linaire BX = b o b = A Y0 .

Remarque 7.1. 1. Il faut choisir Y0 de sorte que B soit rgulire.


2. La rsolution du systme linaire obtenu peut se faire par l'une des mthodes tudies dans
le chapitre prcdent.
       
1 2 1 1 3
Exemple 7.1. Soient A=
3 4
, Y0 =
1
. Alors, B = [Y0 , AY0 ] =
1
,
7
 
17
et b = A2 Y 0 = . Donc le vecteur X = (0 , 1 )t vriant le sysme linaire :
37
      
1 3 0 17 0 = 2 0 = 2
= = =
1 7 1 37 1 = 5 1 = 5

d'o P () = 2 5 2.
Remarque 7.2. D'autres mthodes de recherche des coecients de P existent(Faddeev, Lever-
rier,. . . ), mais l'inconvnient des mthodes directes rside dans le fait qu'il faut chercher les
racines de P, ce qui ncessite l'emploi de mthodes de rsolution d'quations non linaires.

7.3 Mthodes itratives


7.3.1 Mthode de la puissance itre
Cette mthode permet d'obtenir par itration la valeur propre de plus grand module d'une ma-
trice A ainsi que le vecteur propre correspondant.
Soit A une matrice relle d'ordre n. On suppose, pour simplier, que toute les valeurs propres
1 , . . . , n de A sont distinctes, de sorte que les vecteurs propres correspondants V1 , . . . , Vn
n
forment une base de R . Posons

|1 | > |2 | . . . |n | (i.e. 1 R).


7.3. MTHODES ITRATIVES 91

Soit X (0) un vecteur quelconque dans Rn , alors

n
X
(0)
i R, i = 1, n tel que X = i Vi .
i=1

Appliquons la matrice A au vecteur X (0) , on obtient

n
X n
X
AX (0) = i AVi = i i Vi .
i=1 i=1

Appliquons de nouveau A
n
X n
X
2 (0) 2
AX = i A Vi = i 2i Vi ,
i=1 i=1

et ainsi de suite, on aura

n n
Ak X (0) = i ki Vi = 1 k1 V1 + i ki Vi
P P
i=1  i=2
n  k 
k
i 1i Vi .
P
= 1 1 V1 +
i=2
 n  k 
i
P
On voit que lorsque k tend vers +, i Vi tend vers 1 V1 .
1 V1 + 1
i=2
Par consquent, au bout d'un nombre susamment grand d'itrations, on peut crire

X (k) = Ak X (0) ' k1 1 V1 ,

d'o l'itration suivante :

X (k+1) = AX (k) = Ak+1 X (0) ' k+1


1 1 V1 ' 1 X
(k)

Par consquent,
kX (k+1) k
|1 | '
kX (k) k
En pratique, on utilise cette procdure comme suit :
Dans le but d'viter la manipulation (ventuelle) de nombres assez grands, on a intrt nor-
(k)
maliser chaque vecteur X pour k 1, c'est dire qu'on n'applique pas la matrice A au
(k) X (k) (k) (k)
vecteur X , mais au vecteur Y (k) = kX (k) k . Donc si on suppose que |xp | = max |xi |,
i
ieme (k)
 la p composante de Y vaut 1,
ieme ieme (k)
 la valeur propre 1 estime la k itrations est la p composante du vecteur X .
En eet ; quand k est assez grand et la p
ieme
composante de V1 est non nulle, on aura

(k+1)
xp k+1
1 1 v1,p
' = 1 .
(k)
xp k1 1 v1,p
92 CHAPITRE 7. CALCUL DES VALEURS ET VECTEURS PROPRES D'UNE MATRICE

L'algorithme relatif la mthode de la puissance itre se prsente comme suit :


(0) (0)
1. Etant donnes A, X (0) = (x1 , . . . , xn ) vecteur arbitraire dans Rn ,  une prcision sur .
(k) (k)
2. On pose Y (0) = X (0) , pour (k 1), on calcule le vecteur X (k) = (x1 , . . . , xn ) tel que

X (k) = A Y (k1) ,

puis le vecteur
!
(k) (k)
x1 xn (k)
Y (k) = (k)
,..., (k)
, o |xp(k) | = max |xi |.
xp xp i

Alors,
(k) (k)
1 = x(k)
p et V1 = Y (k) .

3. Rpter l'tape (2) tant que


(k) (k1)
|1 1 | .

4.
1 ' xp(k) et V1 ' Y (k) .
Remarque 7.3. Lorsque l'algorithme de la mthode de la puissance itre est appliqu la
matrice A1 , il dtermine la plus petite valeur propre de A, c'est la mthode de la puissance
itre inverse.

Exemple 7.2. Soit



1 1 0
A= 0 2 0
0 1 3
Les valeurs propres de la matrice A sont 1 = 3, 2 = 2, 3 = 1 et les vecteurs propres
correspondants sont V1 = (0, 0, 1), V2 = (1, 1, 1) et V3 = (1, 0, 0). Montrons que la mthode de
(0)
la puissance permet de recalculer 1 et V1 . Posons X = (0, 1, 0) = Y (0) = (0, 1, 0) alors

1 1
X (1) = AY (0) = (1, 2, 1) = p = 2, (1) = 2 et Y (1) = ( , 1, )
2 2
3 5 5 3 4
X (2) = AY (1) = ( , 2, ) = p = 3, (2) = et Y
(2)
=( , , 1)
2 2 2 5 5
7 8 19 19 7 8
X (3) = AY (2) = ( , , ) = p = 3, (3) = et Y
(3)
=( , , 1)
5 5 5 5 19 19
15 16 65 65 15 16
X (4) = AY (3) = ( , , ) = p = 3, (4) = et Y
(4)
=( , , 1)
19 19 19 19 65 65
31 32 211 211 31 32
X (5) = AY (4) = ( , , ) = p = 3, (5) = et Y
(4)
=( , , 1)
65 65 65 65 211 211
63 64 665 665 63 64
X (6) = AY (5) = ( , , ) = p = 3, (6) = et Y
(4)
=( , , 1).
211 211 211 211 665 665
Remarquons que la suite ((k) ) converge vers 1 = 3 et (Y (k) ) converge vers V1 = (0, 0, 1).
Remarque 7.4. Si on choisit un vecteur propre de la matrice A comme vecteur initial X (0) de
la mthode, on risque de ne pas avoir la plus grande des valeurs propres.
7.3. MTHODES ITRATIVES 93

7.3.2 Mthode de Rutishauser


Principe de la mthode : Construction d'une suite de matrices semblables A, et qui converge
vers une matrice triangulaire (ou diagonale si A est symtrique).
Rappels :
1. Une matrice B est dite semblable une matrice A, si elle existe une matrice inversible P
telle que : B = P 1 AP.
2. Deux matrices semblables ont mmes valeurs propres.

3. Les valeurs propres d'une matrice triangulaire (ou diagonale) sont situes sur sa diagonale.

4. Une matrice A est dite diagonalisable si toutes les valeurs propres de cette matrice sont
simples.

5. Si toutes les sous matrices principales d'une matrice A sont inversibles, alors elle se dcom-
pose sous la forme A = LU o L est triangulaire infrieure unitaire et U est triangulaire
suprieure.

La mthode de Rutishauser utilise cette dcomposition plusieurs fois de suite. On supposera,


dans le cadre de cette mthode, que toutes les dcompositions LU sont possibles.
Soit A1 = A = LU = L1 U1 ,
A2 est calcule comme suit : A2 = U1 L1 , qu'on dcompose encore en A2 = L2 U2 ,
de mme : A3 = U2 L2 , qu'on dcompose encore en A3 = L 3 U 3 ,
et ainsi de suite, on obtient une suite de matrices (Ak )kN dnie par :

A1 = A = L1 U1 ,
Ak+1 = Uk Lk , qu'on dcompose encore en Ak+1 = Lk+1 Uk+1 .
Rcrivons
A2 = U1 L1 = (L11 L1 )U1 L1 = L1 1
1 (L1 U1 )L1 = L1 A1 L1 ,

ce qui implique que A2 est semblable A. De plus, on a

Ak+1 = Uk Lk = L1 1
k (Lk Uk )Lk = Lk Ak Lk ,

et
Ak+1 = L1 1 1 1
k (Lk Uk )Lk = Lk (Uk1 Lk1 )Lk = Lk Lk1 Ak1 Lk1 Lk ,

donc de proche en proche, on obtient

Ak+1 = L1 1 1 1
k Lk1 . . . L2 L1 A L1 L2 . . . Lk1 Lk .

Posons Lk = L1 L2 . . . Lk , alors on a Lk et L1
k sont des matrices triangulaires infrieures
1
unitaires pour tout k N et Ak+1 = Lk ALk .
Donc d'une part, on a Ak est semblable A pour tout k 2,
et d'autre part,
lim Ak = lim L1 AL, (7.1)
k+ k+

o L et L1 sont des matrices triangulaires infrieures unitaires.


Or si A est diagonalisable, elle existe une matrice P P 1 AP = D o D est
inversible telle que

une matrice diagonale, alors on a Ak est semblable A pour tout k N et A est semblable
D, ce qui entrane que Ak est semblable D, k N . Faisons tendre k vers +, elle existe
une matrice Q inversible telle que

lim Ak = Q1 DQ = Q1 P 1 AP Q = (P Q)1 AP Q.
k+
94 CHAPITRE 7. CALCUL DES VALEURS ET VECTEURS PROPRES D'UNE MATRICE

D'aprs (7.1), on tire que les matrices P et Q sont triangulaires, ce qui implique que la suite
(Ak )kN converge vers une matrice triangulaire, elle a donc les mmes valeurs propres que D
et donc que A.
Dans la pratique, on se donne  (trs petit>0) puis on construit la suite (Ak ) jusqu' ce que
k0 N tel que Ak0 soit approximativement triangulaire  prs.
Chapitre 8
Rsolution des quations non linaires

8.1 Position du problme


Soit f : [a, b] R R une fonction au moins continue sur [a, b]. On cherche les racines de f
c'est dire les points x [a, b] tels que f (x) = 0.
Ce problme est important en particulier en optimisation o l'on cherche minimiser (ou maxi-
miser) une fonction, car on cherche les points o la drive s'annule.

Si f (a).f (b) < 0, alors par le thorme des valeurs intermdiaires, il existe au moins une racine
de f dans l'intervalle [a, b]. Si de plus, f est strictement monotone alors f est une bijection
et cette racine est unique dans [a, b].

Nous supposerons que est l'unique racine de f dans l'intervalle [a, b].
En gnral, les mthodes de rsolution numrique de f (x) = 0 sont des mthodes itratives.
Elles consistent construire une suite (xn )n convergente (le plus rapidement possible) vers .

8.1.1 Sparation des racines


La plupart des mthodes de rsolution ncessitent la sparation des racines, c'est dire celles
qui consistent en la dtermination d'un (ou des) intervalle(s) ferm(s) et born(s) de [a, b] dans
le(s)quel(s) f admet une et une seule racine.
La sparation des racines s'eectue, en gnral, en utilisant deux types de mthodes :

i.Mthode graphique : Soit on trace (exprimentalement ou par tude de variations de f)


le graphe de la fonction f et on cherche son intersection avec l'axe (Ox).
Soit on dcompose f en deux fonctions f1 et f2 simples tudier, telles que f = f1 f2, et on
cherche les points d'intersection des graphes de f1 et f2 , dont les abscisses sont exactement
les racines de f.
Remarque 8.1. On choisit souvent f1 et f2 de faon que leurs courbes soient des courbes
connues.

Exemple 8.1. La fonction f dnie par : f (x) = ln x x1 , x ]0, +[ a une racine unique
5 5
dans l'intervalle [ 4 , 2 ]. En eet ; posons f1 (x) = ln x et f2 (x) = x1 . Alors
f (x) = 0 f1 (x) = f2 (x) et d'aprs le graphe
 
5 5
G(f1 ) G(f2 ) = (, f ()), [ , ] .
4 2

95
96 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

ii. Mthode de balayage : On considre une suite croissante nie {xi , i = 0, 1, . . . , n} de


valeurs de x rparties sur l'intervalle [a, b]. Si f est continue et f (xi )f (xi+1 ) < 0, alors il
existe entre xi et xi+1 au moins une racine de f (c'est le thorme des valeurs interm-
diaires).
Exemple 8.2. P dni par : P (x) = x4 x3 x2 + 7x 6 a au moins deux
Le polynme
racines relles 1 ] 3, 1[, 2 ]0, 2[ car : P (4) = 270, p(3) = 72, P (1) = 12,
P (0) = 6, P (2) = 12 et P (3) = 60, . . . , ect.

8.2 Mthode de dichotomie (ou de la bissection)


Cette mthode est utilise pour approcher les racines d'une fonction continue f : R R. S'il
existe a, b (a < b) avec f (a)f (b) < 0, on sait alors qu'il existe au moins une racine de f dans
l'intervalle ]a, b[. Posons a0 = a, b0 = b, I0 =]a0 , b0 [ et x0 = a0 +b
2
0

Pour n 1, on choisit le sous-intervalle In =]an , bn [ de l'intervalle ]an1 , bn1 [ de la faon
suivante :
a) posons xn1 = a +b 2
,n1 n1

b) si f (xn1 ) = 0, alors = xn1 et la mthode est termine,


c) si f (xn1 ) 6= 0, alors
i) si f (an1 ).f (xn1 ) < 0, alors ]an1 , xn1 [ et on pose an = an1 , bn = xn1 ;
ii) si f (xn1 ).f (bn1 ) < 0, alors ]xn1 , bn1 [ et on pose an = xn1 , bn = bn1 ;
d) on dnit l'intervalle In =]an , bn [; on augmente n de 1 et on recommence du point a).
On obtient donc une suite de valeurs approches de :
a0 + b 0 a1 + b 1 an + b n
x0 = , x1 = , . . . , xn = ,...
2 2 2
telle que
ba
|xn | (8.1)
2n+1
Exercice 8.1. Retrouver l'ingalit (8.1).
Remarque 8.2. L'ingalit (8.1) nous permet d'estimer le nombre susant d'itrations n pour
ba
approcher avec une prcision donne , il sura de rsoudre l'ingalit : 2n+1  par rapport
n.
8.3. MTHODE DU POINT FIXE (DES APPROXIMATIONS SUCCESSIVES) 97

8.3 Mthode du point xe (des approximations successives)


On suppose que f ne possde qu'une seule racine, note , dans [a, b].
Principe de la mthode des approximations successives :
On remplace l'quation f (x) = 0 par une quation quivalente x = (x) o est continue, et
on construit la suite rcurrente dnie par

x0 x dans [a, b];
(8.2)
xn+1 = (xn ), n 0,

avec l'espoir que la suite (xn ) converge vers la solution du problme pos.
Interprtation gomtrique :
 Chercher tel que f () = 0 revient chercher l'intersection du graphe de f avec l'axe des
abscisses.
 Chercher tel que () = revient chercher l'intersection du graphe de f avec la droite
y = x, c'est dire trouver le point xe de , d'o le nom de la mthode.

Exemples : On peut remplacer l'quation f (x) = 0 par l'quation x = x f (x) = (x) ou par
f (x)
x=x = (x), a 6= 0.
Questions :
a

 La suite (xn )n converge-t-elle ?


 Si oui, converge-t-elle vers ?
 Question d'analyse numrique : s'il y a convergence vers , quelle vitesse converge-t-on ?
Peut-on estimer l'erreur commise sur l'approximation de ?
La rponse la deuxime question est oui, si xn [a, b], n N. En et ;
Soit x = lim xn . Alors comme est continue on a
n+

xn+1 = (xn )

x = (x)

donc la limite de (xn )n vrie x = (x), et si x [a, b] on obtient x = .


Donc pour que (xn )n converge vers , il sut que (xn ) converge et que xn [a, b], n N.
Dnition 8.1. Soit I un sous-intervalle de R et : I I une application continue.
98 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

1. On dit que I est un point xe de dans I si () = .


2. On dit que est contractante si est Lipschitzienne du rapport K avec 0 < K < 1,
c'est dire s'il existe K ]0, 1[ tel que

x, y I, |(x) (y)| K|x y|.

Thorme 8.1. Soit : [a,b] R [a,b] une application contractante. Alors


1. admet un point xe unique [a, b].
2. La suite dnie par : xn+1 = (xn ), n 0 converge vers , x0 [a, b], et on a
l'estimation suivante de l'erreur

Kn
| xn | |x1 x0 | o K est la constante de Lipschitz. (8.3)
1K
Dmonstration. i. Existence : on a |xn+1 xn | K n |x1 x0 |, n N. En eet ;
puisque xi+1 xi = (xi ) (xi1 ), i = 1, . . . , n et est K Lipschitzienne, alors

|xn+1 xn | K|xn xn1 | K 2 |xn1 xn2 | . . . K n |x1 x0 |.

D'o, n, p N on aura

|xn+p xn | |xn+p xn+p1 | + |xn+p1 xn+p2 | + . . . + |xn+1 xn |


(K n+p1 + K n+p2 + . . . + K n ) |x1 x0 |
= K n (1 + K + K 2 + . . . + K p1 ) |x1 x0 |
p
= K n 1K
1K
|x1 x0 | ( car : 1 K p < 1)
n
K
1K 1
|x x0 | 0 quand n + ( car : 0 < K < 1).

La suite (xn )n est donc de Cauchy dans R, donc convergente dans R (car R est complet).
Soit la limite de cette suite ; par continuit de , () = , d'o l'existence du point xe.
De plus, si on xe n et en faisant tendre p vers + on obtient
Kn
| xn | |x1 x0 |.
1K
ii. Unicit : soient 1 et 2 , deux points xes de . On a :

|1 2 | = |(1 ) (2 )| K|1 2 |,

et par suite, K < 1 = 1 = 2 .

Remarque 8.3. 1. est contractante sur [a, b] = est continue sur [a, b].
2. Plus la constante de Lipschitz K est petite, plus la convergence est rapide.

3. Dans la pratique, il faut d'abord dterminer l'intervalle sur lequel la fonction est contrac-
tante (si elle l'est !) puis ventuellement le rduire pour que ([a, b]) [a, b].
4. L'ingalit (8.3) nous permet d'estimer le nombre susant d'itrations n pour approcher
avec une prcision  donne, il sura de prendre
 
(1K)
ln |x1 x0 |
n= + 1.
ln K
8.3. MTHODE DU POINT FIXE (DES APPROXIMATIONS SUCCESSIVES) 99

5. En pratique, on arrte le processus xn+1 = (xn ) si l'erreur relative |xn+1 xn |


|xn+1 |
0 o 0 est
la prcision relative, (ou si l'erreur absolue |xn+1 xn |  lorsque xn+1 ' 0).

Il est important d'avoir un critre pratique assurant qu'une fonction est contractante (Lip-
schitzienne, avec 0 < K < 1).
Proposition 8.1. Soit une fonction drivable sur [a, b] R.
0
Si | (x)| K x [a, b], alors est KLipschitzienne sur [a, b].

Dmonstration. Soient x, y [a, b]. Puisque [x, y] [a, b], on a


Z y Z 1
(y) (x) = 0
(s)ds = 0 (x + t(y x))(y x)dt ( posons s = x + t(y x))
x 0

donc, R
1 0
|(y) (x)| = 0 (x + t(y x))(y x)dt

R1
0 |0 (x + t(y x))||(y x)|dt K|y x|.
Ou bien, on utilise la formule des accroissements nis :
(y) (x) = 0 ()(y x), o ]x, y[,
donc
|(y) (x)| = |0 ()||y x| K|y x|.

Remarque 8.4. 1. Si f C 1 ([a, b]), alors

max |0 (x)| < 1 = est contractante sur [a, b] avec K = max |0 (x)|.
x[a,b] x[a,b]

2. Cette proposition est bien utile car il est beaucoup plus facile de regarder le max de 0 que
de vrier que est contractante.

3. Attention : (x) = x + x1
soit la fonction pour x 1. On a 0 (x) = 1 1
x2
, alors
|0 (x)| < 1, x [1, +[ mais sup |0 (x)| = 1 et
x1

|(x) (y)| < |x y|.


Pourtant x = (x) x1 = 0!
n'a pas de point xe, en eet

Proposition 8.2. L'image d'un intervalle ferm born [a, b] par une fonction continue est un
intervalle ferm born. Autrement dit : si est continue sur [a, b] alors

([a, b]) = [m, M ] o m = min (x) et M = max (x).


x[a,b] x[a,b]

De plus,
1. = ([a, b]) = [(a), (b)].
est croissante

2.
est dcroissante = ([a, b]) = [(b), (a)].

Proposition 8.3. Soit une fonction continue au voisinage de tel que () = .


0
1. Si | ()| < 1, alors il existe un intervalle [a, b] contenant pour lequel la suite (xn )n dnie
par (8.2) converge vers , x0 [a, b]
0
2. Si | ()| > 1, alors pour tout intervalle rel [a, b] contenant ,
soit x0 [a, b] (x0 6= ), la suite (xn)n dnie par (8.2) ne converge pas vers
(on dit que la suite (xn ) diverge), soit elle est stationnaire en partir d'un certain rang.
On dit alors de qu'il est un point xe rpulsif.
100 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

Etude de quelques cas (suivant )


Les exemples qui suivent montrent que les transformations en x = (x) aboutissent des com-
portements dirents :

1. Si f (x) = x2 + 3ex 12 = 0, on peut l'crire sous les direntes formes :

x = x + f (x) = 1 (x), x R.
x = x f (x) = 2 (x), x R.

x = 12 3ex = 3 (x), x ln 4.
2
x = ln( 12x
3
) = 4 (x), 2 3 < x < 2 3.
2. Soit f (x) = tan x x. Cette fonction admet une seule racine dans [, 3
2
]. On peut crire
l'quation f (x) = 0 sous les deux formes suivantes :
a) x = tan x = 1 (x) et b) x = arctan x = 2 (x).
Cas a) : |01 (x)| = 1 + tan2 x > 1, x [, 3
2
], alors
la mthode du point xe correspondante diverge.

Cas b) : |02 (x)| = 1+x


1 3
2 < 1, x [, 2 ], alors
3
la fonction 2 est contractante sur [, 2 ].

3. Soit f (x) = x2 6x + 8 = 0. Cette fonction admet deux racines : 1 = 2 et 2 = 4.


On peut crire l'quation f (x) = 0 sous les deux formes suivantes :
2
i) x = x 6+8 = 1 (x) et ii) x = 6x 8 = 2 (x).
Cas i) : |01 (x)| =|x|
3
< 1 = |x| < 3, alors
la mthode du point xe correspondante converge vers 1 = 2 si on prend, par exemple
[a, b] = [1, 25 ].
Cas ii) : |02 (x)| = | 6x8
3
| < 1 = x > 17
6
' 2.82, alors
la mthode du point xe correspondante converge vers 2 = 4 si on prend, par exemple
[a, b] = [3, 5].

Interprtation gomtrique

0 () < 1
8.3. MTHODE DU POINT FIXE (DES APPROXIMATIONS SUCCESSIVES) 101

0 () > 1

1 < 0 () < 0

8.3.1 Ordre de convergence d'une mthode itrative


En plus de la convergence d'une mthode itrative xn+1 = (xn ), x0 donn ; il est important
de connatre la rapidit de cette convergence. On souhaite savoir la relation entre l'erreur d'ap-
proximation d'une tape n et celle de l'tape (n + 1), ceci nous conduit la dnition suivante :

Dnition 8.2. Une mthode itrative dnie par xn+1 = (xn ) est d'ordre p ssi k R+
telles que
|xn+1 | |en+1 |
lim p
= lim = k,
n+ |xn | n+ |en |p

o le terme en = xn est l'erreur l'tape n.

Dans le cas o est p fois drivables sur [a, b], le dveloppement de Taylor autour de donne :

xn+1 = (xn ) ()
(xn )2 00 (xn )p (p)
= (xn )0 () + 2!
() + ... + p!
() + (xn )p n (xn ),

avec lim n (xn ) = 0.


n+
102 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

 Si0 () 6= 0, on obtient xn+1 0 ()(xn ) ((xn )a , a 2 est assez petit devant (xn
) quad n grand), d'o lim |e|en+1n|
|
= |0 ()| =
6 0 = p = 1.
n+
0 00 (xn )2 00
 Si () = 0 et () 6= 0, on obtient xn+1 2
(), d'o

|en+1 | 1
lim 2
= |00 ()| =
6 0 = p = 2.
n+ |en | 2

 La mthode est dite d'ordre p si et seulement si 0 () = 00 () = . . . = (p1) () = 0 et


(p)
() 6= 0.
Remarque 8.5.
Si p = 1, la convergence est dite linaire. Ce qui est le cas gnral des mthodes d'aproxima-
tions successives.
 Si p = 2, la convergence est dite quadratique.
 Si p = 3, la convergence est dite cubique.

Ordre et rapidit de convergence. Supposons qu'on a deux mthodes telles que :


|xn+1 |
Mthode (1) : |xn |
= 0.75.
|xn+1 |
Mthode (2) : |x |2
n
= 0.75.
Mthode (1) : |xn+1 | = 0.75|xn | = (0.75)2 |xn1 | = ... = (0.75)n |x0 |.

Mthode (2) :
|xn+1 | = 0.75|xn |2 = (0.75)(0.75|xn1 |2 )2
= (0.75)3 |xn1 |4
n+1 1 n+1
= (0.75)2 |x0 |2 .

Question : Quel est pour chacune des deux mthodes, le nombre minimal d'itrations pour
avoir une erreur 108 , en supposant que |x0 | = 0.5 ?
n 8
mthode (1) : |xn+1 | = (0.75) |x0 | 10 n 62.
2n+1 1 2n+1
mthode (2) : |xn+1 | = (0.75) |x0 | 108 n 4.
Donc la deuxime mthode converge plus rapidement que la premire.
D'o, plus l'ordre p est grand, plus vite l'erreur dcrot.
F (XN )
8.4. MTHODES DE TYPE XN +1 = (XN ) = XN G(XN )
103

8.4 Mthodes de type xn+1 = (xn) = xn fg(x


(xn )
n)

Dans cette catgorie de mthodes, a la forme particulire (x) = x fg(x)


(x)
. Il est clair que, sous
certaines conditions sur g, un point xe de est une racine de f.

8.4.1 Mthode de Newton-Raphson (mthode de la tangente)


La mthode de Newton-Raphson est une mthode de type point xe pour la fonction

f (x)
(x) = x
f 0 (x)

Supposons qu'on a dtermin un intervalle [a, b] dans lequel f admet une racine spare .

Interprtation gomtrique

Graphiquement la mthode de Newton-Raphson fonctionne comme suit :


partir d'un point x0 bien choisi dans [a, b], x1 est l'abscisse du point d'intersection de la
tangente de graphe de f au point (x0 , f (x0 )) avec l'axe des abscisses. D'o

0 f (x0 ) f (x0 ) f (x0 )


f 0 (x0 ) = = = x1 = x0 0 ( si f 0 (x0 ) 6= 0),
x1 x0 x1 x0 f (x0 )

en rptant le processus sur x1 on obtient un point x2 , et ainsi de suite.


Les points (xn )nN vrient donc la relation de rcurrence :

f (xn )
xn+1 = xn , n 0,
f 0 (xn )
1
c'est la formule de Newton-Raphson la plus utilise dans la recherche des racines de f.
Thorme 8.2. Soit f C 2 ([a, b]) vriant

1. f (a).f (b) < 0;


2. f 0 (x) 6= 0 x [a, b], ( c..d : f0 ne change pas de signe dans [a, b]) ;
3. f 00 (x) 6= 0 x [a, b], ( c..d :f
00
ne change pas de signe dans [a, b]).
1 Joseph Raphson 1648-1715
104 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

Alors

a) f admet une racine unique dans [a, b],


b) la suite (xn )n converge vers x0 [a, b] vriant f (x0 )f 00 (x0 ) > 0. De plus, cette conver-
gence est quadratique tel que

xn+1 f 00 ()
lim =
n+ (xn )2 2f 0 ()
Dmonstration.
a) D'aprs le thorme des valeurs intermdiaires, les conditions (1) et (2) impliquent l'existence
et l'unicit de [a, b] telle que f () = 0.
b) Montrons la convergence de (xn )n vers .
i) Etudions la bornitude de la suite (xn )n On a xn+1 = xn f (xn )
f 0 (xn )
, alors

f (xn )
xn+1 = xn f 0 (xn )
f ()f (xn )
= xn + f 0 (xn )
(f () = 0). (1)

Le dveloppement de Taylor de f au voisinage de xn l'ordre 2 donne

( xn )2 00
f () = f (xn ) + ( xn )f 0 (xn ) + f (n ), min(xn , ) n max(xn , ).
2!
En substituant l'expression de f () dans (1), on obtient
(x )2
f (xn )+(xn )f 0 (xn )+ n
f 00 (n )f (xn )
xn+1 = xn + 0
f (xn )
2!

(xn )2 f 00 (n )
= 2! f 0 (xn )

D'o les deux cas suivants :


1. f 0 et f 00 sont de mme signe = xn+1 > , n N, c..d. (xn ) est minore par .
2. f 0 et f 00 sont de signes dirents = xn+1 < , n N, c..d. (xn ) est majore par
.
ii) Etudions la monotonie de la suite (xn )nN . On distingue quatre cas :
Cas (1) f 0 (x) > 0 et f 00 (x) > 0 x [a, b].
Cas (2) f 0 (x) > 0 et f 00 (x) < 0 x [a, b].
Cas (3) f 0 (x) < 0 et f 00 (x) < 0 x [a, b].
Cas (4) f 0 (x) < 0 et f 00 (x) > 0 x [a, b].
Cas (1) Soit f 0 (x) > 0 et f 00 (x) > 0, x [a, b], alors xn > , n N.
Supposons que x0 est choisi de sorte que f (x0 ).f 00 (x0 ) > 0 et montrons que (xn )n est
dcroissante. On raisonne par rcurrence :
Pour n = 0 : x1 = x0 ff0(x(x00)) x1 x0 = ff0(x(x00)) < 0; en eet on choisit x0 tel que
f (x0 ) > 0 car f 00 (x0 ) > 0. Donc x1 x0 < 0 x1 < x0 .
Pour n N : xn+1 xn = ff0(x(xnn)) < 0; en eet
xn > , n N

f (xn ) > f () = 0, n N ,
f croissante sur [a, b]
F (XN )
8.4. MTHODES DE TYPE XN +1 = (XN ) = XN G(XN )
105

donc xn+1 xn < 0 xn+1 < xn n N .


Conclusion n N, xn+1 < xn , donc la suite (xn )nN est dcroissante minore, d'o
elle est convergente.

Cas (2) Soit f 0 (x) > 0 et f 00 (x) < 0, x [a, b], alors xn < , n N. Supposons que x0
est choisi de sorte que f (x0 ).f 00 (x0 ) > 0 et montrons que (xn )n est croissante.
Pour n = 0 : x1 = x0 ff0(x(x00)) x1 x0 = ff0(x(x00)) >; en eet, on choisit x0 tel que
f (x0 ) < 0 car f 00 (x0 ) < 0. Donc x1 x0 > 0 x1 > x0 .
Pour n N : xn+1 xn = ff0(x(xnn)) > 0; en eet,
xn < , n N

f (xn ) < f () = 0, n N ,
f croissante sur [a, b]
donc xn+1 xn > 0 xn+1 > xn n N .
Conclusion n N, xn+1 > xn , donc la suite (xn )nN est croissante majore, d'o elle
est convergente.
De la mme manire on traite les deux autres cas.

Commentaires : Il est trs important de choisir x0 aussi proche que possible de , sinon, non
seulement la suite (xn )nN peut converger vers une autre racine, mais peut aussi diverger.
Conclusion sur la mthode de Newton-Raphson
1. Avantage principal : en rgle gnrale, la convergence de cette mthode (si elle a lieu)
est quadratique (d'ordre 2) telle que |xn+1 | = k|xn |2 , k R, (celle du point xe
quelconque est, en gnral, d'ordre 1 |xn+1 | = k|xn |, k R).
2. Inconvnients :
a) choix du point de dpart x0 pour avoir la convergence,
b) calcul, chaque tape,
0
de f (xn ) en plus de f (xn ).

8.4.2 Mthode de la scante


Dans certaines situations, la drive de f0 est trs complique ou mme impossible expliciter.
On ne peut pas alors utiliser telle qu'elle la mthode de Newton-Raphson. L'ide est de remplacer
f 0 par le taux d'accroissement de f sur un petit intervalle [xn1 , xn ] :
xn xn1
xn+1 = xn f (xn ) , n 1.
f (xn ) f (xn1 )
Remarque 8.6. On notera que l'algorithme itratif ne peut dmarrer que si on dispose dj de
deux valeurs approches x 0 , x1 de .

8.4.3 Mthode de la corde


Cette mthode est obtenue en remplaant f 0 (xn ) par une constante Q xe dans la formule de
Newton-Raphson :
f (xn )
xn+1 = xn , n 0.
Q
f (b)f (a)
On peut prendre par exemple Q = f 0 (x0 ), ou bien Q= ba
, dans le cas o l'on cherche une
racine dans l'intervalle [a, b].
106 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

8.5 Conclusion
1. L'avantage de la mthode du point xe est que si elle converge, elle convergera quelle que
soit la valeur initiale choisie dans l'intervalle de convergence. Son inconvnient principal
est sa lenteur de convergence, on peut nanmoins l'acclrer.

2. La mthode de Newton-Raphson est plus rapide car la vitesse de convergence est d'ordre au
moins 2 ; la dicult rside dans le choix de la valeur initiale !

3. Les direntes mthodes proposes ont leurs avantages et leurs inconvnients, on choisira
celle qui convient le mieux au problme pos ! On voit qu'il est donc ncessaire d'tudier
correctement les algorithmes avant de se lancer dans la programmation ! C'est la dmarche
obligatoire en analyse numrique.
8.6. EXERCICES 107

8.6 Exercices
Exercice 8.2. On considre la fonction f dnie par f (x) = x3 ex , x R.
1. Sparer les racines de f, puis montrer que f (x) = 0 admet une solution relle unique et
1
que [ 2 , 1].

2. Dterminer, par la dichotomie, une approximation de 5.102 prs en utilisant le test


d'arrt |xn+1 xn | . Dterminer le nombre d'itrations susant pour avoir cette prcision
en utilisant la formule de l'erreur. Commenter.

Exercice 8.3. On considre l'quation :

1
x = f (x) = (ex + x), x [0, 1], R+ . (8.4)
+1
1. a) Montrer que les hypothses du thorme du point xe sont vries par f dans l'intervalle
[0, 1].
b) En dduire que l'quation (8.4) admet une solution spare
1
[ +1 , 1].
2. Soit l'quation :
F (x) = ex x = 0. (8.5)
a) Quelle relation y a t-il entre les quations (8.4) et (8.5) ?
b) Les hypothses du thorme de Newton sont elles vries dans l'intervalle [0,1] ?
c) Trouver un sous intervalle I ferm de [0, 1] dans lequel l'algorithme de Newton appliqu
l'quation (8.5) converge x0 I.
Exercice 8.4. Soit l'quation f (x) = 0 o f (x) = x2 ex + 2x 1, x R.
1. Montrer que l'quation f (x) = 0 admet une seule solution relle positive s. Vrier que
3 1
s [ 10 , 2 ].
3 1
2. Montrer que la mthode de Newton est applicable sur [ 10 , 2 ].
3. Approcher s 0, 5.103 prs, par cette mthode.

Exercice 8.5.
On considre la matrice A dnis par :

0 1 1
A = 0 0 12
2 2 0

a) Montrer que P () = det(A I3 ) = 3 3 + 1.


b) Sparer graphiquement les racines de P et vrier que P admet une racine spare [ 101 , 31 ].
c) Dterminer une fonction telle que la suite dnie par : n+1 = (n ), n 0 converge vers
1 1
, 0 [ 10 , 3 ].
d) Pour 0 = 13 , calculer 1 et 2 avec 5 chires signicatifs, puis estimer l'erreur |2 |.
a) Montrer que l'algorithme de Newton associ l'quation P () = 0 s'crit :

23n + 1
 
1
n+1 = , n 0.
3 2n + 1

b) Montrer que l'algorithme de Newton converge vers


1 1
, 0 [ 10 , 3] vriant une certaine
condition prciser.
108 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

c) En utilisant le thorme des accroissement nis la fonction P sur l'intervalle [, n+1 ] ou


( [n+1 , ]) et le dveloppement de Taylor de la fonction P l'ordre 2 en n suivant :

(n+1 n )2 0
f (n+1 ) = f (n ) + (n+1 n )f 0 (n ) + f (n )
2!
o n ]n+1 , n [ (ou ]n , n+1 [ ). Montrer que

M
|n+1 | |n+1 n |2
2m
o M = max
1 1
|P 00 ()|, m = min
1 1
|P 0 ()|.
x[ 10 , 3 ] x[ 10 , 3 ]

d) Pour 0 = 13 , calculer 1 et 2 avec 5 chires signicatifs, puis estimer l'erreur |2 |.


Comparer la rapidit de convergence des deux mthodes (Newton et point xe).

Exercice 8.6. Soit la fonction f dnie par : f (x) = e1 x + 43 ex , x R.


1. Montrer que l'quation f (x) = 0 admet deux racines relles positives et o [0, 1] et
[1, e].
2. a) Montrer que l'quation f (x) = 0 est quivalente sur [1, e] l'quation (x) = x o
(x) = 34 e e1x
b) La fonction vrie-t-elle les conditions du thorme du point xe sur l'intervalle [1, e]?
c) Montrer que la suite itrative xn+1 = (xn ), n 0 converge vers la racine x0
1
[1 + 10
, e].
d) En prenant x0 = 1, 1; calculer x2 et estimer l'erreur |x2 |.
e 1e
(Indication : e = 0, 0660 et e = 0, 1794)
Exercice 8.7. Soit la fonction f dnie par :

f (x) = ex x + 1, x R.

1. Montrer que l'quation f (x) = 0 admet une solution spare dans l'intervalle [1, 2].
2. Dterminer un intervalle I et une fonction tels que la mthode du point xe converge vers
la solution , en prenant x0 = 1.
Exercice 8.8. On considre la fonction f dnie par : f (x) = x2 ln(x + 1), x I = [ 21 , 1].
1. Montrer graphiquement que f (x) = 0 admet une seule solution relle strictement positive
1
et que [ 2 , 1].

2. Montrer que l'quation f (x) = 0 est quivalente aux quations x = i (x), i = 1, 2 dans I.
x2
p
o 1 (x) = ln(x + 1), 2 (x) = e 1, x I.
3. Montrer que 1 vrie les hypothses du thorme du point xe dans I, conclure.

4. En prenant x0 = 0, dterminer le nombre d'itrations susant pour approcher 101


prs, par la mthode des approximations successives, calculer cette approximation.

x0 I,
5. La suite itrative converge-t-elle, x0 I?
xn+1 = 2 (xn ), n 0,

Exercice 8.9. Montrer que la suite (xn )n converge vers 2 pour tout x0 [1, +[,
 
o n N , xn = 1
2
xn1 + 2
xn1
.
8.6. EXERCICES 109

Exercice 8.10. Soit f f (x) = x3 ex .


dnie par
1
1. Montrer que l'quation f (x) = 0 admet une seule solution relle puis vrier que [ 2 , 1].

a)
xn
2. Montrer que la suite x0 [ 12 , 1], xn+1 = e 3 converge vers .
b) Pour x0 = 1, dterminer n le nombre d'itrations minimal pour que |xn | 5.102 .
3. a) Peut-on appliquer la mthode de Newton dans [ 12 , 1]? Donner l'expression de (xn )n en
prcisant le choix de x0 .
b) Calculer 5.102 prs, partant de x0 = 1. Exprimer le rsultat au dernier c.s.e.

4. Conclure.

Exercice 8.11. Soit f la fonction dnie par : f (x) = x + sin x 1, x R.


1. Montrer que la fonction f admet une racine spare dans l'intervalle [0, ].

2. Montrer que l'quation f (x) = 0 est quivalente l'quation x = (x) o (x) = 1 sin x
3. a) Montrer que la fonction vrie les hypothses du thorme du point xe dans l'inter-
valle [0, 39, 0, 65]
b) Quel est le nombre d'itrations susant pour approcher 102 prs en partant de
x0 = 0, 39.
4. Montrer que l'quation f (x) = 0 est aussi quivalente l'quation x = (x) o (x) =
(x) + (1 )x, est un paramtre rel et est la fonction donne en deuxime question.

5. Dans cette question on prend = 0, 6.


a) Montrer que la fonction vrie les hypothses du thorme du point xe dans l'inter-
valle [0, 39, 0, 65]
b) Quel est le nombre d'itrations susant pour avoir une valeur approche de 102
prs en partant de x0 = 0, 39.
6. Avec quelle fonction est-il prfrable de travailler, justier votre rponse

7. a) Montrer que la mthode de Newton est applicable dans l'intervalle [0, 39, 0, 65]
b) Calculer une valeur approche de 102 prs par la mthode de Newton.

8. Quelle mthode est-il prfrable d'utiliser.

Exercice 8.12. I. (Mthode de la scante) : Soit f : [a, b] R une fonction de classe C 2 dans
[a, b]. On fait de plus les hypothses suivantes

(H1) : f (a)f (b) < 0,


(H2) : f 0 (x) > 0, x [a, b],
(H3) : f 00 (x) > 0, x [a, b].
On considre le processus itratif

b xn
xn+1 = xn f (xn ) et x0 = a.
f (b) f (xn )
1. Donner une interprtation gomtrique de ce processus.

2. Montrer que (xn )n converge vers x solution exacte de f (x) = 0.

II. On considre le processus itratif xn+1 = (xn), x0 [1, ] o

1 2 1
(x) = x +x+ , > 1.
2 2
110 CHAPITRE 8. RSOLUTION DES QUATIONS NON LINAIRES

1. Montrer que est contractante dans [1, ] et que [1, ] est stable par .
2. En dduire que le processus converge vers calculer.

3. Montrer que si x0 = 1, alors

1 1
|xn | (1 )n+1 .
2

III. Application numrique : Soient


1 1
f (x) = x2 , [a, b] = [1, 2], = 2, x0 = 1.
4 2
1. Montrer que l'quation (x) = x est quivalente l'quation f (x) = 0.

2. Dterminer, par la mthode de la scante, une approximation de la solution exacte 1 de


1
l'quation f (x) = 0 = 10 prs en utilisant le test d'arrt |xn+1 xn | .

3. Dterminer le nombre d'itrations permettant de calculer une valeur approche de 1 101


prs, par la mthode du point xe. Calculer cette approximation.

4. Quelle est la mthode la plus avantageuse ?

Exercice 8.13.
x
On considre la fonction g dnie par : g(x) = 2
+ x1 , x > 0.
1. Montrer que l'quation g(x) = x admet une solution unique dans [1, 3].

2. Calculer 5 103 prs en arrondissant au nombre de chires signicatifs exacts. Jus-


tier le choix de la mthode d'approximation.

3. Montrer que la fonction g est la fonction de Newton-Raphson d'une certaine fonction f que
l'on explicitera.
x A
4. En dduire que la mthode du point xe pour la fonction dnie par (x) = + , x>
2 2x
0 (A > 0), est un moyen de dterminer A.
Chapitre 9
Rsolution des quations direntielles
ordinaires

9.1 Position du problme


On appelle quation direntielle une quation reliant une fonction et ses drives successives.
Si l'quation ne fait intervenir que la fonction et sa drive, on parle d'quation du premier
ordre. Nous prenons comme point de dpart, une quation direntielle du premier ordre avec
condition initiale.
Soient f : [t0 , T ] R R une fonction susamment direntiable et y0 R.
La tche consiste dterminer une fonction y : [t0 , T ] R solution du problme de Cauchy :
0
y (t) = f (t, y(t)), t [t0 , T ]
(9.1)

y(t0 ) = y0 ( condition initiale ou condition de Cauchy ).
La rsolution numrique des quations direntielles est probablement le domaine de l'analyse
numrique o les applications sont les plus nombreuses. Que ce soit en mcanique des uides,
en transfert de chaleur ou en analyse de structures, on aboutit souvent la rsolution d'qua-
tions direntielles, de systmes d'quations direntielles ou plus gnralement d'quations aux
drives partielles.
La prcision des diverses mthodes de rsolution proposes dans ce cours est proportionnelle
l'ordre de ces mthodes. Nous commenons le cours par des mthodes relativement simples
ayant une interprtation gomtrique. Elles nous conduiront progressivement des mthodes plus
complexes telles les mthodes de Runge-Kutta d'ordre 4, qui permettent d'obtenir des rsultats
d'une grande prcision.

Remarque 9.1. La variable indpendante t reprsente trs souvent (mais pas toujours) le
temps. La condition initiale y(t0 ) = y0 est en quelque sorte l'tat de la solution au moment
o on commence s'y intresser. Il s'agit d'obtenir y(t) pour t [t0 , T ] si on cherche une
solution analytique, ou une approximation de y(t), si on utilise une mthode numrique.

Commenons par prsenter quelques exemples des problmes de Cauchy qu'on peut rsoudre
analytiquement :

Exemple 9.1. Soit le problme de Cauchy suivant :


0
y (t) = t, t [0, 1]

y(0) = 1.

111
112 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

Cet exemple est l'un des exemples les plus simples que l'on puisse imaginer. En intgrant de
2
chaque ct, on aura y(t) = t2 + c o c est une constante relle, pour dterminer cette
constante, il sut d'imposer la codition initiale, y(0) = 1. On obtient

t2
y(t) = + 1, t [0, 1].
2
Exemple 9.2. Soit le problme de Cauchy :
0
y (t) = y, t [0, 1]

y(0) = 0.

Il sut pas dans ce cas d'intgrer les deux ctes de l'quation pour obtenir la solution. On doit
d'abord sparer les variables en crivant par exemple :

dy
= dt, y 6= 0
y

on peut maintenant faire l'intgration de deux ctes on aura

 2
t+c
2 y = t + c y(t) =
2
2
y(0) = 0 c = 0. Donc y(t) = t4 est une solution du problme
puis, donn.
Remarquons aussi que y 0 est une solution de notre problme.

Exemple 9.3. Soit le problme de Cauchy :

= t lny t +
0 1
y ln t
, t [e, 5]

y(e) = e.

L'quation direntielle de ce problme est linaire du premier ordre. En appliquant la mthode


lmentaire pour rsoudre ce type des quations, on obtient

t+c
y(t) = o c est une constante relle arbitraire,
ln t
t
puis la codition initiale donne c = 1. La solution du problme donn est alors y(t) = ln t
.
Le thorme suivant nous donne des conditions susantes qui assurent l'existence et l'unicit
de la solution (thorique) du problme (9.1).
Thorme 9.1. Soit f : [t0 , T ] R R une fonction telle que

1. f est continue sur [t0 , T ] R.


2. f est Lipschitzienne par rapport la deuxime variable, c'est dire il existe une constante
L > 0 telle que pour tout t [t0 , T ] et y1 , y2 R, on ait :

|f (t, y1 ) f (t, y2 )| L|y1 y2 |.


1
Alors, le problme de Cauchy (9.1) admet une unique solution y C 1 ([t0 , T ], R).
1 Augustin Louis Cauchy, franais, 1789-1857
9.2. MTHODE D'EULER 113

Remarque 9.2. 1. Remarquons que la fonction f (t, y) = t lny t + ln1 t est continue sur ]0, +[R,
donc elle est continue sur l'intervalle [e, 5] R. De plus, elle est Lipschitzienne par rapport y
sur [e, 5] avec la constante de Lipschitz L = 1e . En eet ; pour tout t [e, 5] et y 1 , y2 R on a

y1 1 y2 1
|f (t, y1 ) f (t, y2 )| = | t ln t
+ ln t
+ t ln t
ln t
|

1
= |y
t ln t 1
y2 |

1
|y
e 1
y2 |,

ce qui justie l'unicit de la solution du troisime problme qu'on a trouv analytiquement.


2. Par contre le second membre du deuxime problme f (t, y) = y n'est pas Lipschitzien par
rapport y. En eet ; Pour y1 R quelconque et y2 = 0 on a


|f (t, y1 ) f (t, y2 )| = | y1 0| = y1 y1 .

D'o, la possibilit d'avoir plus d'une solution de ce problme, (analytiquement on a trouv deux
t2
solutions y1 (t) = 0 et y2 (t) = 4 sur [0, 1]).

On peut rsoudre analytiquement que quelques types d' quations direntielles (par
exemple les quations variables sparables, linaire, Bernoulli, Riccati...) mais
il y a une large classe d'quations direntielles non rsolubles analytiquement.
La rsolution numrique est ici essentielle. Dans la suite, nous nous placerons dans les
conditions du thorme 9.1.

Remarque 9.3. 1. Avec les outils numriques de rsolution d'quations direntielles il n'est
pas possible d'obtenir une solution pour toutes les valeurs de la variable t. On obtient plutt
une approximation de la solution analytique seulement pour certaines valeurs de t notes ti
et distances d'une valeur hi = ti+1 ti . Dans les mthodes prsentes, cette distance est
constante pour tout i et est note h. On l'appelle le pas de temps.
2. On note y(ti ) la solution analytique de l'quation direntielle (9.1) en t = ti , et yi la
solution approximative en t = ti l'aide d'une mthode numrique.

Mthodes numriques un pas

9.2 Mthode d'Euler


Reprenons l'quation direntielle de (9.1) et la condition initiale y(t0 ) = y0 . Le but est d'obtenir
une approximation de la solution en t = t1 = t0 + h. Avant d'eectuer la premire itration, il
faut dterminer dans quelle direction on doit avancer partir du point (t0 , y0 ) pour obtenir le
point (t1 , y1 ), qui est une approximation du point (t1 , y(t1 )).
L'quation direntielle (9.1) assure que :

y 0 (t0 ) = f (t0 , y(t0 )) = f (t0 , y0 ).

On peut donc suivre la droite passant par (t0 , y0 ) et de pente f (t0 , y0 ). L'quation de cette droite,
note d0 (t), est :
d0 (t) = f (t0 , y0 )(t t0 ) + y0
et est illustre par la gure (A)
114 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

En t = t1 , on a :

d0 (t1 ) = f (t0 , y0 )(t1 t0 ) + y0 = y0 + hf (t0 , y0 )) = y1 .

En d'autres termes, d0 (t1 ) est proche de la solution analytique y(t1 ), c'est dire

y(t1 ) ' y1 = d0 (t1 ) = y0 + hf (t0 , y0 ).

Il est important de noter que, le plus souvent, y1 6= y(t1 ). Donc si on souhaite faire une deuxime
itration et obtenir une approximation de y(t2 ), on peut refaire l'analyse prcdente partir du
point (t1 , y1 ). on remarque cependant que la pente de la solution analytique en t = t1 est :

y 0 (t1 ) = f (t1 , y(t1 )).

On ne connat pas exactement y(t1 ), mais nous possdons l'approximation y1 de y(t1 ). On doit
alors utiliser l'expression :

y0(t1 ) = f (t1 , y(t1 )) ' f (t1 , y1 )


et construire la droite
d1 (t) = f (t1 , y1 )(t t1 ) + y1 ,
qui permettra d'estimer y(t2 ). On a alors

y(t2 ) ' y2 = y1 + hf (t1 , y1 ).


On remarque que l'erreur commise la premire itration est rintroduite dans les calculs de la
deuxime itration.
9.3. MTHODES DE TAYLOR 115

Algorithme d'Euler2
(1) Etant donn un pas h, une condition initiale (t0 , y0 ), et un nombre maximal d'itrations N.
(2)
Pour 0nN
yn+1 = yn + hf (tn , yn )

et tn+1 = tn + h

crire tn+1 et yn+1 .


(3) Arrt.

Remarque 9.4. La mthode d'Euler est de loin la mthode la plus simple de rsolution num-
rique d'quations direntielles ordinaires. Elle possde une belle interprtation gomtrique et
son emploi est facile. Toutefois, elle est relativement peu utilise en raison de sa prcision.

Exemple 9.4. Soit l'quation direntielle

y 0 (t) = y(t) + t + 1


y(0) = 1.
On prend h = 0, 1 et f (t, y) = y + t + 1. Le tableau suivant rassemble les rsultats des dix
premires itrations. On peut montrer que la solution analytique de cette quation est :

y(t) = et + t,
ce qui permet de comparer les solutions numrique et analytique et de constater la croissance
de l'erreur
ti y(ti ) yi |y(ti ) yi |
0, 0 1, 000000 1, 000000 0, 000000
0, 1 1, 004837 1, 000000 0, 004837
0, 2 1, 018731 1, 010000 0, 008731
0, 3 1, 040818 1, 029000 0, 011818
0, 4 1, 070302 1, 056100 0, 014220
0, 5 1, 106531 1, 090490 0, 016041
0, 6 1, 148812 1, 131441 0, 017371
0, 7 1, 196580 1, 178297 0, 018288
0, 8 1, 249329 1, 230467 0, 018862
0, 9 1, 306570 1, 287420 0, 019150
1, 0 1, 367879 1, 348678 0, 019201

9.3 Mthodes de Taylor


Le dveloppement de Taylor autorise une gnralisation immdiate de la mthode d'Euler, qui
permet de diminuer l'erreur d'approximation. Nous nous limitons cependant la mthode de
Taylor du second ordre. On cherche, au temps t = tn , une approximation de la solution en
t = tn+1 . On a immdiatement :

y(tn+1 ) = y(tn + h)
y 00 (tn ) 2
= y(tn ) + y 0 (tn )h + 2
h + o(h2 ).
2 Leonhard Euler, 1707-1783
116 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

En se servant de l'quation direntielle (9.1), on trouve :

y(tn+1 ) = y(tn ) + f (tn , y(tn ))h + f 0 (tn , y(tn ))h2 + o(h2 )

et on a :
f (t, y(t)) f (t, y(t)) 0
f 0 (t, y(t)) = + y (t),
t y
donc
f (t, y(t)) f (t, y(t))
f 0 (t, y(t)) = + f (t, y(t)).
t y
Ainsi, on obtient

h2 f (tn , y(tn )) f (tn , y(tn ))


y(tn+1 ) = y(tn ) + hf (tn , y(tn )) + ( + f (tn , y(tn ))) + o(h2 ), (9.2)
2 t y
en ngligeant les termes d'ordres suprieurs ou gaux 3. D'o

h2 f (tn , y(tn )) f (tn , y(tn ))


y(tn+1 ) ' y(tn ) + hf (tn , y(tn )) + ( + f (tn , y(tn ))). (9.3)
2 t y
Cette relation sera la base de la mthode de Taylor.
Commentaire
En fait, la mthode de Taylor consiste approcher la solution de l'quation (9.1) par des arcs
de paraboles au lieu des segments de droites (des tangentes) utiliss dans la mthode d'Euler.

Algorithme de Taylor d'ordre 2


(1) Etant donn un pas de temps h, une condition initiale (t0 , y0 ), et un nombre maximal
d'itrations N.
(2)

Pour 0nN
h2 f (tn ,yn ) f (tn ,yn )
yn+1 = yn + hf (tn , yn ) + 2
( t + y
f (tn , yn ))

et tn+1 = tn + h

crire tn+1 et yn+1 .

(3) Arrt.

Remarque 9.5.
Dans cet algorithme, on a remplac la solution analytique y(tn ) par son approximation yn dans
la relation (9.3). On en conclut que les erreurs se propagent d'une itration une autre.

Exemple 9.5. Soit l'quation direntielle dj rsolue par la mthode d'Euler

y 0 (t) = y(t) + t + 1


y(0) = 1.
f f
On prend h = 0, 1. Dans ce cas f (t, y) = y + t + 1
et t (t, y) = 1, ty (t, y) = 1. Le
tableau suivant rassemble les rsultats des dix premires itrations ce qui permet de comparer les
9.4. MTHODES DE RUNGE-KUTTA 117

solutions numrique et analytique et de constater la croissance de l'erreur et la comparer avec


la mthode d'Euler
ti y(ti ) yi |y(ti ) yi |
0, 0 1, 000000 1, 000000 0, 000000
0, 1 1, 004837 1, 005000 0, 000163
0, 2 1, 018731 1, 019025 0, 000400
0, 3 1, 040818 1, 041218 0, 000482
0, 4 1, 070302 1, 070802 0, 000482
0, 5 1, 106531 1, 107075 0, 000544
0, 6 1, 148812 1, 149404 0, 000592
0, 7 1, 196580 1, 197210 0, 000625
0, 8 1, 249329 1, 249975 0, 000646
0, 9 1, 306570 1, 307228 0, 000658
1, 0 1, 367879 1, 368541 0, 000662
Remarque 9.6. On remarque que l'erreur est plus petite avec la mthode de Taylor d'ordre 2
qu'avec la mthode d'Euler.

Remarque 9.7. Si l'on veut encore rduire la marge d'erreur, on poursuive le dveloppement
de Taylor dans (9.2) jusqu' des termes d'ordre lev. On doit alors valuer les drives de la
fonction f (t, y(t)) d'ordre de plus en plus lev, ce qui ncessite le calcul supplmentaire de :

2f 2f 2f i+j f
, , , ..., .
t2 y 2 ty ti j

Pour cette raison, les mthodes obtenues sont diciles utiliser. pour contourner cette dicult
on dveloppe les mthodes de Runge-Kutta.

9.4 Mthodes de Runge-Kutta


Il serait avantageux de disposer de mthodes d'ordres de plus en plus leves tout en vitant les
inconvnients des mthodes de Taylor, qui ncessitent l'valuation des drives partielles de la
3 4
fonction f (t, y(t)). Une voie est trace par les mthodes de Runge -Kutta , qui sont calques sur
les mthodes de Taylor du mme ordre.

9.4.1 Mthodes de Runge-Kutta d'ordre 2


On a vu que le dveloppement de la mthode de Taylor passe par la relation :

h2 f (tn , y(tn )) f (tn , y(tn ))


y(tn+1 ) = y(tn ) + hf (tn , y(tn )) + ( + f (tn , y(tn ))) + o(h2 ) (9.4)
2 t y

Le but est de remplacer cette dernire relation par une expression quivalente possdant le mme
2
ordre de prcision (o(h )). On propose la forme :

y(tn+1 ) = y(tn ) + a1 hf (tn , y(tn )) + a2 hf (tn + a3 h, y(tn ) + a4 h) (9.5)


3 Carle Runge, 1856-1927
4 Martin Kutta, 1867-1944
118 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

o on doit dterminer les paramtres a1 , a2 , a3 et a4 de telle sorte que les expressions (9.4) et
(9.5) aient toutes les deux une erreur en o(h2 ). Pour y arriver, on doit utiliser le dveloppement
de Taylor en deux variables autour du point (tn , y(tn )). On a ainsi :

f (tn , y(tn )) f (tn , y(tn ))


f (tn + a3 h, y(tn ) + a4 h) = f (tn , y(tn )) + a3 h + a4 h + o(h)
t y

La relation (9.5) devient alors :

y(tn+1 ) = y(tn ) + (a1 + a2 )hf (tn , y(tn )) + a2 a3 h2 f (tnt,y(tn ))


(9.6)
+ a2 a4 h2 f (tny
,y(tn ))
+ o(h2 )
On voit immdiatement que les expressions (9.4) et (9.6) sont de mme ordre. Pour dterminer
les coecients ai , i = 1, 2, 3, 4, il sut de comparer ces deux expressions terme terme. On
obtient un systme non linaire de 3 quations 4 inconnues :


a1 + a2 = 1
a2 a3 = 21 (9.7)
a2 a4 = f (tn ,y(tn)

2

Le systme (9.7) a moins d'quations que d'inconnues et donc n'a pas de solution unique. Cela
ore une marge de manoeuvre qui favorise la mise au point de plusieurs variantes de la mthode
de Runge-Kutta. Voici le choix le plus couramment utilis.

9.4.2 Mthode d'Euler modie


Cette mthode correspond au choix suivant des coecients ai :

1
a1 = a2 = , a3 = 1, et a4 = f (tn , y(tn )
2
Il sut ensuite de remplacer ces valeurs dans l'quation (9.5). Pour ce faire, on nglige le terme
2
en o(h ) et on remplace y(tn ) par son approximation yn . On obtient alors l'algorithme suivant :

Algorithme d'Euler modi


(1) Etant donn un pas de temps h, une condition initiale (t0 , y0 ) , et un nombre maximal
d'itrations N.
(2)
Pour 0nN
yb = yn + hf (tn , yn )

yn+1 = yn + h2 [f (tn , yn ) + f (tn+1 , yb)]

et tn+1 = tn + h

crire tn+1 et yn+1 .


(3) Arrt.
9.4. MTHODES DE RUNGE-KUTTA 119

Remarque 9.8.
Pour faciliter les calculs, l'valuation de yn+1 est faite en deux tapes. La variable temporaire yb
correspond tout simplement une itration de la mthode d'Euler. On fait ainsi une prdiction
yb de la solution en tn+1 qui est corrige (et amliore) la deuxime tape de l'algorithme.

Exemple 9.6.
Soit le problme de cauchy :
y 0 (t) = y(t) + t + 1


y(0) = 1.
On choisit le pas de temps h = 0, 1.
Itration 1 : yb = hf (t0 , y0 ) = 1
qui est le rsultat obtenu l'aide de la mthode d'Euler. La deuxime tape donne :

h
y1 = y0 + [f (t0 , y0 ) + f (t1 , yb)] = 1, 005.
2
Itration 2 : yb = hf (t1 , y1 ) = 1, 0145
La correction conduit son tour :

h
y2 = y1 + [f (t1 , y1 ) + f (t2 , yb)] = 1, 019025.
2

9.4.3 Mthode du point milieu


Une autre mthode de Runge-Kutta d'ordre 2 qui est trs utilise est la mthode du point milieu,
qui correspond au choix suivant des coecients ai .
1 f (tn , y(tn )
a1 = 0, a2 = 1, a3 = , et a4 = .
2 2
En remplaant ces valeurs des coecients ai dans l'quation (9.6), on obtient alors l'algorithme
suivant :

Algorithme du point milieu


(1) Etant donn un pas de temps h, une condition initiale (t0 , y0 ) , et un nombre maximal
d'itrations N.
(2)
Pour 0nN
K = hf (tn , yn )

yn+1 = yn + h[f (tn + h2 , yn + K


2
)]

et tn+1 = tn + h

crire tn+1 et yn+1 .


(3) Arrt.

Remarque 9.9. La mthode est dite du point milieu car la fonction f (t, y) est value au point
milieu de l'intervalle [tn , tn+1 ].
Remarque 9.10. Les mthodes d'Euler modie et du point milieu tant du mme ordre de
troncature locale, leur prcision est semblable. D'autre choix sont possibles pour les coecients
ai , mais nous nous limitons aux deux mthodes prcdentes.
120 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

9.4.4 Mthode de Runge-Kutta d'ordre 4


En reprenant le dveloppement de Taylor de la fonction f, mais cette fois l'ordre 5, un rai-
sonnement similaire celui qui a men aux mthodes de Runge-Kutta d'ordre 2 aboutit un
systme de 8 quations non linaires comprenant 10 inconnues. Le rsultat nal est la mthode
de Runge-Kutta d'ordre 4, qui reprsente un outil d'une grande utilit.

Algorithme de Runge-Kutta d'ordre 4


(1) Etant donn un pas de temps h, une condition initiale (t0 , y0 ) , et un nombre maximal
d'itration N
(2)

Pour 0nN
K 1 = hf (tn , yn )

K1
K 2 = hf (tn + h2 , yn + 2
)

K2
K 3 = hf (tn + h2 , yn + 2
)

K 4 = hf (tn + h, yn + K3 )

yn+1 = yn + 16 [K1 + 2K2 + 2K3 + K4 ]

et tn+1 = tn + h

crire tn+1 et yn+1 .


(3) Arrt.

Remarque 9.11. La mthode de Rung-Kutta d'ordre 4 est trs frquemment utilise en raison
de sa grande prcision qui est mise en vidence dans l'exemple suivant :

Exemple 9.7. Soit l'quation direntielle dj rsolue par la mthode d'Euler

y 0 (t) = y(t) + t + 1


y(0) = 1.
On prend h = 0, 1 et f (t, y) = y + t + 1.
Itration 1 :
K 1 = hf (t0 , y0 ) = 0
K 2 = hf (t0 + h2 , y0 + K1
2
) = 0, 005
K 3 = hf (t0 + h2 , y0 + K22 ) = 0, 00475
K 4 = hf (t0 + h, y0 + K3 ) = 0, 009525
ce qui entrane que : y1 = y0 + 61 [K1 + 2K2 + 2K3 + K4 ] = 1, 0048375.
Itration 2 :
K 1 = hf (t1 , y1 ) = 0, 00951625
K 2 = hf (t1 + h2 , y1 + K21 ) = 0, 014040438
K 3 = hf (t1 + h2 , y1 + K22 ) = 0, 0138142281
K 4 = hf (t1 + h, y1 + K3 ) = 0, 0187309014
ce qui entrane que : y2 = y1 + 61 [K1 + 2K2 + 2K3 + K4 ] = 1, 0187309014.
9.5. MTHODES UN PAS GNRIQUE 121

Le tableau suivant rassemble les rsultats des dix premires itrations ce qui permet de comparer
les solutions numrique et analytique et de constater la croissance de l'erreur, et la comparer
avec les mthodes (Euler, Taylor).

ti y(ti ) yi |y(ti ) yi |
0, 0 1, 0000000000 1, 000000 0
0, 1 1, 0048374180 1, 0048375000 0, 819 107
0, 2 1, 0187307798 1, 0187309014 0, 148 106
0, 3 1, 0408182207 1, 0408184220 0, 210 106
0, 4 1, 0703200460 1, 0703202889 0, 242 106
0, 5 1, 1065306597 1, 1065309344 0, 274 106
0, 6 1, 1488116361 1, 1488119343 0, 298 106
0, 7 1, 1965853034 1, 1965856186 0, 314 106
0, 8 1, 2493289641 1, 2493292897 0, 325 106
0, 9 1, 3065696598 1, 3065799912 0, 331 106
1, 0 1, 3678794412 1, 3678797744 0, 333 106
Remarque 9.12.
On constate que l'erreur se situe autour de 106 , ce qui se compare avantageusement avec les
erreurs obtenues l'aide de mthodes d'ordre moins lev (Euler, Taylor, Runge-Kutta d'ordre
2).

9.5 Mthodes un pas gnrique


Une mthode de rsolution numrique d'quations direntielles est dite un pas si elle est de
la forme :

yi+1 = yi + h(ti , yi , h),



ti+1 = ti + h, i = 0, 1, . . . , n, (9.8)




y0 = y(0),

o n est le nombre de subdivisions de l'intervalle [t0 , T ], : [a, b] R R+ R une fonction


que l'on supposera continue par rapport aux trois variables.
Choisir une mthode revient choisir la fonction . Quelles conditions imposer pour que la
mthode fonctionne ?

Exemple 9.8. 1. Mthode d'Euler :(t, y, h) = f (t, y).


2. Mthode du point milieu : (t, y, h) = f (t + h2 , y + h2 f (t, y)).
Dnition 9.1. (La convergence) Une mthode un pas est dite convergente sur [t0 , T ] si
quelle que soit y0 condition initiale on a

lim max |y(ti ) yi | = 0.


h0 0in

C'est dire, pour tout i = 0, . . . , n on a convergence de la solution approche yi vers la solution


exacte au point ti , y(ti ).
Dnition 9.2. (La consistance) Une mthode un pas est dite consistante si pour tout y
solution de y 0 = f (t, y) on a

1
lim max (y(ti+1 ) y(ti )) (ti , y(ti ), h) = 0.

h0 0in h
122 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

C'est dire, la mthode approche bien l'quation direntielle.

Dnition 9.3. (La stabilit) Une mthode un pas est dite stable s'il existe une constante
K indpendante de h telle que, pour tout y0 , y0 et yi+1 = yi + (ti , y(ti ), h) on a

i1
X
yi+1 = yi + (ti , y(ti ), h) + i vriant |yi yi | K|y0 y0 | + |i | i = 0, . . . , n.
i=0

C'est dire, on peut contrler la rpercussion des erreurs d'arrondi.

Proposition 9.1. Pour une mthode un pas, la convergence implique la consistance.


Proposition 9.2. Si une mthode un pas est consistante et stable, alors elle est convergente.

9.5.1 Ordre d'une mthode un pas


Il est intressant de disposer d'un critre, valable dans le cas gnral, qui nous indiquera si telle
mthode est meilleure qu'une autre (au sens qu'elle approche mieux la solution exacte). Pour
cela, on introduit les dnitions suivantes :

Dnition 9.4. (Erreur de Troncature locale)


Soit M une mthode de rsolution un pas d'un problme de Cauchy, son algorithme est donc
de la forme :
yi+1 = yi + h(ti , yi , h), 0 i n.
On appelle " erreur de troncature locale au point t = ti " de M la quantit

y(ti+1 ) y(ti )
ei = (ti , yi , h).
h
Soit f de classe Cp [t0 , T ] R. La mthode M est d'ordre p si ei = O(hp ) c..d
sur


y(i + 1) y(i)
C R+ / (ti , yi , h) C.hp i (0, n).
h

La mthode M convergera (yn y(n) quand h 0 i (0, n)), donc d'autant plus vite que
p sera grand.

Condition ncessaire et susante pour que M soit d'ordre p(p 1) ?


On suppose que f C p ([t0 , T ], R) et de classe Cp par rapport h. D'aprs ce qui prcde, le
pas doit tre au voisinage de 0.

Thorme 9.2. M est d'ordre p1 est choisie telle que :

k 1
k
(t, y, h)|h=0 = f (k) (x, y), 0 k p 1.
h k+1

Ordres respectifs des mthodes d'Euler et du point milieu


Mthode d'Euler : Dans ce cas (t, y, h) = f (t, y) (f suppose de classe C 1 )
k 1
Dterminons p1 tel que hk
(t, y, h)|h=0 = k+1 f (k) (x, y), 0 k p 1.
1. k = 0 : (t, y, 0) = f (t, y) vrie

2. k=1:
h
(t, y, h)|h=0 = 0 6= 12 f 0 (t, y) = 21 ( f
t
+ f
y
f ).
9.5. MTHODES UN PAS GNRIQUE 123

On en tire que p = 1, donc la mthode d'Euler est d'ordre 1.

Mthode du point milieu : Dans ce cas (t, y, h) = f (t + h2 , y + h2 f (t, y)) (f suppose de


2
classe C ). Dterminons p1 tel que

k 1
k
(t, y, h)|h=0 = f (k) (x, y), 0 k p 1.
h k+1
1. k = 0 : (t, y, 0) = f (t, y) vrie

2. k=1:
h
(t, y, h)|h=0 = 1 0
2
f (t, y) = 21 ( f
t
+ f
y
f ). En eet ;

f (t + h2 ) f (y + h2 f (t, y))
(t, y, h) = +
h t h y h
 
1 f (t, y) 1 f (t, y)
(t, y, h)|h=0 = + f (t, y) .
h 2 t 2 y

On montrera de mme que, pour k = 2, l'galit n'a pas lieu. On en tire que p = 2,
donc la mthode d'Euler est d'ordre 2.
124 CHAPITRE 9. RSOLUTION DES QUATIONS DIFFRENTIELLES ORDINAIRES

9.6 Exercices
Exercice 9.1. Faire trois itrations avec le pas h = 0, 1 des mthodes d'Euler, d'Euler modie,
du point milieu et de Runge-Kutta d'ordre 4 pour les quations direntielles suivantes :

a) y0 (t) = tsin(y(t)) avec y(0) = 2.


b) y0 (t) = t2 + (y(t))2 + 1 avec y(1) = 0.
c) y0 (t) = (y(t)et avec y(0) = 2.
Exercice 9.2. Soit le problme de Cauchy suivant :
y 0 (t) = 2y(t) t [0, 1]


y(0) = 1.

1. Trouver la solution exacte de ce problme.

2. Prendre cinq subdivisions sur l'intervalle [0, 1] et appliquer les mthodes : d'Euler, Euler
modie, point milieu.
Ecrire les valeurs obtenues, dans un tableau et comparer chacune avec la valeur exacte (en
calculant l'erreur relative correspondante).

3. Quelle est la mthode qui donne de meilleures valeurs approches de la solution exacte ?

Exercice 9.3. Soit le problme de Cauchy suivant :

y 0 (t) = t + y(t) t [0, 2]




y(0) = 1, 24,

qui possde la solution analytique :

y(t) = 2, 24et (t 1)

I. Rsoudre numriquement le mme problme l'aide de la mthode :

1. d'Euler, avec un pas h = 0, 2.


2. de Runge-Kutta d'ordre 4, avec le pas h = 1.
II. Comparer au point t = 1, les valeurs numriques la valeur analytique et donner (en %)
l'erreur relative commise par chacune des deux mthodes.

Exercice 9.4. Soit le problme de Cauchy suivant :


2 0
t y (t) ty(t) + 1 = 0, t [2, 3]
(P )
y(2) = 0.

1. Rsoudre numriquement le problme (P) l'aide de la mthode :

i) du point milieu, avec un pas h = 13 .


ii) de Runge-Kutta d'ordre 4, avec un pas h = 1.
Ecrire les valeurs obtenues (de la question (i)) dans un tableau et comparer chacune d'elles
t 1
avec la valeur exacte, sachant que la solution analytique de (P) est y(t) = 8 + 2t , t [2, 3].

2. Quelle est la mthode qui donne la meilleure valeur approche de la solution exacte au point
t = 3?
9.6. EXERCICES 125

Exercice 9.5. Soit l'quation direntielle : y 0 (t) = t(y(t)) avec y(1) = 2, dont on connat
la solution exacte :
2 1)/2
y(t) = 2e(t .
1. En prenant successivement h = 0, 5, h = 0, 25, h = 0, 125 et h = 0, 0625.
Approcher dans chaque cas y(2) en appliquant la mthode de Taylor d'ordre 2 et calculer
l'erreur absolue commise dans chaque cas en comparant les rsultats obtenus avec la valeur
exacte y(2).
2. Conclure

Exercice 9.6. Etant donnes trois mthodes de rsolution numrique M1 , M2 et M3 d'un


problme de Cauchy du premier ordre, de mme pas de discrtisation h.
1. Comparer la prcision de ces trois mthodes sachant que les erreurs absolues respectives
sont de la forme :
E1 = o(h), E2 = o(h2 ) E3 = o(h4 ).
2. Proposer trois mthodes de rsolution dont les erreurs absolues sont E1 , E2 et E3 , en donnant
leurs algorithmes.

3. Soit le problme de Cauchy :



(1 + et )yy 0 = et , t [0, 1]
(P )
y(0) = 1.

a. On pose h = 21 . Calculer deux approximations de la solution exacte du problme (P ) en


t=1 avec quatre dcimales.

b. Comparer chaque approximation avec la solution exacte que l'on dterminera.

Vous aimerez peut-être aussi