Vous êtes sur la page 1sur 44

Cours méthodes numériques (S.T. 2).

17 mars 2010
Table des matières

1 Introduction. 3
1.1 Erreur absolue - Erreur relative. . . . . . . . . . . . . . . . . . 3
1.2 Majorants des erreurs absolue et relative. . . . . . . . . . . . . 4
1.3 Chi¤res exactes d’un nombre décimale. . . . . . . . . . . . . . 4

2 Résolution numérique des équations algébriques et transcen-


dantes. 5
2.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Séparation des racines. . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Méthode de Dichotomie (ou de Bissection) . . . . . . . . . . . 6
2.4 Méthode de Newton –Raphson (ou de la tangente). . . . . . . 7
2.5 Méthode de la Sécante (ou de la fausse position). . . . . . . . 9
2.5.1 1er cas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5.2 2nd cas. . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6 La méthode des approximations successives (ou du point …xe). 10

3 Approximation et interpolation polynômiale. 12


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2 Approximation polynômiale. . . . . . . . . . . . . . . . . . . . 12
3.2.1 Approximation aux sens des moindres carrées. . . . . . 13
3.2.2 Approximation aux sens des moindres carrées discrète. 14
3.3 Interpolation polynômiale. . . . . . . . . . . . . . . . . . . . . 15
3.3.1 Introduction –Position du problème. . . . . . . . . . . 15
3.3.2 Formule d’interpolation de Lagrange. . . . . . . . . . . 16
3.3.3 Erreur de l’interpolation. . . . . . . . . . . . . . . . . . 18

4 Intégration numérique. 19
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1
4.2 Approximation d’une intégrale dé…nie. . . . . . . . . . . . . . 19
4.3 Formules de quadrature de Newton–Côtes. . . . . . . . . . . . 20
4.3.1 Méthode des trapèzes. . . . . . . . . . . . . . . . . . . 21
4.3.2 Méthode de Simpson (pour n = 2p). . . . . . . . . . . . 22
4.4 Formule de Quadrature de Gauss. . . . . . . . . . . . . . . . . 24

5 Résolution des systèmes d’équations linéaires - Méthodes di-


rectes. 26
5.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.2 Méthode de l’élimination de Gauss. . . . . . . . . . . . . . . . 29
5.3 Méthode de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . 30
5.4 Méthode de décomposition LU: . . . . . . . . . . . . . . . . . 30
5.5 Décomposition de Cholesky. . . . . . . . . . . . . . . . . . . . 32

6 Résolution des systèmes d’équations linéaires - Méthodes ité-


ratives. 34
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
6.2 Les méthodes itératives. . . . . . . . . . . . . . . . . . . . . . 35
6.3 Convergence des méthodes itératives . . . . . . . . . . . . . . 36
6.4 Méthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . 38
6.4.1 Estimation de l’erreur de la méthode de Jacobi. . . . . 38
6.5 Méthode de Gauss –Seidel . . . . . . . . . . . . . . . . . . . . 38
6.5.1 Estimation de l’erreur de la méthode de Gauss –Seidel. 39

7 Résolution numérique des équations di¤érentielles ordinaires


du premier ordre. 40
7.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.2 Méthode d’Euler. . . . . . . . . . . . . . . . . . . . . . . . . . 41
7.3 Méthodes de Runge –Kutta. . . . . . . . . . . . . . . . . . . . 42

2
Chapitre 1

Introduction.

Objectif de l’analyse numérique est de concevoir et d’étudier des méthodes


de résolution de certains problèmes de mathématiques issus de la modélisa-
tion des problèmes réels et dont on cherche à calculer la solution à l’aide d’un
ordinateur, i. e. à trouver ou à donner des valeurs approchées de la solution
exacte avec une certaine précision.

Le but de ce cours, est donc, de fournir les principes de base des méthodes
numériques les plus utilisées.

1.1 Erreur absolue - Erreur relative.


Soient x une quantité exacte et x une valeur approché de x.
- Si x > x, x est dite valeur approchée de x par excés.
- Si x < x, x est dite valeur approchée de x par défaut.

Dé…nition 1.1.1 On appelle erreur absolue de x sur x la valeur notée par


E et donnée par
E = jx x j :

Dé…nition 1.1.2 On appelle erreur relative de x sur x la valeur notée par


Er et donnée par
jx x j E
Er = = :
jxj jxj

3
Si la valeur de x est connue on peut déterminer les valeurs de l’erreur
absolue et l’erreur relative. Mais dans la majorité des cas, elle ne l’est pas Les
erreurs absolue et relative deviennent donc inconnues, et pour les apprécier
on introduit la notion du majorant de l’erreur.

1.2 Majorants des erreurs absolue et relative.


Dé…nition 1.2.1 On appelle majorant de l’erreur absolue d’une valeur ap-
prochée x ; tout réel x véri…ant
E = jx xj x,x x x x + x:
Remarque 1.2.2 On prent on pratique le plus petit x possible.
x est appelé par abus de language erreur absolue de x sur x et on écrit
dans ce cas : x = x x ou encore x t x ( x)
Dé…nition 1.2.3 On appelle majorant de l’erreur relative d’une valeur ap-
prochée x la quantité x donnée par
x
x= ;
jxj
appelé par un abus de language erreur relative.

1.3 Chi¤res exactes d’un nombre décimale.


Dé…nition 1.3.1 Si l’erreur absolue véri…e
m
x 0:5 10
alors le chi¤re correspondant à la mième puissance de 10 est dit signi…catif
exacte, noté c.s.e., ainsi que tous ceux avant lui.
Exemple 1.3.2 On obtient une approximation de au moyen de la quantité
22
= 3:142875::: , on en conclut que
7
22
x= = 0:00126::: 0:126 10 2 0:5 10 2 ;
7
donc le chi¤re des centième est signi…catif et on a en tous 3 chi¤res signi…-
catifs (3:14):

4
Chapitre 2

Résolution numérique des


équations algébriques et
transcendantes.

2.1 Introduction.

Si une équation algébrique ou transcendante est compliquée, alors il est


impossible qu’on puisse trouver ces racines avec précision. Par ailleurs, il
est donc important d’étudier les méthodes numériques qui nous permettent
d’obtenir une valeur approché de chacune de ces racines.

Dans ce chapitre, on se propose d’approcher numériquement les racines


de l’équation
f (x) = 0 (1.1)
où f est une fonction dé…nie continue dans [a; b] (domaine des racines).

Les méthodes numériques utilisées pour déterminer la valeur de la racine


de l’équation (1.1), nous donnent des suites itératives fxn gn 0 (i. e. xn+1 =
F (xn )), qui convergent sous certaines conditions, vers .
L’erreur absolue dans ce cas est notée par en = j xn j et le test d’arrêt
pour chaque méthode numérique est jxn+1 xn j " = la précision voulue.

5
2.2 Séparation des racines.
Pour toutes les méthodes numériques qui suivent il faut d’abord faire la
séparation des racines, c’est–à–dire trouver des intervalles de la forme [ai ; bi ]
dans lesquels la fonction f admet une racine est une seule. Pour cela, on fait
appelle au théorème suivant.

Théorème 2.2.1 (Théorème des valeurs intermédiaires)


Soit f une fonction dé…nie continue dans l’intervalle [a; b].
– Si f (a):f (b) < 0, alors il existe au moins une racine de f dans ]a; b[,
c’est–à–dire :
9 c 2]a; b[ tq f (c) = 0:
Et si en plus on a f 0 (x) 6= 0 pour tout x 2]a; b[, alors la racine est unique.
– Si f (a):f (b) > 0, alors f n’a pas da racine ou admet un nombre pair
de racines dans [a; b].

Le choix de l’intervalle [a; b] utilisé dans le théorème précédent peut se


faire graphiquement en traçant le graphe de la fonction f , dans ce cas les
racines de (1.1) sont les abscisses des points d’intersection entre ce graphe
et l’axe des abscisses, ou bien en décomposant f en deux fonctions simple à
étudier, telles que f (x) = f1 (x) f2 (x); dans ce cas les racines de (1.1) sont
les abscisses des points d’intersection des graphes des ces deux fonctions.

2.3 Méthode de Dichotomie (ou de Bissec-


tion)
Après avoir isolé une racine dans un intervalle [a; b], on considère le point
a+b
x0 = . On a deux cas :
er
2
1 cas : Si f (x0 ) = 0, alors = x0 :
2eme cas : Si f (x0 ) 6= 0; alors la racine se trouve dans l’un des deux
intervalles [a; x0 ]; [x0 ; b]:
–Si 2 [a; x0 ]; on pose a1 = a et b1 = x0 .
–Si 2 [x0 ; b]; on pose a1 = x0 et b1 = b.
De cette manière on a obtenu un autre intervalle [a1 ; b1 ] contenant et
dont la longueur est égale à la moitié de la longueur de [a; b] = b a
a1 + b 1
Dans ce cas on considère le point x1 = :, On a deux cas :
2
6
1er cas : Si f (x1 ) = 0, alors = x1 :
2eme cas : Si f (x1 ) 6= 0; alors la racine se trouve dans l’un des deux
intervalles [a1 ; x1 ]; [x1 ; b1]:
–Si 2 [a1 ; x1 ]; on pose a2 = a1 et b2 = x1 .
–Si 2 [x1 ; b1 ]; on pose a2 = x1 et b2 = b1 .
De cette manière on a obtenu un autre intervalle [a2 ; b2 ] contenant et
b a
dont la longueur est égale à la moitié de la longueur de [a1 ; b1 ] = :
2
En itérant le procédé, on obtient une suite de points
a+b a1 + b 1 an + b n
x0 = ; x1 = ; : : : ; xn = (1.2)
2 2 2
où x0 est appelé approximation initiale, qui converge vers :

Proposition 2.3.1 L’estimation de l’erreur commise par la méthode de Di-


chotomie est donnée par
b a
en = j xn j " (1:3)
2n+1
et par la suite on a
ln [(b a)="]
n 1: (1:4)
ln 2

2.4 Méthode de Newton –Raphson (ou de la


tangente).
Soit x0 2 [a; b], tel que f (x0 ) 6= 0. La tangente à la courbe y = f (x)
au point M0 = (x0 ; f (x0 )) coupe l’axe (ox) en un point d’abscisse x1 . La
tangente à la courbe y = f (x) au point M1 = (x1 ; f (x1 )) coupe l’axe (ox) en
un point d’abscisse x2 , . . . etc.
En itérant le procédé on obtient une suite de points d’abscisses fxn gn 0
dé…nie par 8
< f (xn )
xn+1 = xn ; pour tout n 1
f 0 (xn ) (1.5)
:
x0 = approximation initiale.
applé algorithme de Newton –Raphson.

7
Remarque 2.4.1 Une bonne approximation initiale x0 est celle qui véri…e
l’inégalité suivante
f (x0 ):f "(x0 ) > 0: (1:6)

Théorème 2.4.2 Si f 2 C 2 [a; b] et si f 0 et f " gardent des des signes constants


sur [a; b], c–à–d : f 0 (x) 6= 0 et f "(x) 6= 0 sur [a; b], alors la méthode de New-
ton – Raphson est dite convergente, i. e. lim xn = .
n!+1

Donc la racine exacte de l’équation (1.1) peut être calculer à l’aide


de la méthode de Newton – Raphson, avec la précision donnée et pour une
approximation initiale véri…ant la condition (1.6).

Proposition 2.4.3 L’estimation de l’erreur commise par la méthode de New-


ton – Raphson est donnée par

jf (xn )j
en = j xn j ; (1:7)
m1
où m1 = min jf 0 (x)j.
[a;b]
f (xn )
Le test d’arrêt jxn+1 xn j ", ".
f 0 (x)

Remarque 2.4.4 1) Si l’estimation (1:7) est mauvaise, alors on peut res-


treindre l’intervalle [a; b].
2) Lorsque la méthode de Newton –Raphson converge, alors on a suivant le
signe de f " :
(a) f " > 0, alors si f 0 > 0 (respectivement f 0 < 0), la suite fxn gn 0 est
monotone et converge vers la racine par excès, c–à–d xn > (respective-
ment par défaut).
(b) f " < 0, alors si f 0 < 0 (respectivement f 0 > 0), la suite fxn gn 0 est
monotone et converge vers la racine par excès, c–à–d xn > (respective-
ment par défaut).

8
2.5 Méthode de la Sécante (ou de la fausse
position).
Dans certains cas (si f provient d’un calcul expérimentale par exemple)
on ne peut pas calculer f 0 : L’idée est alors de remplacer f 0 par le taux d’ac-
croissement de f sur un petit intervalle.
Soit c un point de [a; b] tel que f 0 (c) 6= 0. On choisie un point initial x0
tel que f (x0 ):f (c) < 0:
La sécante joingnant les points Mc (c; f (c)) et M0 (x0 ; f (x0 )) coupe l’axe
des abscisses en un point d’abscisse x1 . La sécante joingnant les points Mc
et M1 (x1 ; f (x1 )) coupe l’axe des abscisses en un point d’abscisse x2 .
En itérant le procédé on obtient une suite de points d’abscisses fxn gn 0
dé…nie par
xn c
xn+1 = xn f (xn ) ; pour tout n 1: (1.8)
f (xn ) f (c)

Dé…nition 2.5.1 L’extrémité …xe c est celle dont le signe de f coïncide avec
le signe de f ", c–à–d f (x):f "(x) > 0.

Soit pour …xer les idées, on pose f "(x) > 0 pour tout x 2 [a; b].

2.5.1 1er cas.


Si f (a) > 0, alors l’extrémité …xe c = a et dans ce cas les approximations
successives données par l’algorithme
8
< x0 = b
xn a (1.9)
: xn+1 = xn f (xn ) ; pour tout n 1,
f (xn ) f (a)
forment une suite décroissante bornée

a< < : : : < xn+1 < xn < : : : : < x0 = b.

9
2.5.2 2nd cas.
Si f (a) < 0, alors l’extrémité …xe c = b et dans ce cas les approximations
successives données par l’algorithme
8
< x0 = a
xn b (1.10)
: xn+1 = xn f (xn ) ; pour tout n 1,
f (xn ) f (b)

forment une suite croissante bornée

x0 = a < x1 < : : : < xn < xn+1 < : : : : < < b:

Proposition 2.5.2 L’estimation de l’erreur commise par la méthode de la


sécante est donnée par
jf (xn )j
en = j xn j ; (1:11)
m1
où m1 = min jf 0 (x)j.
[a;b]

2.6 La méthode des approximations succes-


sives (ou du point …xe).
L’équation (1.1) peut toujours s’écrire sous la forme

x = F (x): (1.12)

Soit x0 une approximation initiale quelconque, alors de (1.12) on obtient


une suite fxn gn 0 dé…nie par

x1 = F (x0 ); x2 = F (x1 ); ; xn+1 = F (xn ):

Si cette suite converge, alors on a = lim xn+1 = lim F (xn ):


n!+1 n!+1
Ainsi, on peut dire que est une racine de (1.12) qui se calcule en utilisant
l’algorithme
x0 quelconque
(1.13)
xn+1 = F (xn );
avec la précision voulue.

10
Proposition 2.6.1 On suppose que la fonction F I ! I est une application
contractente de rapport k (0 < k < 1), i. e.
90 < k < 1; jF (x1 ) F (x2 )j k jx1 x2 j ; pour tout x1 ; x2 2 I; (1:14)
(si k > 0 on dit que F est lipschitzienne ), alors F admet un point …xe
(i. e. = F ( )) et que la suite dé…nie par l’algorithme (1:13) converge vers
ce point …xe (racine exacte de l’équation (1:1)) et en plus on a l’estimation
de l’erreur suivante
kn
jxn j jx1 x0 j : (1:15)
1 k
Remarque 2.6.2 (1) La condition (1:14) peut être remplacer par la condi-
tion suivante
90 < k < 1; jF 0 (x)j k; pour tout x 2 I: (1:16)
(2) La formule (1:15) prévoit à l’avance le nombre d’itérations nécessaires à
l’approximation de la racine :
En e¤et,
kn
jxn j jx1 x0 j "
1 k
m
1 k
kn "
jx1 x0 j
m
"(1 k)
ln
jx1 x0 j
n : (1:17)
ln k
(3) Sous la condition (1:14) (ou (1:16)) la méthode des approximations suc-
cessives converge quelque soit le choix de l’approximation initiale x0 . Il en
résulte que cette méthode est "auto correctrice".
(4) (a) Si 0 F 0 (x) k < 1, alors la suite fxn gn 0 converge vers d’une
façon monotone.
(b) Si 1 < k F 0 (x) 0, alors la suite fxn gn 0 converge vers
alternativement par exés et par défaut.
(5) Si jF 0 (x)j > 1; la suite diverge.

11
Chapitre 3

Approximation et interpolation
polynômiale.

3.1 Introduction

Soit un ensemble …ni de points xi ; i = 0; n; dans l’intervalle [a; b]. Nous


supposerons qu’à chaque point xi on peut associer un réel yi (exp : résul-
tat d’une expérience) telle que yi = f (xi ), mais que cette opération soit
impossible pour tout x 6= xi ; i = 0; n. Nous voudrions déterminer donc
une fonction facilement calculable, qui nous permet d’obtenir une estimation
"raisonnable" de la réponse de ce phénomène pour tout x 2 [a; b].

Notons g cette fonction, nous avons donc 2 choix :

1- Nous pouvons chercher une fonction g d’un type préalablement choisi,


telle que la distance entre les deux fonctions f et g soit minimale. C’est
l’approximation.

2- Nous pouvons chercher une fonction g d’un type préalablement choisi, telle
que yi = f (xi ) = g(xi ), pour tout i = 0; n. C’est l’interpolation.

3.2 Approximation polynômiale.


Dé…nition 3.2.1 L’approximation d’une fonction f par un polynômes est
dite approximation polynômiale. Cette approximation est la plus utilisée,

12
car les polynômes sont très faciles à dériver, à intégrer et constituent un
espace vectoriel.

Théorème 3.2.2 Si f 2 C[a; b], alors quelque soit " > 0 il existe Pn un
polynôme de degré n, telle que max jf (x) Pn (x)j < ".
a x b

3.2.1 Approximation aux sens des moindres carrées.


On dé…nit sur l’espace vectoriel des fonctions continues sur [a; b] le produit
scalaire suivant :
Zb
hf; gi = f (x)g(x)w(x)dx;
a

où w est une fonction positive continue par morceaux sur [a; b]. Dans ce cas,
on peut dé…nir une distance d dans cet espace de la manière suivante
p
d(f; g) = hf g; f gi pour tous f; g 2 C ([a; b])

Théorème 3.2.3 Une condition nécessaire et su¢ sante pour que la fonction
g soit une meilleure approximation de la fonction f est

hf g; hi = 0 pour toute fonction continue h. (2.1)

La fonction g est appelée meilleure approximation de la fonction f au


sens des moindres carrées.

Si g = Pen 2 Pn qui est l’ensemble des polynômes de degré inferieur ou


égale à n et comme les fonctions xi ; i = 0; n; forment une base de cette
espace, alors on peut ecrire
X
n X
n
Pen (x) = e
ai x n i
et Pn (x) = aj x n j

i=0 j=0

pour tout polynôme Pn . La condition (2.1) devient dans ce cas


* +
Xn X
n
f ai x n i ;
e aj xn j = 0 pour tout (a0 ; a1 ; : : :; an ) 2 Rn+1 :
i=0 j=0

13
Ceci est équivalent à
* n +
X
n X
n X
aj f; xn j
= aj ai x n i ; x n
e j
pour tout (a0 ; a1 ; : : :; an ) 2 Rn+1 :
j=0 j=0 i=0

Ceci nous donne le système d’équation suivant


X
n
n j
f; x = ai x n i ; x n
e j
pour tout j = 0; n: (2.2)
i=0

En remplaçant le produit scalaire par sa valeur on obtient

Zb X
n Zb
n j
x f (x)w(x)dx = e
ai x2n i j
w(x)dx pour tout j = 0; n: (2.3)
a i=0 a

3.2.2 Approximation aux sens des moindres carrées


discrète.
La résolution de (2.3) nous permet de déterminer l’approximation au sens
des moindres carrés pour une fonction f connue analytiquement. Cela n’est
pas le cas si f n’est pas connues sur tout l’intervalle [a; b] et ou on a la valeur
de cette fonction dans un nombre …ni de points x0 ; x1 ; : : :; xm :

Dans ce cas le produit scalaire sera dé…ni de la manière suivante


X
m
hf; gi = f (xk )g(xk )w(xk ):
k=0

Donc (2.2) devient


" #
X
m X
n X
m
xnk j f (xk )w(xk ) = e
ai x2n
k
i j
w(xk ) (2.4)
k=0 i=0 k=0

pour tout j = 0; n:

14
3.3 Interpolation polynômiale.
3.3.1 Introduction –Position du problème.
Soit y = f (x) une fonction dont on ne connait que les valeurs yi qu’elle
prend aux n + 1 points distincts xi , i = 0; n. On a donc

yi = f (xi ); i = 0; n: (2.5)

Les (xi ; f (xi )) pour i = 0; 1; 2; ; n, sont appelés points d’interpolation


ou points de collocation.

Le problème d’interpolation consiste à trouver la fonction g (appelée


fonction d’interpollation) qui appartient à une certaine classe de fonctions
et qui prend aux points d’interpolation les mêmes valeurs que f , c–à–d

g(x0 ) = y0 ; g(x1 ) = y1 ; : : : ; g(xn ) = yn :

Dans notre cas on considère que g appartient à l’ensemble des polynômes de


degré n. On écrit donc

yi = Pn (xi ); i = 0; n: (2.6)

C’est ce qu’on appele interpoler f par un polynôme Pn sur l’intervalle


[min fxi g ; max fxi g] appelé intervalle d’interpolation.
Pn s’appele polynômes d’interpolation de f en x0 ; x1 ; : : : ; xn .

Le problème posé sous sa forme générale peut avoir une in…nité de solu-
tions ou non avoir point. Toutefois, il existe une seule solution si on cherche
un polynôme Pn .

En e¤et, soit a0 ; a1 ; : : :; an les coe¢ cients d’un tel polynôme, i. e.

Pn (x) = a0 xn + a1 xn 1
+ : : : + an ;

comme Pn (xi ) = yi ; i = 0; n, on obtient le système suivant


8
>
> a0 xn0 + a1 xn0 1 + : : : + an = y0
>
< a0 x n + a1 x n 1 + : : : + an = y 1
1 1
..
>
> .
>
: a xn + a xn 1 + : : : + a = y ;
0 n 1 n n n

15
qui est un système linéaire de déterminant noté par V (x0 ; x1 ; : : ; xn ) et
donné par

xn0 xn0 1
x0 1
xn1 xn1 1
x1 1
.. .. .. ..
V (x0 ; x1 ; : : ; xn ) = . . . . 6= 0
.. .. . . . ..
. . .
xnn xnn 1
xn 1

appelé déterminant de Vandermonde et la matrice de ce système est


appelée matrice de Vondermonde..

V (x0 ; x1 ; : : ; xn ) 6= 0 car les xi sont distincts. Par conséquent, le


polynôme d’interpolation existe et il est unique.

3.3.2 Formule d’interpolation de Lagrange.


Essayons d’abord de résoudre le problème suivant :
8
< Construire un polynômeli (x) de degré n et tel que
0 : i 6= j (2.7)
: li (xj ) = ij =
1 : i = j:

où ij est le symbole de ronicker. Ces polynômes sont appelés les poly-


nômes de Lagrange.

On en déduit d’après (2.7) que chaque polynôme li (x) admet exactement


n racines, qui sont x0 ; ; xi 1 ; xi+1 ; ; xn , donc on peut écrire que

li (x) = ci (x x0 ) (x xi 1 )(x xi+1 ) (x xn ):

Comme

1 = li (xi ) = ci (xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn );

on a
1
ci = :
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )

16
Par conséquent
(x x0 ) (x xi 1 )(x xi+1 ) (x xn )
li (x) =
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )
ou encore
Yn
x xj
li (x) = : (2.8)
x
j=0 i
xj
j6=i

Passons maintenant à la résolution du problème générale, qui consiste à for-


mer le polynôme Pn véri…ant (2.6), noté par Ln (x) et qui est de la forme
X
n
Ln (x) = yi li (x) pour tout x 2 [min fxi g ; max fxi g]: (2.9)
i=0

X
n
On a deg Ln n et Ln (xj ) = yi li (xj ) = yj lj (xj ) = yj :
i=0
Ainsi
X
n Yn
x xj
Ln (x) = yi pour tout x 2 [min fxi g ; max fxi g]: (2.10)
i=0
x
j=0 i
xj
j6=i

Ln s’appelle le polynôme d’interpolation de Lagrange.

Exemple 3.3.1 Pour n = 1 nous avons 2 points x0 = a et x1 = b et la


formule de Lagrange dans ce cas est l’équation d’une droite y = L1 (x) qui
passe par les deux points (a; y0 ) et (b; y1 ), donnée par
x b x a
y= y0 + y1 : (2.11)
a b b a
Exemple 3.3.2 Pour n = 2 nous avons 3 points x0 = a; x1 = c et x2 = b et
la formule de Lagrange dans ce cas est l’équation d’une parabolle y = L2 (x)
qui passe par les trois points (a; y0 ) ; (c; y1 ) et (b; y2 ), donnée par
(x b) (x c) (x a) (x b) (x a) (x c)
y= y0 + y1 + y2 : (2.12)
(a b) (a c) (c a) (c b) (b a) (b c)
Remarque 3.3.3 Une fois la formule d’interpolation est obtenue, on l’utilise
dans le calcul approché des valeurs de f pour x 6= xi pour i = 0; 1; 2; ; n,
i. e. f (x) Ln (x) pour tout x 2 [min fxi g ; max fxi g].

17
3.3.3 Erreur de l’interpolation.
Dans la pratique l’interpolation polynômiale sert à remplacer une fonc-
tion inconnue f par une fonction simple qui est un polynôme. On dit que
l’on approxime f par le polynôme d’interpolation. Il est fondamental alors,
d’étudier l’erreur de l’interpolation.

Théorème 3.3.4 Soit [a; b] un intervalle contenant les points x0 ; x1 ; ; xn .


On suppose que f est (n+1) fois dérivable sur ]a; b[. Alors pour tout x 2 [a; b]
il existe = x 2]a; b[ tel que

f (n+1) ( ) Y
n
En (x) = f (x) Pn (x) = (x xi ): (2.13)
(n + 1)! i=0

Dans ce cas
Mn+1 Y
n
jf (x) Pn (x)j jx xi j ; (2.14)
(n + 1)! i=0

où Mn+1 = max f (n+1) (x) .


[a;b]

18
Chapitre 4

Intégration numérique.

4.1 Introduction
Soit f une fonction dé…nie sur un intervalle [a; b]. Nous supposerons l’in-
tégrale dé…nie suivant
Zb
f (x)dx.
a

Il n’est pas toujours possible de connaître exactement la valeur de cette inté-


grale. En e¤et, on ne peut pas toujours trouver explicitement une primitive
de f , même dans le cas ou f est donnée par une formule analytique expli-
cite, encore moins si on ne connait que les valeurs de f en un nombre …ni de
points.
On se propose de chercher une approximation numérique de cette inté-
grale.

4.2 Approximation d’une intégrale dé…nie.


Nous voulons approcher la valeur de l’intégrale fé…nie

Zb
I= f (x)dx. (3.1)
a

Supposons que f soit connue en (n + 1) points x0 ; x1 ; ; xn . Nous allons

19
écrire que
X
n
I= i f (xi ) +R (3.2)
i=0
où les coe¢ cients i seront choisis de telle sorte que le reste R soit nul lorsque
f est d’un type déterminé.
Pour f quelconque on appellera la formule suivante
X
n
I t An = i f (xi ) (3.3)
i=0

formule de quadrature et dans ce cas An sera une valeur approchée de I si


R est su¢ sament petit. La question essentielle est de savoir si en augmentant
le nombre de points xi , on obtiendra une valeur de An de plus en plus proche
de I, plus précisément, a –t –on
X
n
lim An = lim i f (xi ) = I. (3.4)
n!+1 n!+1
i=0

La réponse est positive que sous certaines conditions sur les i et les xi .
Théorème 4.2.1 Lorsque f est continue sur [a; b], nous avons (3:4) si les
conditions suivantes sont véri…ées.
1) (3:4) est vrai pour tout polynôme P .
X n
2) j i j est bornée pour tout n.
i=0

4.3 Formules de quadrature de Newton–Côtes.


Dans ce paragraphe, nous allons supposer que les xi sont équidistants (i.e.
xi+1 xi = h = const) et que l’on a
x0 = a;
x1 = a + h;
..
.
xi = xi 1 + h = a + ih
..
.
xn = xn 1 + h = a + nh.

20
b a
Dans ce cas h = .
n
En interpolant f par des polynômes de degré m par morceaux, on obtient
les formules de quadrature de Newton–Côtes suivantes
Zb X
m
f (x)dx t (b a) Hi f (xi ) (3.5)
a i=0


Zn
( 1)m i q [m+1]
Hi = dq
i!(m i)!m q i
0
[m+1]
et q = q(q 1)(q 2) (q m), appelé puissance généralisée.

4.3.1 Méthode des trapèzes.


En interpolant f par un polynôme de degré 1 sur le sous intervalle [x0 ; x1 ]
(i.e. on remplace m par 1 dans (3.5)) on peut écrire que
Zx1
f (x)dx t h(H0 y0 + H1 y1 )
x0
avec
Z1 Z1
( 1)1 q [2]
H0 = dq = (q 1)dq = 1=2 et
0!1!1 q
0 0
Z1 Z1
( 1) 1 q [2]
H1 = dq = qdq = 1=2.
1!0!1 q 1
0 0

Donc
Zx1
h
f (x)dx t (y0 + y1 ).
2
x0
De la même manière nous pouvons écrire
xZ
i+1
h
f (x)dx t (yi + yi+1 ), pout tout i = 0; n 1.
2
xi

21
Zb n 1 Z
X
xi+1

Comme I = f (x)dx = f (x)dx, alors


a i=0 xi

X
n 1
h
I t (yi + yi+1 )
i=0
2
h
= [(y0 + y1 ) + (y1 + y2 ) + (y2 + y3 ) (yn 2 + yn 1 )(yn 1 + yn )]
2
h
= [y0 + 2y1 + 2y2 + 2yn 1 + yn ]
2
Donc la formule des trapèzes est
b a h y0 y0 i
I= + y1 + y2 + + RT (3.6)
n 2 2
où RT est l’erreur commise par cette méthode véri…ant

h2
jRT j = (b a)f 00 ( ) ; 2]a; b[ (3.7)
12
nh3
max jf 00 (x)j
12 a x b
et dans ce cas on dit que l’erreur de la formule des trapèzes est d’ordre 2 en
h.

4.3.2 Méthode de Simpson (pour n = 2p).


En interpolant f par un polynôme de degré 2 sur le sous intervalle [x0 ; x2 ]
(i. e. on remplace m par 2 dans (3.5)) on peut écrire que
Zx2
f (x)dx t 2h(H0 y0 + H1 y1 + H2 y2 )
x0

22
avec
Z2 Z2
( 1)2 q [3] 1
H0 = dq = (q 1)(q 2)dq = 1=6;
0!2!2 q 4
0 0
Z2 Z2
( 1)1 q [3]
H1 = dq = q(q 2)dq = 2=3 et
1!1!2 q 1
0 0
Z2 Z2
( 1)0 q [3]
H2 = dq = q(q 1)dq = 1=6.
2!0!2 q 2
0 0

D’où
Zx2
h
f (x)dx t (y0 + 4y1 + y2 ).
3
x0

En sommant nous obtiendrons pour n = 2p


x
Zb Z
p 1 2(i+1)
X
I = f (x)dx = f (x)dx
a i=0 x2i
h
t (y0 + 4y1 + y2 ) + (y2 + 4y3 + y4 ) + (y4 + 4y5 + y6 ) + (y2(p 1) + 4y2p 1 + y2p )
3
h
= y0 + 4 (y1 + y3 + y2p 1 ) + 2 y2 + y4 + y2(p 1) + y2p
3
h
= [y0 + 4 (y1 + y3 + yn 1 ) + 2 (y2 + y4 + yn 2 ) + yn ] .
3
En posant 1 = y1 + y3 + yn 1 et 2 = y2 + y4 + yn 2 on obtient la
formule de Simpson suivante
h
I= [y0 + 4 1 +2 2 + y n ] + RS (3.8)
3
où RS est l’erreur commise par cette méthode avec
(b a)5 (4) (b a)h4
jRS j 4
max f (x) = max f (4) (x) (3.9)
180n a x b 180 a x b
et dans ce cas on dit que l’erreur de la formule de Simpson est d’ordre 4 en
h.

23
4.4 Formule de Quadrature de Gauss.
Dé…nition 4.4.1 On appele polynômes de Legendre les expressions de la
forme
1 dn
Pn (x) = n (x2 1)n ; n 0 (3.10)
2 n! dxn
Voici les propriétés fondamentales de ces polynômes
1) Pn (1) = 1; Pn ( 1) = ( 1)n pour tout n 0.
2) deg Pn = n pour tout n 0:
Z1 Z1
3) xk Pn (x)dx = 0, k < n , Pm (x)Pn (x)dx = 0 pour tout m 6= n: On
1 1
dit dans ce cas que ces polynômes sont orthogonaux par rapport à la fonction
Zb
poids w (x) = 1(i.e. Pm (x)Pn (x)w(x)dx = kn mn ).
a
4) Le polynôme de Legendre Pn (x) possède n racines distintes et réelles com-
prise entre [ 1; 1].
On cite ci–dessous les 5 premiers polynômes
P0 (x) = 1;
P1 (x) = x;
P2 (x) = 1=2(3x2 1);
P3 (x) = 1=2(5x3 3x) et
P4 (x) = 1=8(35x4 30x2 + 3).
Considérons d’abord que la fonction y = f (t) est dé…nie sur [ 1; 1]. Le
problème est de trouver une formule de quadrature (i.e trouver les Ai et les
ti ) de la forme
Z1 Xn
f (t)dt t Ai f (ti ) (3.11)
1 i=1

qui soit exacte pour tout polynômes dont le degré est le plus grand possible.
En on déduit alors que pour résoudre ce problème il su¢ t de déterminer
les ti et les Ai à partir du système d’équations suivant
Z1 ( 2
Xn
; k pair
Ai tki = tk dt = k+1 ; ; k = 0; ; n 1,
i=1 1
0 ; k impair

24
où les ti sont les zéros du polynôme de Legendre de degré n.
D’où 8 n
> X
>
> Ai = 2
>
>
>
>
>
>
i=1
> X
>
n
>
> ti1 Ai = 0
>
>
>
< i=1
X n
(3.12)
>
> t2i Ai = 2=3
>
>
>
> i=1
> X
>
n
>
> t3i Ai = 0
>
>
>
>
>
>
i=1
: ..
.
La formule obtenue ainsi, est appelée formule de quadrature de Gauss
à n coordonnées.

Pour f dé…nie sur un intervalle quelconque [a; b], on considère le change-


ment de variable suivant
b a b+a
x= t+ , pour tout t 2 [ 1; 1],
2 2
qui transforme l’intervalle [ 1; 1] à [a; b]. Donc on peut écrire que

Zb Z1
b a b a b+a
f (x)dx = f t+ dt, (3.13)
2 2 2
a 1

par conséquent la formule de quadrature de Gauss sur [a; b] est donnée par

Zb
aX
n
b
f (x)dx t Ai f (xi )
2 i=1
a

b a b+a
où xi = ti + , pour tout i = 1; n
2 2

25
Chapitre 5

Résolution des systèmes


d’équations linéaires -
Méthodes directes.

5.1 Introduction.
Dans ce chapitre, on se propose d’étudier quelques méthodes permet-
tant de résoudre les systèmes de n équations à n inconnues de la forme
8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a21 x1 + a22 x2 + + a2n xn = b2
.. (4.1)
>
> .
>
: a x +a x +
n1 1 n2 2 +a x =b :
nn n n

Soient A = (aij ) 2 Mn (R) (l0 ensemble des matrices carrées d0 ordre n à élé-
ments dans R), B le vecteur de composantes (b1 ; b2 ; ; bn ) et X le vecteur
inconnu de composantes (x1 ; x2 ; ; xn ). Résoudre le système (4.1) revient
alors a résoudre l’équation matricielle

AX = B: (4.2)

Pour résoudre ce genre de système, la première idée qui nous vient à

26
l’esprit est l’utilisation des formules de Cramer données par

a11 : : : a1;i 1 b1 a1;i+1 : : : a1n


a21 : : : a2;i 1 b2 a2;i+1 : : : a2n
1 .. .. .. .. ..
xi = . . . . . : (4.3)
det A .. .. .. .. ..
. . . . .
an1 : : : an;i 1 bn an;i+1 : : : ann

Il en résulte que pour la résolution du système (4.1) par ces formules nécessite
au total TCramer = (n + 1)2 n! 1 opérations élémentaires, par exemple pour
n = 5, on a TCramer = 4319 et pour n = 10, on a TCramer v 4:108 :
Dans ce cas, elle devient trés lente en temps d’execution (de calculs) dés
que n dépasse 4.
Une autre méthode consiste à calculer la matrice inverse de A, c’est–à–
dire :
A 1 A X = A 1 B d’où X = A 1 B: (4.4)
Pour cela on utilise au total TInverse = n!(n2 + n + 1) + 3n2 n opérations
élémentaires, par exemple pour n = 5, on a TInverse = 3790 et pour n = 10,
on a TInverse v 4:108 :
Cette méthode n’est donc pas plus avantageuse que la première.
Dans ce chapitre, nous fairions appelle à des méthodes numériques ayant
des temps de calcul acceptables et dont lee nombre d’opératons est d’ordre
n3 . Ces métodes peuvent être :
- Directes qui sont utilisées seulement si le nombre d’équations n’est pas
trop élevé (n 100):

- Iteratives qui sont utilisées dès que la taille du système est grande (n
100), ce qui ne les empèches pas d’être également utiles pour des petits
systèmes.

Dé…nition 5.1.1 On appelle méthode directe de résolution du système (1),


une méthode qui aboutit à la solution exacte du problème au bout d’un
nombre …ni d’opérations arithmétiques, en fonction de la dimension du
système.

Si la matrice A du système (4.1) est triangulaire, sa résolution est immé-


diate. En e¤et, si A est triangulaire supérieure, le système (4.1) peut s’écrire

27
sous la forme suivante
8
>
> a11 x1 + a12 x2 + : : : + ain xi + : : : a1n xn = b1
>
> a22 x2 + : : : + ai2 xi + : : : a2n xn = b2
>
>
>
< .. .. .. .. ..
. . . . .
(4.5)
>
> aii xi + : : : ain xn = bi
>
> . . . .. .. ..
>
> . . .
>
:
ann xn = bn

puisque nous supposons A inversible, alors det A 6= 0, c’est–à–dire aii 6= 0


pour tout i = 1; : : :; n, et l’algorithme de résolution s’écrira
8
< xn = bn =ann n
> !
X 1 (4.6)
: x i = bi
> aij xj
aii
:
j=i+1

Et si A est triangulaire inférieure, le système (4.1) peut s’écrire sous la forme


suivante
8
>
> a11 x1 = b1
>
> a21 x1 + a22 x2 = b2
>
>
>
< .. ... .. ..
. . .
(4.7)
>
> ai1 x1 + ai2 x2 + : : : + aii xi = bi
>
> .. .. .. ... .. ..
>
> . . . . .
>
:
an1 x1 + an2 x2 + : : : + ani xi + : : : +ann xn = bn

dans ce cas l’algorithme de résolution devient


8
< x1 = b1 =a11 i 1
> !
X 1 (4.8)
: x i = bi
> aij xj
aii
:
j=1

pour cela on utilise au total n2 opérations élémentaires.

Mais si A est quelconque, on doit chercher une matrice M inversible telle


que le produit M:A soit triangulaire. On résoud alors le nouveau système
M:A X = M:B par l’algorithme (4.6) ou (4.8).

28
5.2 Méthode de l’élimination de Gauss.
Théorème 5.2.1 Théorème de Gauss. Etant donnée une matrice carrée
A, il existe une matrice inversible M , telle que la matrice A0 = M:A soit
triangulaire supérieure.
La méthode de Gauss transforme le système (4.1) en un système triangu-
laire équivalent au système (4.5), à l’aide d’un algorithme d’élimination en
utilisant seulement les trois opérations élémentaires suivantes :

1. Opération (li li ) : remplacer la ligne i par un multiple d’elle même.

2. Opération (li lj ) : intervertir la ligne i et la ligne j.

3. Opération (li li + lj ) : remplacer la ligne i par la ligne i plus un


multiple de la ligne j.

Ces 3 opérations élémentaires sont permise, car elle nous permettent d’ob-
ternir un système triangulaire équivalent au système (4.1) (i. e. ayant la même
solution).

Exemple 5.2.2 Voir au cours.


Remarque 5.2.3 Il peut arriver que lors de l’élimination, dans l’ordre na-
turelle des lignes, un pivot soit nul, en outre pour des raisons de stabilité, on
(k)
a intérêt, à chaque étape d’élimination à choisir le pivot telle que akk soit
le plus grand possible. C’est la méthode de Gauss à un pivot partiel.
La méthode de l’élimination de Gauss consiste à éliminer tous les termes
sous la diagonale de la matrice A en utilisant au total TGauss = (4n3 + 9n2 7n) =6
opérations élémentaires, par exemple pour n = 5; TGauss = 115 et pour
n = 10; TGauss = 805. Ce qui montre l’énorme amélioration que cette mé-
thode apporte par rapport aux deux autres méthode.
Remarque 5.2.4 La méthode de Gauss permet de calculer le déterminant
de la matrice A, et ceci en utilisant le faite que
Y
n
(k)
det A = ( 1)p akk ; (4.9)
k=1

où p est le nombre de permutations.

29
Algorithme de Gauss
1- Triangularisation

w = aik =akk
(i) (4.10)
aij = aij w:akj
pour j = k + 1; : : : ; n + 1, i = k + 1; : : : ; n et k = 1; : : : ; n 1:

2- Résolution
!,
(n)
X
n
(n) (n)
xi = bi aij xj aii : (4.11)
j=i+1

5.3 Méthode de Jordan.


Théorème 5.3.1 Théorème de Jordan. Soit A = (aij ) 2 Mn (R). Alors il
dxiste des matrice S telle que la matrice D = S:A soit diagonale d’ordre n.

La méthode de Jordan consiste donc, à transformer le système (1) en un


système à matrice diagonale DX = B 0 , X = D 1 B 0 :

Algorithme de Jordan
Transformation (A=B) v I=D 1 B 0
(
(k) (k 1) (k 1)
akk = akj =akk ; j = k + 1; : : : ; n + 1
(k) (k 1) (k 1) (k) (12)
aij = aij aik :akj ; j = k + 1; : : : ; n + 1
pour i et k = 1; : : : ; n et i 6= k:

Remarque 5.3.2 On peut calculer la matrice inverse de A par cette méthode


et ceci en écrivant (A=I) v I=A 1 :

5.4 Méthode de décomposition LU:


Ces méthodes consiste à décomposer la matrice A en écivant A = L:U ,
ou L est une matrice triangulaire inférieure et U est une matrice triangulaire
supérieure. Le sytème (4.1) s’écrit alors

AX = B , L (U X) = B; (4.13)

30
qui peut se décomposer en 2 systèmes trangulaires

LY = B
(4.14)
U X = Y:

Théorème 5.4.1 Une condition nécessaire et su¢ sante pour qu’une matrice
inversible A puisse se décomposer sous la forme A = L:U est que

det Ak 6= 0, pour tout k = 1; : : : ; n 1;

avec Ak = (aij )ki;j=1 (i.e. les mineurs sont tous non nuls)

Remarque 5.4.2 Il faut souligner que la décomposition LU n’est pas unique,


donc il faut faire au préalable des choix arbitraires. Les deux choix les plus
populaires consistent à imposer que la matrice U ait des 1 sur la diagonale
(décomposition de Crout) ou bien que la matrice L ait des 1 sur la diagonale
(décomposition de Doolittle).

Algorithme de Doolittle.

8
>
> lii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< urj = arj lrk ukj j = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.15)
>
>
>
> X
r 1
>
>
: lir = air lik ukr urr i = r + 1; : : : ; n r = 1; : : : ; n
k=1

Algorithme de Crout.

8
>
> uii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< lir = air lik ukr i = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.16)
>
>
>
> X
r 1
>
>
: urj = arj lrk ukj lrr j = r + 1; : : : ; n r = 1; : : : ; n
k=1

31
Remarque 5.4.3 Le déterminant de la matrice A peut–être calculer aisé-
ment, en e¤et,
det A = det L: det U
pour la méthode de Doolittle comme det A = 1, on a
Y
n
det A = det U = ukk
k=1

et pour la méthode de Crout comme det U = 1, on a


Y
n
det A = det L = lkk :
k=1

5.5 Décomposition de Cholesky.


Théorème 5.5.1 Théorème de Cholesky. Si A est une matrice symé-
trique dé…nie positive, alors elle peut se décomposer sous la forme

A = L:LT

ou L est une matrice réelle triangulaire inférieure.

Dé…nition 5.5.2 Une matrice A est dite dé…nie positive si

hAx; xi > 0 , pour tout vecteur x 2 Rn

ou h:; :i désigne le produit scalaire dans Rn , c’est –à–dire que pour tout x et
Xn
n
y dans R on a hx; yi = xi yi :
i=1

Supposant que A est une matrice symétrique dé…nie positive, alors on a

LY = B
AX = B , L: LT X = B , (4.17)
LT X = Y:

Le problème consiste donc à construire explicitement la matrice L:

32
L’algorithme de factorisation

8 v
> u
>
> u X
r 1
>
> l = tarr 2
lrk ; r = 1; : : : ; n
< rr
k=1 (4.18)
!
>
> X
r 1
>
>
>
: ljr = arj lrk lkj =lrr ; j = r + 1; : : : ; n et r = 1; : : : ; n
k=1

La méthode de Cholesky utilise


8 3
< (n + 6n2 7n) =6 additions et soustractions
n2 + 3n=2 divisions
:
n racines carrées,
soit au total TCholesky = (2n3 + 15n2 + n) =6 opérations élémentaires, par
exemple pour n = 5; TCholesky = 105 et pour n = 10; TCholesky = 585.

Remarque 5.5.3 Si la matrice A n’est pas dé…nie positive, alors on a au


2
moins un des lkk < 0.

33
Chapitre 6

Résolution des systèmes


d’équations linéaires -
Méthodes itératives.

6.1 Introduction
Dans ce chapitre on considère le système (4.2) qui est un système d’équa-
tions linéaires d’ordre N . Nous avons vu que pour résoudre numériquement
ce système, il su¢ t de procéder à une élimination de Gauss avec ou sans
changement de pivot, ou eventuellement, de procéder à une décomposition
LU de A (ou LLT si A est symétrique dé…nie positive), puis résoudre deux
systèmes triangulaires.

Dans le cas ou la matrice A est pleine, le nombre d’opérations nécessaires


à la mise en oeuvre de ces algorithmes est de l’odre N 3 ; ce qui peut être
énorme lorsque N est grand. Dans ces conditions il devient beaucoup plus
commode de rechercher les racines de ce système en utilisant les méthodes
numériques approchées dites méthodes itératives.

Le principe de ces méthodes est de construire une suite de vecteurs


x ; x(1) ; :::; x(n) ; :::; dé…nie par
(0)

x(0) vecteur initial


(5.1)
x(n+1) = Bx(n) + C

34
ou B esty une matrice d’ordre N N dite matrice d’itération et C est un
vecteur de RN telle que

lim x x(n) = 0: (5.2)


n!1

On dit dans ce cas que la suite x(n) converge vers la la solution exacte de
systèe (4.1) et on peut ecrire

x = Bx + C:

Donc cette équation est du type point …xe.


Remarquons au passage que les indices i de x(i) sont placés en haut du
symbole x pour ne pas le confondre la i-ième composante xi :

Remarque 6.1.1 L’utilisation pratique de ces méthodes nécéssite non seule-


ment la convergence,mais aussi que cette convergence ne soit pas trop lente.

6.2 Les méthodes itératives.


Les méthodes de décomposition sont un premier exemple des méthodes
itératives. Supposons que l’on est décomposé A en une di¤erence de deux
matrices carrée d’ordre N; K et M , c’est à dire

A=K M (5.3)

Si K est une matrice régulière, nous pouvons transformer (4.1) en utilisant


(5.3) de la façon suivante :

(K M ) x = b () Kx = M x + b

soit encore
1 1
x=K Mx + K b (5.4)
1 1
et dans ce cas on peut prendre B = K M et C = K b. Donc (5.1) devient

x(0) valeur initiale donnée


(5.5)
x(n+1) = K 1 M x(n) + K 1 b
Nous ferons en sorte que la décomposition (5.3) donne lieu à une matrice
K telle que le système (5.5) soit facile à résoudre, ce qui est par exemple le

35
cas si K est diagonale ou triangulaire. Pour cela écrivons la matrice A sous
la forme
A = D E F; (5.6)
où D est la matrice diagonale formée des éléments (aii )1 i N, E est la
matrice formée des éléments sous-diagonaux de A
0 1
0 0 ::: ::: 0
B a21 0 ::: 0 C
B .. C
B ..
. C
E = B a31 a32 0 . C
B . ... ... C
@ .. 0 A
aN 1 aN 2 : : : aN (N 1) 0
et F est la matrice formée des éléments surdiagonaux de A,
0 1
0 a12 : : : : : : a1N
B 0 0 a23 a2N C
B . C
B . . . . . . .. C
F = B .. . C
B . . .. C
@ .. .. . 0 a(N 1)N A
0 0 ::: 0

Schèmatiquement nous avons


0 1
: : : : :
B : : : F : C
B C
A=B B : : D : : C
C
@ : E : : : A
: : : : :

Si nous supposons que aii 6= 0 pour tout i = 1; 2; :::; N; alors D et (D E)


sont régulières et nous pouvons choisir par exemple K = D ( méthode de
Jacobi ) ou K = D E ( méthode de Gauss –Seidel ).

6.3 Convergence des méthodes itératives


Dé…nition 6.3.1 On dit que la méthode (le processus) itérative (5:1) converge
pour tous vecteur C si (5:2) est véri…ée pour toute valeur initiale x(0) :

36
Dé…nition 6.3.2 Soit A est une matrice carrée d’ordre m; on appele rayon
spectral de A la quantité suivante :
% (A) = max j j j
1 j m

où 1; 2 ; ::: m sont les valeurs propres de la matrice A


Nous donnons sans démonstration les résultats suivants :
Théorème 6.3.3 La méthode itérative (5:2) converge si % (B) < 1.
Théorème 6.3.4 Si A est une matrice symétrique alors
kAxk
% (A) = kAke = max
x6=0 kxk
s m
X
où kxke = x2i est la norme matricielle induite de la norme vectorielle
i=1
euclidienne.
Dé…nition 6.3.5 Soit A = (aij )ni;j=1 est une matrice carrée d’ordre m; alors
on peut dé…nir les normes matricielles suivantes
Xm
kAkc = max jaij j ; (5.7)
i
j=1

X
m
kAkl = max jaij j (5.8)
j
i=1
et v
uX
u m X
m
kAkr = t a2ij (5.9)
i=1 j=1

Théorème 6.3.6 Si pour une morme matricielle donnée on a kBk < 1 alors
la métgode itérative (5:2) est convergente.
Dé…nition 6.3.7 Soit A = (aij )ni;j=1 est une matrice carée d’ordre m. On
dit que A est une matrice à diagonale strictement dominante si
X X
jaii j > jaij j ou jajj j > jaij j :
j6=i i6=j

Théorème 6.3.8 Si la matrice A du système (4:2) est à diagonale stricte-


ment dominante alors toute méthode itérative de résolution est convergente.

37
6.4 Méthode de Jacobi
Revenons aux relation (5.3) et (5.6). Si on pose K = D et M = E + F;
on peut ecrire le système (4.1) comme suit :
X X
aii xi = bi aij xj aij xj ; pour tout i = 1; 2; N:
j<i j>i

Donc on peut écrire la relation (5.5) composante par composante de la ma-


nière suivante :
0 1
1 B X C
(n+1)
xi = Bb i aij xj C
(n)
; 1 i N: (5.10)
aii @ j=1
A
j6=i

(n+1)
Cette relation permet de calculer explicitement les composantes xi ;i =
(n+1) (n)
1; 2; :::; N; du vecteur x à partir des composantes xi ; i = 1; 2; :::N; du
(n)
vecteur x : La matrice J dé…nie par
1
J =K M = D 1 (E + F )
est appelée matrice de Jacobi.

6.4.1 Estimation de l’erreur de la méthode de Jacobi.


L’estimation de l’erreur dû à la méthode de Jacobi véri…e
kJkn
x x(n) x(1) x(0) (5.11)
1 kJk

6.5 Méthode de Gauss –Seidel


En posant K = D E et M = F; le système (5.1) prend la forme
(D E) x(n+1) = F x(n) + b
qui est un système triangulaire inférieur pour l’inconnue x(n+1) : Donc on peut
écrire

(n+1)
X
i 1
(n+1)
X
N
(n)
aii xi + aij xj = bi aij xj ; pour tout i = 1; 2; N:
j=1 j=i+1

38
Par conséquent la relation (5.5) sera écrite composante par composante de
la manière suivante :
!
(n+1) 1 X (n+1)
X (n)
xi = bi aij xj aij xj ; 1 i N: (5.12)
aii j<i j>i

(n)
Si les composantes (xi )1 i N du vecteur x(n) sont connues, les relations
(n+1) (n+1)
(5.12) permettent de calculer successivement x1 ; x2 ; :::; de la manière
suivante :
8 Pn
>
> x1
(n+1)
= a111
(n)
>
> j=2 a1j xj + b1
>
> Pn
< x(n+1) = 1 (n+1)
a21 x1
(n)
2 a22 j=3 a2j xj + b2
> (n+1) (n+1) (n+1) Pn (n)
>
> x3 = a133 a31 x1 a32 x2 j=4 a3j xj + b3
>
>
>
: ...

La matrice G dé…nie par


1
G=K M = (D E) 1 F
est appelée matrice de Gauss-Seidel.
Remarque 6.5.1 A priori la méthode de Gauss-Seidel devrait être plus per-
formante que la méthode de Jacobi puisqu’on tient compte au fur et à mesure,
(n+1)
des valeurs xi déjà calculées.

6.5.1 Estimation de l’erreur de la méthode de Gauss


–Seidel.
Si on écrit G = (gij )N
i;j=1 ; alors l’estimation de l’erreur dû à la méthode
de Gauss –Seidel véri…e
n
x x(n) x(1) x(0) (5.13)
1

X
N
jgij j
j=i
= max :
0 i N X
i 1
1 jgij j
j=1

39
Chapitre 7

Résolution numérique des


équations di¤érentielles
ordinaires du premier ordre.

7.1 Introduction.
Dans ce chapitre on s’intéresse aux équations di¤érentielles ordinaires du
premier ordre de la forme
8
< Trouver la fonction y 7! y(x) telle que
>
dy
(Pr) = f (x; y); pour tout x 2 [a; b] (P)
>
: dx
y(a) = y0 donné.

Les problémes di¤éretielles de ce type sont appelés problèmes de Cauchy


ou problémes à valeur initiale.
Si f est une fonction continue véri…ant une condition de Lipschitz (fonc-
tion lipschitzienne) par rapport à la deuxième variable y; i. e.

9M > 0 telle que 8x 2 [a; b]; 8y1 ; y2 on ait jf (x; y1 (x)) f (x; y2 (x))j jy1 (x) y2 (x)j ;

alors le problème (Pr) admet une solution unique y pour toute valeur initiale
y0 . On dit, dans ce cas, que ce problème est bien posé.

En pratique, il s’est avéré qu’il était impossible de trouver les solutions


exactes de certains problèmes bien posés du point de vue théorique. Pour cela,

40
il devient plus commode de chercher des solutions approchées, en utilisant
les méthodes numériques conçues pour ce type de problèmes.
Comme les ordinateurs ne peuvent fournir qu’un nombre …ni de résultats,
c – à – d, qu’on ne peut pas avoir des valeurs approchées de la solution y
du problème (P) sur tout l’intervalle [a; b]. Tous commence donc par un
choix préalable d’un nombre …ni de points xi 2 [a; b]. Ceci s’appelle une
discrétisation ou un maillage du domaine (ici c’est le segment [a; b]). On
limitera donc le calcul au calcul approché de la solution en ces points.
On va cité dans ce chapitre quelques méthodes (schémas) d’intégration
à un pas, c–à–d, les méthodes qui nous permettent de calculer la valeur
approchée de la solution au point xi+1 ; notée yi+1 = y (xi+1 ) ; en fonction de
la valeur appopchée de la solution au point xi notée yi = y (xi ).

7.2 Méthode d’Euler.


Discrétisant l’intervalle [a; b] à l’aide des points équidistants a = x0 <
x1 < < xn = b, où xi+1 xi = h pour tout i = 0; 1; ; n 1 et
b a
h= .
n
dy
En intégrant par rapport à x les deux cotés de l’equation = f (x; y)
dx
sur l’intervalle [xi ; xi+1 ], on obtient
xZ
i+1 xZ
i+1

y (xi+1 ) y (xi ) = yi+1 yi = dy = f (x; y(x)) dx;


xi xi

alors, en utilisant la formule de quadrature des réctangles (ou on interpole


f par rapport à la variable x par un polynôme constant sur chaque sous
intervalle [xi ; xi+1 ]) suivante
Zb
g(x)dx t (b a)g( )
a

a+b
où = a ou b ou , on obtient en remplaçant par a; la formule
2
d’Euler explicite suivante
yi+1 = yi + hf (xi ; yi ) (6.1)

41
et si on remplace par b; on obtient la la formule d’Euler implicite
suivante
yi+1 = yi + hf (xi+1 ; yi+1 ) : (6.2)

Géomètriquement, la méthode d’Euler explicite revient à remplacer loca-


lement en chaque point xi ; la courbe solution par sa tangente. ainsi on va
réunir sur le plan des cordonnées les points (x0 ; y0 ) ; (x1 ; y1 ) ; ; (xn ; yn ) par
des segment de droites pour obtenir une ligne brisée qui est la représenta-
tion approchée de la courbe d’intégrale. Cette ligne brisée est appelée ligne
brisée d’Euler.

Remarque 7.2.1 On peut démontrer que si (Pr) admet une solution unique
y pour toute valeur initiale y0 ; la méthode d’Euler explicite converge, c–à–d
que si on note la solution approchée de ce problème correspondant au pas h
par yh on obtient
lim [yh (x) y (x)] = 0 pour tout x 2 [a; b]
h!0

et que l’erreur R = yh (x) y (x) est d’ordre 1 en h; i. e.


yh (x) y (x)
yh (x) y (x) = o (h) () lim = 0:
h!0 h

7.3 Méthodes de Runge –Kutta.


Les méthodes de Runge – Kutta sont les généralisations de la méthode
d’Euler à des ordres supérieurs à un. Elles s’obtiennent à partir des formules
d’intégrations numériques plus précises que la formule des rectangles.

En e¤et, l’utilisation de la formule des trapèzes


xZ
i+1
h
g(x)dx t [g(xi ) + g(xi+1 )]
2
xi

nous conduit à la méthode (schéma) suivante


(
y0 , valeur initiale donnée
h (6.3)
yi+1 = yi + [f (xi ; yi ) + f (xi+1 ; yi+1 )] :
2
42
Cette méthode est une méthode implicite. Si on veut obtenir une méthode
explicite du même ordre, on peut procéder de la manière suivante
8
< y0 , valeur initiale donnée
>
yi+1 = yi + hf (xi ; yi ) (6.4)
>
: y = y + h f (x ; y ) + f x ; y
i+1 i i i i+1 i+1 :
2
On obtient ainssi la formule de Runge –Kutta d’odre 2.

De même, l’utilisation de la formule d’intégration numérique de Simpson


est à la base de la formule de formule de Runge –Kutta d’odre 4. C’est
l’une des formules les plus utilisées, elle s’écrit
8
> y0 , valeur initiale donnée
>
>
>
> k1 = hf (xi ; yi )
>
>
>
> h k1
>
> k = hf x + ; y +
>
>
2 i
2
i
2
<
h k2 (6.5)
> k3 = hf xi + ; yi +
>
> 2 2
>
> h k3
>
> k4 = hf xi + ; yi +
>
>
>
> 2 2
>
>
: yi+1 = yi + 1 [k1 + 2k2 + 2k3 + k4 ] :
6

43

Vous aimerez peut-être aussi