16 février 2019
Table des matières
1 Introduction. 3
1.1 Erreur absolue - Erreur relative. . . . . . . . . . . . . . . . . . 3
1.2 Représentation décimale des réels. . . . . . . . . . . . . . . . . 5
3 Interpolation polynômiale. 13
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Approximation polynômiale. (hors programme) . . . . . . . . 13
3.2.1 Approximation aux sens des moindres carrées. . . . . . 14
3.2.2 Approximation aux sens des moindres carrées discrète. 15
3.3 Interpolation polynômiale. . . . . . . . . . . . . . . . . . . . . 16
3.3.1 Introduction –Position du problème. . . . . . . . . . . 16
3.4 Formule d’interpolation de Lagrange. . . . . . . . . . . . . . . 17
3.5 Intrepolation d’Hermite. . . . . . . . . . . . . . . . . . . . . . 19
3.6 Erreur de l’interpolation. . . . . . . . . . . . . . . . . . . . . . 21
4 Intégration numérique. 22
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Approximation d’une intégrale dé…nie. . . . . . . . . . . . . . 22
4.3 Formules de quadrature de Newton–Côtes. . . . . . . . . . . . 23
1
4.3.1 Méthode des trapèzes. . . . . . . . . . . . . . . . . . . 24
4.3.2 Méthode de Simpson (pour n = 2p). . . . . . . . . . . . 25
4.4 Formule de Quadrature de Gauss. (Hors programme) . . . . . 27
2
Chapitre 1
Introduction.
Le but de ce cours, est donc, de fournir les principes de base des méthodes
numériques les plus utilisées.
3
Les algorithmes sont intégrés dans des calculateurs par l’intermédiaire des
programmes.
Dans la majorité des cas, l’erreue absolue et relative sont inconuues, alors
pour les estimer on introduit la notion du majorant de l’erreur.
E = jx xj x,x x x x + x:
4
1.2 Représentation décimale des réels.
Tous réel strictement positif x peut prendre la forme suivante
x = am :10m + am 1 :10m 1
+ a0 :100 + a 1 :10 1
+ a i :10 i
+
5
Chapitre 2
2.1 Introduction.
6
2.2 Séparation des racines.
Pour toutes les méthodes numériques pour la résolution de (Pr), il faut
d’abord faire une étape trés importanten, qui consiste à trouver des intervalles
de la forme [ai ; bi ] dans lesquels l’équation f (x) = 0 admet une seule et une
solution. Cette étape est appelée séparation des zéos. Pour cela, on fait
appelle au théorème suivant.
Remarque 2.2.2 Si f (a):f (b) > 0, alors soit f n’a pas de zéros, soit elle
admet un nombre pair de zéros dans [a; b].
7
De cette manière on a obtenu un autre intervalle [a1 ; b1 ] contenant et
dont la longueur est égale à la moitié de la longueur de [a; b] = b a
a1 + b 1
Dans ce cas on considère le point x1 = :, On a deux cas :
er
2
1 cas : Si f (x1 ) = 0, alors = x1 :
2eme cas : Si f (x1 ) 6= 0; alors la racine se trouve dans l’un des deux inter-
valles [a1 ; x1 ]; [x1 ; b1 ]:
–Si f (a1 ):f (x1 ) < 0 alors 2 [a1 ; x1 ]; on pose dans ce cas a2 = a1 et b2 = x1 .
–Si f (x1 ):f (b1 ) < 0 alors 2 [x1 ; b1 ]; on pose dans ce cas a2 = x1 et b2 = b1 .
De cette manière on a obtenu un autre intervalle [a2 ; b2 ] contenant et
b a
dont la longueur est égale à la moitié de la longueur de [a1 ; b1 ] = :
2
En itérant le procédé, on obtient une suite de points
a+b a1 + b 1 an+1 + bn+1
x0 = ; x1 = ; : : : ; xn+1 =
2 2 2
où
[an ; xn ] ; si f (an ):f (xn ) < 0
[an+ ; bn+1 ] =
[xn ; bn ] ; sinon.
Proposition 2.3.1 Soit f une fonction continue sur [a; b]; véri…ant f (a):f (b) <
0 et soit 2]a; b[ l’unique solution de l’équation f (x) = 0: Alors la suitefxn gn 0
construite par la méthode de Dichotomie converge ves et on a l’estimation
de l’erreur suivante
b a
en = j xn j ; pour tout n 2 N:
2n+1
Remarque 2.3.2 Cett estimation fournie directement un critère d’arrêt,
puisque, à une précision " donnée, cette dérnière nous permet d’approcher
en un nombre prévisible d’iterations (prévoir à l’avance le nombre d’ité-
rations nécéssaire sans faire à chaque fois le test d’aérrêt). On e¤et, pour
b a
avoir en = j xn j < "; il su¢ t de supposer que < " , n
2n+1
ln [(b a)="]
1:
ln 2
Dé…nition 2.3.3 (Ordre de convergence) Soit fxn gn 0 une suite réelle
qui converge vers : On dit que cette suite est convergente d’ordre r 1;
8
s’il existe deux constantes réelles 0 < C1 C2 < +1 et un entier n0 ; telles
que
jx;+1 j
C1 r C2 ; pour tout n n0 :
jxn j
Remarque 2.4.1 Une bonne approximation initiale x0 est celle qui véri…e
l’inégalité suivante
f (x0 ):f "(x0 ) > 0: (1:6)
9
Proposition 2.4.3 L’estimation de l’erreur commise par la méthode de New-
ton – Raphson est donnée par
jf (xn )j
en = j xn j ;
m1
où m1 = min jf 0 (x)j.
[a;b]
f (xn )
Le test d’arrêt jxn+1 xn j ", ".
f 0 (x)
Remarque 2.4.4 1) Si l’estimation (1:7) est mauvaise, alors on peut res-
treindre l’intervalle [a; b].
2) Lorsque la méthode de Newton –Raphson converge, alors on a suivant le
signe de f " :
(a) f " > 0, alors si f 0 > 0 (respectivement f 0 < 0), la suite fxn gn 0 est
monotone et converge vers la racine par excès, c–à–d xn > (respective-
ment par défaut).
(b) f " < 0, alors si f 0 < 0 (respectivement f 0 > 0), la suite fxn gn 0 est
monotone et converge vers la racine par excès, c–à–d xn > (respective-
ment par défaut).
10
La méthgode d’approximation résultante est appelée méthode (algoriothme)
du point …xe ou encore méthode des approximations succéssives. Si
cette suite converge, cela ne peut être que vers le point …xe : En e¤et, si
lim xn = l; alors
n!+1
11
"(1 k)
ln
jx1 x0 j
n : (6)
ln k
(4) Sous la condition (2) (ou (4)) la méthode des approximations successives
converge quelque soit le choix de l’approximation initiale x0 . Il en résulte que
cette méthode est "auto correctrice".
(5) (a) Si 0 F 0 (x) k < 1, alors la suite fxn gn 0 converge vers d’une
façon monotone.
(b) Si 1 < k F 0 (x) 0, alors la suite fxn gn 0 converge vers
alternativement par exés et par défaut.
(6) Si jF 0 (x)j > 1; la suite diverge.
12
Chapitre 3
Interpolation polynômiale.
3.1 Introduction
Soit fx0 ; x1 ; ; xn g un ensemble …ni de réels dans l’intervalle [a; b]. Nous
supposerons qu’à chaque point xi on peut associer un réel yi (exp : résul-
tat d’une expérience) telle que yi = f (xi ), mais que cette opération soit
impossible pour tout x 6= xi ; i = 0; n. Nous voudrions déterminer donc
une fonction facilement calculable, qui nous permet d’obtenir une estimation
"raisonnable" de la réponse de ce phénomène pour tout x 2 [a; b].
II- Nous pouvons chercher une fonction g d’un type préalablement choisi,
telle que yi = f (xi ) = g(xi ), pour tout i = 0; n. C’est l’interpolation.
13
car les polynômes sont très faciles à dériver, à intégrer et constituent un
espace vectoriel.
Théorème 3.2.2 Si f 2 C[a; b], alors quelque soit " > 0 il existe Pn un
polynôme de degré n, telle que max jf (x) Pn (x)j < ".
a x b
où w est une fonction positive continue par morceaux sur [a; b]. Dans ce cas,
on peut dé…nir une distance d dans cet espace de la manière suivante
p
d(f; g) = hf g; f gi pour tous f; g 2 C ([a; b])
Théorème 3.2.3 Une condition nécessaire et su¢ sante pour que la fonction
g soit une meilleure approximation de la fonction f est
i=0 j=0
14
Ceci est équivalent à
* n +
X
n X
n X
aj f; xn j
= aj ai x n i ; x n
e j
pour tout (a0 ; a1 ; : : :; an ) 2 Rn+1 :
j=0 j=0 i=0
Zb X
n Zb
n j
x f (x)w(x)dx = ai x2n
e i j
w(x)dx pour tout j = 0; n: (2.3)
a i=0 a
pour tout j = 0; n:
15
3.3 Interpolation polynômiale.
3.3.1 Introduction –Position du problème.
Soit y = f (x) une fonction dont on ne connait que les valeurs yi qu’elle
prend aux n + 1 points distincts xi , i = 0; n. On a donc
yi = f (xi ); i = 0; n: (2.5)
yi = Pn (xi ); i = 0; n: (2.6)
Le problème posé sous sa forme générale peut avoir une in…nité de solu-
tions ou non avoir point. Toutefois, il existe une seule solution si on cherche
un polynôme Pn .
Pn (x) = a0 xn + a1 xn 1
+ : : : + an ;
16
qui est un système linéaire de déterminant noté par V (x0 ; x1 ; : : ; xn ) et
donné par
xn0 x0n 1
x0 1
xn1 x1n 1
x1 1
.. .. .. ..
V (x0 ; x1 ; : : ; xn ) = . . . . 6= 0
.. .. . . . ..
. . .
xnn xnn 1
xn 1
Comme
on a
1
ci = :
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )
17
Par conséquent
(x x0 ) (x xi 1 )(x xi+1 ) (x xn )
li (x) =
(xi x0 ) (xi xi 1 )(xi xi+1 ) (xi xn )
ou encore
Yn
x xj
li (x) = : (2.8)
x
j=0 i
xj
j6=i
X
n
On a deg Ln n et Ln (xj ) = yi li (xj ) = yj lj (xj ) = yj :
i=0
Ainsi
X
n Yn
x xj
Ln (x) = yi pour tout x 2 [min fxi g ; max fxi g]: (2.10)
i=0
x
j=0 i
xj
j6=i
18
3.5 Intrepolation d’Hermite.
L’utilisation de la formule d’interpolation de Lagrange s’avère peut com-
mode d’un point de vue pratique. D’autre part, l’expression des li (x) montre
qu’on peut di…cilement déduire un polynôme de Lagrange à partir d’un autre
polynôme de Lagrange. Immaginant que l’on connaisse le polynôme d’in-
terpolation Pn 1 (x) associés aux n points (xi ; yi ); i = 0; 1; ; n 1; et
qu’étant donné un point suplémentaire (xn ; yn ) on souhaite calculer Pn (x):
La formule d’interpolation de Lagrange faisant intervenir les polynômes li (x)
aux noeuds fxi gni=0 conduit au calcul de tous les polynômes (de degré n)
li (x); i = 0; 1; ; n:
19
où
yi yj f (xi ) f (xj )
f [xi ; xj ] = = ; pour i 6= j;
xi xj xi xj
f [xi ; xj ] f [xj ; xk ]
f [xi ; xj ; xk ] = ; pour i 6= j 6= k et
xi xk
Xn
yi
f [x0 ; x1 ; ; xn ] = :
Y n
i=0
(xj xi )
j=0
j6=i
20
3.6 Erreur de l’interpolation.
f (n+1) ( ) Y
n
En (x) = f (x) Pn (x) = (x xi ): (2:13)
(n + 1)! i=0
Dans ce cas
Mn+1 Y
n
jf (x) Pn (x)j jx xi j ; (2:14)
(n + 1)! i=0
21
Chapitre 4
Intégration numérique.
4.1 Introduction
Soit f une fonction dé…nie sur un intervalle [a; b]. Nous supposerons l’in-
tégrale dé…nie suivant
Zb
I = f (x)dx.
a
Zb
I= f (x)dx. (3.1)
a
22
écrire que
X
n
I= i f (xi ) +R (3.2)
i=0
où les coe¢ cients i seront choisis de telle sorte que le reste R soit nul lorsque
f est d’un type déterminé.
Pour f quelconque on appellera la formule suivante
X
n
I t An = i f (xi ) (3.3)
i=0
La réponse est positive que sous certaines conditions sur les i et les xi .
Théorème 4.2.1 Lorsque f est continue sur [a; b], nous avons (3:4) si les
conditions suivantes sont véri…ées.
1) (3:4) est vrai pour tout polynôme P .
X n
2) j i j est bornée pour tout n.
i=0
23
b a
Dans ce cas h = .
n
En interpolant f par des polynômes de degré m par morceaux, on obtient
les formules de quadrature de Newton–Côtes suivantes
Zb X
m
f (x)dx t (b a) Hi f (xi ) (3.5)
a i=0
où
Zm
( 1)m i q [m+1]
Hi = dq
i!(m i)!m q i
0
[m+1]
et q = q(q 1)(q 2) (q m), appelé puissance généralisée.
1Z Z1
1
( 1) q [2]
H1 = dq = qdq = 1=2.
1!0!1 q 1
0 0
Donc
Zx1
h
f (x)dx t (y0 + y1 ).
2
x0
De la même manière nous pouvons écrire
Z
xi+1
h
f (x)dx t (yi + yi+1 ), pout tout i = 0; n 1.
2
xi
24
Zb n 1 Zi+1
X
x
X
n 1
h
I t (yi + yi+1 )
i=0
2
h
= [(y0 + y1 ) + (y1 + y2 ) + (y2 + y3 ) (yn 2 + yn 1 )(yn 1 + yn )]
2
h
= [y0 + 2y1 + 2y2 + 2yn 1 + yn ]
2
Donc la formule des trapèzes est
b a h y0 y0 i
I= + y1 + y2 + + RT (3.6)
n 2 2
où RT est l’erreur commise par cette méthode véri…ant
h2
jRT j = (b a)f 00 ( ) ; 2]a; b[ (3.7)
12
nh3
max jf 00 (x)j
12 a x b
et dans ce cas on dit que l’erreur de la formule des trapèzes est d’ordre 2 en
h.
25
avec
Z2 Z2
( 1)2 q [3] 1
H0 = dq = (q 1)(q 2)dq = 1=6;
0!2!2 q 4
0 0
Z2 Z2
( 1)1 q [3]
H1 = dq = q(q 2)dq = 2=3 et
1!1!2 q 1
0 0
Z2 Z2
( 1)0 q [3]
H2 = dq = q(q 1)dq = 1=6.
2!0!2 q 2
0 0
D’où
Zx2
h
f (x)dx t (y0 + 4y1 + y2 ).
3
x0
26
4.4 Formule de Quadrature de Gauss. (Hors
programme)
Dé…nition 4.4.1 On appele polynômes de Legendre les expressions de la
forme
1 dn
Pn (x) = n (x2 1)n ; n 0 (3.10)
2 n! dxn
Voici les propriétés fondamentales de ces polynômes
1) Pn (1) = 1; Pn ( 1) = ( 1)n pour tout n 0.
2) deg Pn = n pour tout n 0:
Z1 Z1
k
3) x Pn (x)dx = 0, k < n , Pm (x)Pn (x)dx = 0 pour tout m 6= n: On dit
1 1
dans ce cas que ces polynômes sont orthogonaux par rapport à la fonction
Zb
poids w (x) = 1(i.e. Pm (x)Pn (x)w(x)dx = kn mn ).
a
4) Le polynôme de Legendre Pn (x) possède n racines distintes et réelles com-
prise entre [ 1; 1].
On cite ci–dessous les 5 premiers polynômes
P0 (x) = 1;
P1 (x) = x;
P2 (x) = 1=2(3x2 1);
P3 (x) = 1=2(5x3 3x) et
P4 (x) = 1=8(35x4 30x2 + 3).
qui soit exacte pour tout polynômes dont le degré est le plus grand possible.
27
En on déduit alors que pour résoudre ce problème il su¢ t de déterminer
les ti et les Ai à partir du système d’équations suivant
Z1 ( 2
X n
; k pair
Ai tki = tk dt = k+1 ; ; k = 0; ; n 1,
i=1 1
0 ; k impair
où les ti sont les zéros du polynôme de Legendre de degré n.
D’où 8 n
> X
>
> Ai = 2
>
>
>
>
>
>
i=1
>
> X n
>
> ti1 Ai = 0
>
>
>
< i=1
X n
(3.12)
>
> t2i Ai = 2=3
>
>
>
> i=1
>
> X n
>
> t3i Ai = 0
>
>
>
>
>
>
i=1
: ..
.
La formule obtenue ainsi, est appelée formule de quadrature de Gauss
à n coordonnées.
Pour f dé…nie sur un intervalle quelconque [a; b], on considère le change-
ment de variable suivant
b a b+a
x= t+ , pour tout t 2 [ 1; 1],
2 2
qui transforme l’intervalle [ 1; 1] à [a; b]. Donc on peut écrire que
Zb Z1
b a b a b+a
f (x)dx = f t+ dt, (3.13)
2 2 2
a 1
par conséquent la formule de quadrature de Gauss sur [a; b] est donnée par
Zb
aX
n
b
f (x)dx t Ai f (xi )
2 i=1
a
b a b+a
où xi = ti + , pour tout i = 1; n
2 2
28
Chapitre 5
5.1 Introduction.
Dans ce chapitre, on se propose d’étudier quelques méthodes permet-
tant de résoudre les systèmes de n équations à n inconnues de la forme
8
>
> a11 x1 + a12 x2 + + a1n xn = b1
>
< a21 x1 + a22 x2 + + a2n xn = b2
.. (4.1)
>
> .
>
: a x +a x +
n1 1 n2 2 +a x =b :
nn n n
Soient A = (aij ) 2 Mn (R) (l0 ensemble des matrices carrées d0 ordre n à élé-
ments dans R), B le vecteur de composantes (b1 ; b2 ; ; bn ) et X le vecteur
inconnu de composantes (x1 ; x2 ; ; xn ). Résoudre le système (4.1) revient
alors a résoudre l’équation matricielle
AX = B: (4.2)
29
l’esprit est l’utilisation des formules de Cramer données par
Il en résulte que pour la résolution du système (4.1) par ces formules nécessite
au total TCramer = (n + 1)2 n! 1 opérations élémentaires, par exemple pour
n = 5, on a TCramer = 4319 et pour n = 10, on a TCramer v 4:108 :
Dans ce cas, elle devient trés lente en temps d’execution (de calculs) dés
que n dépasse 4.
Une autre méthode consiste à calculer la matrice inverse de A, c’est–à–
dire :
A 1 A X = A 1 B d’où X = A 1 B: (4.4)
Pour cela on utilise au total TInverse = n!(n2 + n + 1) + 3n2 n opérations
élémentaires, par exemple pour n = 5, on a TInverse = 3790 et pour n = 10,
on a TInverse v 4:108 :
Cette méthode n’est donc pas plus avantageuse que la première.
Dans ce chapitre, nous fairions appelle à des méthodes numériques ayant
des temps de calcul acceptables et dont lee nombre d’opératons est d’ordre
n3 . Ces métodes peuvent être :
- Directes qui sont utilisées seulement si le nombre d’équations n’est pas
trop élevé (n 100):
- Iteratives qui sont utilisées dès que la taille du système est grande (n
100), ce qui ne les empèches pas d’être également utiles pour des petits
systèmes.
30
sous la forme suivante
8
>
> a11 x1 + a12 x2 + : : : + ain xi + : : : a1n xn = b1
>
> a22 x2 + : : : + ai2 xi + : : : a2n xn = b2
>
>
>
< .. .. .. .. ..
. . . . .
(4.5)
>
> aii xi + : : : ain xn = bi
>
> . . . .. .. ..
>
> . . .
>
:
ann xn = bn
31
5.2 Méthode de l’élimination de Gauss.
Théorème 5.2.1 Théorème de Gauss. Etant donnée une matrice carrée
A, il existe une matrice inversible M , telle que la matrice A0 = M:A soit
triangulaire supérieure.
La méthode de Gauss transforme le système (4.1) en un système triangu-
laire équivalent au système (4.5), à l’aide d’un algorithme d’élimination en
utilisant seulement les trois opérations élémentaires suivantes :
Ces 3 opérations élémentaires sont permise, car elle nous permettent d’ob-
ternir un système triangulaire équivalent au système (4.1) (i. e. ayant la même
solution).
32
Algorithme de Gauss
1- Triangularisation
w = aik =akk
(i) (4.10)
aij = aij w:akj
pour j = k + 1; : : : ; n + 1, i = k + 1; : : : ; n et k = 1; : : : ; n 1:
2- Résolution
!,
(n)
X
n
(n) (n)
xi = bi aij xj aii : (4.11)
j=i+1
Algorithme de Jordan
Transformation (A=B) v I=D 1 B 0
(
(k) (k 1) (k 1)
akk = akj =akk ; j = k + 1; : : : ; n + 1
(k) (k 1) (k 1) (k) (12)
aij = aij aik :akj ; j = k + 1; : : : ; n + 1
pour i et k = 1; : : : ; n et i 6= k:
AX = B , L (U X) = B; (4.13)
33
qui peut se décomposer en 2 systèmes trangulaires
LY = B
(4.14)
U X = Y:
Théorème 5.4.1 Une condition nécessaire et su¢ sante pour qu’une matrice
inversible A puisse se décomposer sous la forme A = L:U est que
avec Ak = (aij )ki;j=1 (i.e. les mineurs sont tous non nuls)
Algorithme de Doolittle.
8
>
> lii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< urj = arj lrk ukj j = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.15)
>
>
>
> X
r 1
>
>
: lir = air lik ukr urr i = r + 1; : : : ; n r = 1; : : : ; n
k=1
Algorithme de Crout.
8
>
> uii = 1 i = 1; : : : ; n
>
> X
r 1
>
>
< lir = air lik ukr i = r; : : : ; n r = 1; : : : ; n
k=1 !, (4.16)
>
>
>
> X
r 1
>
>
: urj = arj lrk ukj lrr j = r + 1; : : : ; n r = 1; : : : ; n
k=1
34
Remarque 5.4.3 Le déterminant de la matrice A peut–être calculer aisé-
ment, en e¤et,
det A = det L: det U
pour la méthode de Doolittle comme det A = 1, on a
Y
n
det A = det U = ukk
k=1
A = L:LT
ou h:; :i désigne le produit scalaire dans Rn , c’est –à–dire que pour tout x et
Xn
n
y dans R on a hx; yi = xi yi :
i=1
LY = B
AX = B , L: LT X = B , (4.17)
LT X = Y:
35
L’algorithme de factorisation
8 v
> u
>
> u X
r 1
>
> l = tarr 2
lrk ; r = 1; : : : ; n
< rr
k=1 (4.18)
!
>
> X
r 1
>
>
>
: ljr = arj lrk lkj =lrr ; j = r + 1; : : : ; n et r = 1; : : : ; n
k=1
36
Chapitre 6
6.1 Introduction
Dans ce chapitre on considère le système (4.2) qui est un système d’équa-
tions linéaires d’ordre N . Nous avons vu que pour résoudre numériquement
ce système, il su¢ t de procéder à une élimination de Gauss avec ou sans
changement de pivot, ou eventuellement, de procéder à une décomposition
LU de A (ou LLT si A est symétrique dé…nie positive), puis résoudre deux
systèmes triangulaires.
37
ou B esty une matrice d’ordre N N dite matrice d’itération et C est un
vecteur de RN telle que
On dit dans ce cas que la suite x(n) converge vers la la solution exacte de
systèe (4.1) et on peut ecrire
x = Bx + C:
A=K M (5.3)
(K M ) x = b () Kx = M x + b
soit encore
1 1
x=K Mx + K b (5.4)
1 1
et dans ce cas on peut prendre B = K M et C = K b. Donc (5.1) devient
38
cas si K est diagonale ou triangulaire. Pour cela écrivons la matrice A sous
la forme
A = D E F; (5.6)
où D est la matrice diagonale formée des éléments (aii )1 i N, E est la
matrice formée des éléments sous-diagonaux de A
0 1
0 0 ::: ::: 0
B a21 0 ::: 0 C
B .. C
B ..
. C
E = B a31 a32 0 . C
B . ... ... C
@ .. 0 A
aN 1 aN 2 : : : aN (N 1) 0
et F est la matrice formée des éléments surdiagonaux de A,
0 1
0 a12 : : : : : : a1N
B 0 0 a23 a2N C
B . C
B . . . . . . .. C
F = B .. . C
B . . .. C
@ .. .. . 0 a(N 1)N A
0 0 ::: 0
39
Dé…nition 6.3.2 Soit A est une matrice carrée d’ordre m; on appele rayon
spectral de A la quantité suivante :
% (A) = max j j j
1 j m
X
m
kAkl = max jaij j (5.8)
j
i=1
et v
uX
u m X
m
kAkr = t a2ij (5.9)
i=1 j=1
Théorème 6.3.6 Si pour une morme matricielle donnée on a kBk < 1 alors
la métgode itérative (5:1) est convergente.
Dé…nition 6.3.7 Soit A = (aij )ni;j=1 est une matrice carée d’ordre m. On
dit que A est une matrice à diagonale strictement dominante si
X X
jaii j > jaij j ou jajj j > jaij j :
j6=i i6=j
40
6.4 Méthode de Jacobi
Revenons aux relation (5.3) et (5.6). Si on pose K = D et M = E + F;
on peut ecrire le système (4.1) comme suit :
X X
aii xi = bi aij xj aij xj ; pour tout i = 1; 2; N:
j<i j>i
(n+1)
Cette relation permet de calculer explicitement les composantes xi ;i =
(n+1) (n)
1; 2; :::; N; du vecteur x à partir des composantes xi ; i = 1; 2; :::N; du
(n)
vecteur x : La matrice J dé…nie par
1
J =K M = D 1 (E + F )
est appelée matrice de Jacobi.
(n+1)
X
i 1
(n+1)
X
N
(n)
aii xi + aij xj = bi aij xj ; pour tout i = 1; 2; N:
j=1 j=i+1
41
Par conséquent la relation (5.5) sera écrite composante par composante de
la manière suivante :
!
(n+1) 1 X (n+1)
X (n)
xi = bi aij xj aij xj ; 1 i N: (5.12)
aii j<i j>i
(n)
Si les composantes (xi )1 i N du vecteur x(n) sont connues, les relations
(n+1) (n+1)
(5.12) permettent de calculer successivement x1 ; x2 ; :::; de la manière
suivante :
8 Pn
>
> x1
(n+1)
= a111
(n)
>
> j=2 a1j xj + b1
>
> Pn
< x(n+1) = 1 (n+1)
a21 x1
(n)
2 a22 j=3 a2j xj + b2
> (n+1) (n+1) (n+1) Pn (n)
>
> x3 = a133 a31 x1 a32 x2 j=4 a3j xj + b3
>
>
>
: ...
42
Exemple 6.5.2 On considère le système
8 0 10 1 0 1
>
> 5x 1 x 2 x 3 x 4 = 4 5 1 1 1 x1 4
< B 1 10 C B x2 C B 12 C
x1 + 10x2 x3 x4 = 12 1 1
,B@ 1
CB C B
A @ x3 A = @ 8
C
A
>
> x 1 x 2 + 5x 3 x 4 = 8 1 5 1
:
x1 x2 x3 + 10x4 = 34 1 1 1 10 x4 34
dont la solution est x = (1; 2; 3; 4)t :
(a) Méthode de Jacobi :
La matrice de Jacobi est J = K 1 M = D 1 (E + F ); où
0 1 0 1 0 1
5 0 0 0 0 0 0 0 0 1 1 1
B 0 10 0 0 C B 1 0 0 0 C B 0 0 1 1 C
D=B C
@ 0 0 5 0 A; E = @ 1 1
B C et F = B C
0 0 A @ 0 0 0 1 A
0 0 0 10 1 1 1 0 0 0 0 0
et l’algorithme de Jacobi est x(p+1) = J:x(p) + D 1 b:
0 10 1
1=5 0 0 0 0 1 1 1
B 0 1=10 0 0 C B 1 C
D 1 (E + F ) = B CB 1 0 1 C
@ 0 0 1=5 0 A@ 1 1 0 1 A
0 0 0 1=10 1 1 1 0
0 1
0 1=5 1=5 1=5
B 1=10 0 1=10 1=10 C
= B @ 1=5 15
C:
0 1=5 A
1=10 1=10 1=10 0
Donc l’algorithme devient
0 (p+1) 1 0 1 0 (p) 1 0 1
x1 0 1=5 1=5 1=5 x1 4=5
B (p+1) C B B C B
1=10 C C B 12=10 C
(p)
B x2 C 1=10 0 1=10 CB x2
B (p+1) C = B B C+@ C;
@ x3 A @ 1=5 15 0 1=5 A @ x(p)
3 A 8=5 A
x4
(p+1) 1=10 1=10 1=10 0 (p)
x4 34=10
ou encore 8
> (p+1) 1 (p) (p) (p)
>
> x1 = x2 + x3 + x4 4
>
> 5
>
> 1
< x(p+1)
2 =
(p) (p)
x1 + x3 + x4 + 12
(p)
10
> (p+1) 1 (p) (p) (p)
>
> x3 = x1 + x2 + x4 + 8
>
> 5
>
>
: x(p+1) = 1 (p) (p) (p)
x1 + x2 + x3 + 34 :
4
10
43
(F) La convergence de cette méthode.
La méthode itérative x(n+1) = Bx(n) + C converge si pour une norme
matricielle donnée on a kBk < 1:
X
4
kJk = max jjnm j = max f3=5; 3=10g = 3=5 < 1
n
m=1
44
(F) La convergence de cette méthode.
kGk = 3=5 < 1 ) la convergence de la méthode de Gauss – Seidel.
(F) L’algorithme de Gauss –Seidel .
L’algorithme de cette méthode est
(D E) x(p+1) = F x(p) + b;
ou encore
0 1 0 (p+1) 1 0 1 0 (p) 1 0 1
5 0 0 0 x1 0 1 1 1 x1 4
B 1 10 0 B (p+1) C B B (p) C B
B 0 C CB x2 C B 0 0 1 1 C C B x2 C B 12 C C;
@ 1 B C = B C+@
1 5 0 A @ x3 (p+1)
A @ 0 0 0 1 A @ x(p) 3 A 8 A
1 1 1 10 x4
(p+1) 0 0 0 0 x4
(p) 34
ou encore 8 (p+1) (p) (p) (p)
>
> 5x1 = x2 + x3 + x4 4
>
< (p+1) (p+1) (p) (p)
x1 + 10x2 = x3 + x4 + 12
(p+1) (p+1) (p+1) (p)
>
> x1 x2 + 5x3 = x4 + 8
>
: (p+1) (p+1) (p+1) (p+1)
x1 + x2 + x3 + 10x4 = 34:
Par conséquent on obtient
8
> (p+1) 1 (p) (p) (p)
>
> x1 = x2 + x3 + x4 4
>
> 5
>
> 1
< x(p+1)
2 = x1
(p+1) (p)
+ x3 + x4 + 12
(p)
10
> (p+1) 1 (p+1) (p+1) (p)
>
> x3 = x1 + x2 + x4 + 8
>
> 5
>
>
: x(p+1) = 1 x(p+1) + x(p+1) + x(p+1) + 34 :
4
10 1 2 3
45
Chapitre 7
7.1 Introduction.
Dans ce chapitre on s’intéresse aux équations di¤érentielles ordinaires du
premier ordre de la forme
8
< Trouver la fonction y 7! y(x) telle que
>
dy
(Pr) = f (x; y); pour tout x 2 [a; b] (P)
>
: dx
y(a) = y0 donné.
9M > 0 telle que 8x 2 [a; b]; 8y1 ; y2 on ait jf (x; y1 (x)) f (x; y2 (x))j jy1 (x) y2 (x)j ;
alors le problème (Pr) admet une solution unique y pour toute valeur initiale
y0 . On dit, dans ce cas, que ce problème est bien posé.
46
il devient plus commode de chercher des solutions approchées, en utilisant
les méthodes numériques conçues pour ce type de problèmes.
Comme les ordinateurs ne peuvent fournir qu’un nombre …ni de résultats,
c – à – d, qu’on ne peut pas avoir des valeurs approchées de la solution y
du problème (P) sur tout l’intervalle [a; b]. Tous commence donc par un
choix préalable d’un nombre …ni de points xi 2 [a; b]. Ceci s’appelle une
discrétisation ou un maillage du domaine (ici c’est le segment [a; b]). On
limitera donc le calcul au calcul approché de la solution en ces points.
On va cité dans ce chapitre quelques méthodes (schémas) d’intégration
à un pas, c–à–d, les méthodes qui nous permettent de calculer la valeur
approchée de la solution au point xi+1 ; notée yi+1 = y (xi+1 ) ; en fonction de
la valeur appopchée de la solution au point xi notée yi = y (xi ).
a+b
où = a ou b ou , on obtient en remplaçant par a; la formule
2
d’Euler explicite suivante
yi+1 = yi + hf (xi ; yi ) (6.1)
47
et si on remplace par b; on obtient la la formule d’Euler implicite
suivante
yi+1 = yi + hf (xi+1 ; yi+1 ) : (6.2)
Remarque 7.2.1 On peut démontrer que si (Pr) admet une solution unique
y pour toute valeur initiale y0 ; la méthode d’Euler explicite converge, c–à–d
que si on note la solution approchée de ce problème correspondant au pas h
par yh on obtient
lim [yh (x) y (x)] = 0 pour tout x 2 [a; b]
h!0
49