Académique Documents
Professionnel Documents
Culture Documents
par
Samuel BOWONG
Table des matières
1
4.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.2 Interpolation et approximation des fonctions . . . . . . . . . . . . . . . . . 23
4.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2.2 Types d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2.3 Interpolation polynomiale . . . . . . . . . . . . . . . . . . . . . . . 24
4.2.4 Interpolation de Newton . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2
7.2.2 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3
Introduction Générale
Les machines à calculer électroniques ont leur origine en science et aujourd’hui, ils
constituent des objets vitaux pour tous les domaines de l’activité humaine. Tandis que les
outils comme les microscopes et les télescopes augmentent nos possibilités d’observation,
les calculateurs électroniques et les ordinateurs augmentent nos possibilités de raisonne-
ment. Ils ont revolutionné la science moderne. Les moyens de calcul jadis utilisés sont la
règle à calcul, l’arithmométre, les tables que l’on a établi mais ces moyens de calcul se
sont averés incapables de faire face au besoin de plus en plus complexe de la science, de la
technique et de l’économie de notre temps. La recherche des dispositifs plus performants,
plus efficaces et plus rapides ont génerés la création des calculateurs électroniques ana-
logiques et numériques. Le premier calculateur électronique a été construit en 1945 aux
USA. En 1946, FON NEUMANN a formulé les principes et les idées qui servent de base
à la construction des calculateurs électroniques. Leur généralisation, leur développement,
et leur application conduisent aujourd’hui à une refonte de la recherche scientifique, des
travaux scientifiques, de la gestion, du service. En effet, en somme les ordinateurs nous
aide à
- traiter la complexité dans les modèles qui ne peuvent pas être résolu autrement ;
- étudier les phénomènes qui dont difficiles à étudier expériementalement ;
- tester la théorie ;
- découvrir de nouveaux concepts et améliorer la théorie.
Le but de ce cours est donc de permettre aux scientifiques en général, aux mathémati-
ciens, physiciens, ingenieurs, chimistes, biologistes et économistes en particulier d’élaborer
les méthodes de calcul numérique utilisable par l’ordinateur pour résoudre les problèmes
de recherche et de devéloppement. Ces problèmes pourront être de divers types : par
exemple
1. Le traitement d’un grand nombre de données ou mesures d’une expérience.
2. La résolution de gros systèmes d’équations linéaires à plusieurs inconnues.
3. La résolution des équations algébriques non linéaires.
Le cours est basé sur environ huit chapitres.
1. Concepts de bases et méthodologie du traitement numérique des problèmes scienti-
fiques
2. Généralités sur l’ordinateur et sur les programmations structurées
4
3. Erreurs sur les solutions numériques
4. Approximation numérique des fonctions
5. Approximation numérique des intégrales
6. Résolution numérique des équations non linéaires
7. Approximation par la méthode des moindres carrés
8. Résolution numérique des équations linéaires
9. Intégration numérique des équations différentielles
5
Chapitre 1
1.1 Méthodologie
Le traitement d’un problème de calcul scientifique comprend en général six phases
dont la disposition est la suivante
6
- avoir un sens ;
- être bien posé afin d’éviter des instabilités.
1.4 L’algorithme
C’est la décomposition en un nombre fini d’opérations élémentaires de la méthode
choisie. L’algorithme peut être complété par un organigramme. L’algorithme est une étape
très importante du calcul numérique :
- Il confirme ou infirme la réalité du problème posé ;
- Il justifie la faisabilité de la méthode proposée ;
- Il donne directement accès au problème informatique ;
- Il permet d’exercer un contrôle sur les performances qui résulteront du traitement
informatique : temps d’exécution, encombrement mémoire, précision
N.B. : Optimiser un algorithme signifie
• Réduire le temps calcul machine.
• Réduire la place occupée en mémoire centrale.
• Augmenter la précision.
7
1.7 Interprétation des résultats
Les résultats doivent être interprétés avec la logique scientifique car il n’existe aucune
règle permettant d’affirmer à priori qu’un programme ou un algorithme donnera des résul-
tats tout à fait correct du problème posé. Il est donc souvent nécessaire d’essayer plusieurs
méthodes de résolution, plusieurs algorithmes ou même plusieurs langages pour un même
problème.
1.8.3 Discrétisation
En calcul scientifique, certains problèmes sont par nature continus. Ils font intervenir
les opérations telles que le dérivation et l’intégration. L’ordinateur ne pouvant résoudre de
tels problèmes continus, on doit les remplacer par des problèmes discrets en utilisant par
exemple les différences finis, les éléments finis, les méthodes particulières ou spectrales :
on parle alors de discrétisation.
8
1.8.5 Erreurs d’arrondis et de troncature
Les erreurs de calcul numérique associées aux ordinateurs peuvent être classés en
plusieurs catégories : les erreurs dûes à la représentation limitée des réels et les erreurs
dûes au manque de ressource de l’ordinateur. La première catégorie est celle des erreurs
d’arrondis qui augmentent avec les opérations arithmétiques, la deuxième catégorie est
celle des erreurs de troncature. Elles surviennent par exemple lors de l’approximation des
fonctions par des fonctions rationnelles. Généralement, l’on remarque que la réduction des
erreurs de troncature entraine l’augmentation des erreurs d’arrondis.
9
Chapitre 2
10
calculs sont convertis en signaux qui sont envoyés à l’organe de commande de la machine
outil. C’est également le principe d’action de disposition de commande de vol d’un avion
ou d’un processus technologique.
11
b) L’alternative :
Si condition
alors
Instruction 1
sinon
Instruction 2
fin si
12
c) L’itération :
Première forme
Pour i variant de n à m par pas de p
faire
Instruction
fin pour
• Deuxième forme :
Repéter
Instruction
jusqu’à la condition
Troisième forme :
Tant que la condition
faire
Instruction
fin tant que
13
Règle 3 : Le programme doit être commandé convenablement et mise en page de
façon à faciliter le lisibilité.
14
Chapitre 3
Dans ce chapitre, nous donnons les sources principales des erreurs et les règles donnant
des valeurs approchées des quantités.
15
(b) On appelle erreur du modèle mathématique, l’erreur dûe à la non correspon-
dance de la description mathématique du problème réel.
Exemple 3.1 : 0.69 est une valeur appprochée par défaut de ln 2 et 0.7 est une valeur
approchée par excès de ln 2 car 0.69 < ln 2 < 0.7.
Si a est une valeur approchée du nombre A, alors la quantité ∆a définie par ∆a = A−a
s’appelle erreur du nombre approché a. Si a est une valeur approchée de A par excès,
alors ∆a = A − a < 0. Si par contre a est une valeur approchée de A par défaut, alors
∆a = A − a > 0. Il est évident que si ∆a est l’erreur du nombre approché a au nombre
A, alors A = a + ∆a.
Définition 3.2 : On appelle erreur absolue ∆ d’un nombre approché a, la valeur absolue
de l’erreur de ce nombre approché :
∆ = |A − a| = |∆a|. (3.1)
Remarque 3.1 : Il faut noter que si le nombre A est connu, alors l’erreur absolue se
calcule par la formule (3.1). Si par contre A n’est pas connu, alors nous ne pouvons pas
déterminer l’erreur absolue par la formule (3.1). Ce dernier cas étant le cas pratiquement
le plus fréquent.
Dans le cas où le nombre A est inconnu, au lieu de l’erreur absolue qui est inconnue, on
introduit sa limite supérieure appelée borne supérieure d’erreur absolue 1
On appelle borne d’erreur absolue du nombre approché a du nombre exact A la quan-
tité non négative ∆a telle que
∆ = |A − a| ≤ ∆a . (3.2)
Il découle de l’équation (3.2) ci-dessus que
a − ∆a ≤ A ≤ a + ∆a . (3.3)
Par conséquent a − ∆a est une valeur approchée du nombre A par défaut et A + ∆a l’est
par excès. On a alors
A = a ± ∆a .
1. On appelle borne supérieure d’erreur absolue d’un nombre approché, tout nombre supérieur ou égal
à l’erreur absolue de ce nombre.
16
Exemple 3.2 : Si a = 0.69 est la valeur approchée de ln 2, alors 0.69 < ln 2 < 0.70. De
là, on a|a − ln 2| < 0.01 et il vient que 0.01 est le borne supérieure d’erreur. Si l’on tient
compte de ce que 0.69 < ln 2 < 0.693 une meilleure estimation est ∆a = 0.003.
Définition 3.3 : On appelle erreur relative d’un nombre appeoché a le nombre noté δ qui
est le rapport de l’erreur absolue de ce nombre et du module du nombre exact correspondant
A (A 6= 0), i.e.,
∆
δ= . (3.4)
|A|
Comme dans le cas de l’erreur absolue, on peut introduire aussi la notion de borne d’erreur
relative.
Définition 3.4 : On appelle borne d’erreur relative d’un nombre approché a donné, un
nombre quelconque noté δa supérieur ou égal à la veleur relative de ce nombre :
δ ≤ δa . (3.5)
∆
De l’inégalité (3.5), il vient que ≤ δa , i.e., ∆ ≤ |A|δa . La plus petite des bornes
|A|
d’erreur relative s’appelle borne supérieure d’erreur relative.
Il découle de l’inégalité ∆ ≤ |A|δa que ∆a = |A|δa est une borne d’erreur absolue du
nombre a. Si δa est une erreur du nombre approché a, on note
A = a(1 ± δa ).
17
Chapitre 4
Définition 4.1 : Soit f une fonction réelle ou complexe, définie dans l’intervalle [a, b] de
R. Soit x0 un point de [a, b]. On dit que f est dérivable en x0 , de dérivée f 0 (x0 ), si
f (x0 + h) − f (x0 )
lim = f 0 (x0 ).
h→0 h
Lorsque la fonction f a une dérivée en chaque point de l’intervalle [a, b], on dit que f est
dérivable dans [a, b], de dérivée f 0 .
Définition 4.2 : On dit que f est de classe C k sur l’intervalle [a, b] si toutes ses dérivées
jusqu’à l’ordre k sont définies et continues en tout point de [a, b].
On connait des formules qui permettent de dériver les fonctions usuelles. Selon la
fonction, le calcul de la dérivée est plus ou moins compliqué et il existe des langages de
calcul formel qui permettent, dans la plupart des cas, de calculer l’expression de la dérivée
f 0 à partir de l’expression de la fonction f .
Cependant, il y a deux cas importants où on ne sait pas calculer la dérivée d’une
fonction en un point.
- Le premier cas se produit quand on connait les valeurs que prend la fonction f en
certains points, mais que l’expression de f n’est pas connue. Par example, ces valeurs de
f peuvent venir des mesures physiques ou d’un calcul précédent.
- Le second cas, qui est le plus fréquent, se produit quand la fonction f fait précisement
partie des inconnues de problème. Par exemple, lorsque f est la solution d’une équation
différentielle ou d’une équation aux dérivées partielles.
Définition 4.3 : Pour h > 0 fixé et pour tout point x0 et toute fonction f , on définit
1. La différence finie avant ou progressive de f au point x0 :
18
2. La différence finie arrière ou régressive de f au point x0
On a alors
∆2 f (x0 ) = ∆(∆f (x0 )),
= ∆f (x0 + h) − ∆f (x0 ),
19
Théorème 4.1 : (Théorème de Rolle) : On suppose que f est dérivable en tout point
de l’intervalle [a, b] et que f (a) = f (b). Alors, il existe au moins un point c tel que
a < c < b où f 0 (c) = 0.
Théorème 4.2 : (Théorème des accroissements finis) : On suppose que f est dé-
rivable en tout point de l’intervalle [a, b]. Alors, il existe au moins un point c tel que
a < c < b où on a l’égalité : f (b) − f (a) = (b − a)f 0 (c).
La formule de Taylor est une généralisation directe du théorème des accroissements finis :
Théorème 4.3 (Formule de Taylor d’ordre n) : On suppose que f est n fois dérivable
en tout point de l’intervalle [a, b]. Alors, il existe au moins un point c tel que a < c < b
où on a l’égalité :
(b − a)2 00 (b − a)3 (3)
f (b) = f (a) + (b − a)f 0 (a) + f (a) + f (a) + . . .
2! 3!
Définition 4.5 : On dit qu’une fonction E(h) est un O(hk ) au voisinage de 0 s’il existe
un C > 0 tel que pour h au voisinage de 0 on ait
h 00
= f (ξ),
2
où le point ξ est situé entre x0 et x0 + h. Alors, on obtient bien
∆f (x0 ) 0
h
h − f (x0 )
≤ 2 M2 .
20
2
∆f (x0 ) 0
Cela veut dire que tend vers f (x0 ) avec la même vitesse que h. Donc l’erreur
h
∆f (x0 )
E(h) = − f 0 (x0 ) est un O(h).
h
Bien sûr, si la constante M2 est très grande, il faut que h soit d’autant plus petit pour
que l’erreur soit, elle aussi, petite. En théorie, on peut choisir h aussi petit qu’on veut,
mais en pratique il y a un seuil, dépendant du problème à traiter, en dessous duquel il
∆f (x0 )
n’est pas réaliste de choisir h. Donc, si f 00 a de trop grandes variations n’est pas
0
h
une bonne approximation de f (x0 ).
On aborde là une caractéristique essentielle du calcul numérique. : la précision d’une
approximation dépend non seulement du type de l’approximation elle-même, mais aussi
de la fonction à laquelle on l’applique. En calcul numérique, il n’y a aucune méthode
d’approximation qui puisse être appliqué avec succès dans tous les cas.
Le calcul précédent donnerait la même estimation pour l’approximation de f 0 (x0 ) par
∆− f (x0 ) δf (x0 )
. Etudions maintenant l’approximation de f 0 (x0 ) par . On a le résultat
h h
suivant :
Proposition
4.2 : Si f est trois dérivable et si |f (3) (x)| ≤ M3 , pour tout x dans l’inter-
h h
valle x0 − , x0 + , alors
2 2
h2
δf (x0 ) 0
h − f (x 0 ) ≤ M3 .
24 (4.6)
h2 00
h 0
− f (x0 ) − f (x0 ) + f (ξ2 ) ,
2 8
h2 00
= hf 0 (x0 ) + [f (ξ1 ) − f 00 (ξ2 )],
8
h h
où ξ1 est un point compris entre x0 et x0 + et ξ2 est un point compris entre x0 − et
2 2
x0 .
Remarquons que f 00 (ξ1 ) a le même coefficient que f 00 (ξ2 ), mais avec un signe opposé.
Ceci suggère que si nous avions appliqué la formule de Taylor d’ordre n = 3, ces deux
termes se seraient élimilnés. En effet, avec la formule de Taylor d’ordre n = 3, on trouve
h2 00 h3 (3)
h h 0
f x0 + = f (x0 ) + f (x0 ) + f (x0 ) + f (ξ3 ),
2 2 8 48
h2 h3
h h
f x0 − = f (x0 ) − f 0 (x0 ) + f 00 (x0 ) − f (3) (ξ4 ).
2 2 8 48
21
D’où
h3
h h
f x0 + − f x0 − = hf 0 (x0 ) + [f (3) (ξ3 ) + f (3) (ξ4 )],
2 2 48
h h
où ξ3 est un point compris entre x0 et x0 + et ξ4 est un point compris entre x0 − et
2 2
x0 .
Cette fois-ci, les coefficients de f (3) (ξ3 ) et f (3) (ξ4 ) ont le même signe ; donc ces deux
termes ne s’élimineront pas si nous prenons une formule de Taylor d’ordre plus élevé. Pour
conclure, on obtient
δf (x0 ) 0
1 2 (3) (3)
h − f (x0 ) = 48 h |f (ξ3 ) + f (ξ4 )|.
δf (x0 )
Ceci veut dire que si la fonction f est trois fois dérivable. tend vers f 0 (x0 ) avec
h
δf (x0 )
la même vitesse que h2 . Donc, l’erreur E(h) = − f 0 (x0 ) est un O(h2 ). Comme h2
h
tend vers zéro beaucoup plus vite que h, on conclut que, lorsque la constante M3 n’est
δf (x0 ) ∆f (x0 )
pas trop grande, est une bien meilleure approximation de f 0 (x0 ) que .
h h
Remarque 4.2 : Nous aurions gagné du temps en appliquant directement la formule de
Taylor d’ordre n = 3, mais on n’a aucun moyen de savoir, avant de faire le calcul, quel
est l’ordre de la formule de Taylor que l’on doit appliquer.
Nous venons de voir que les différences finies fournissent des approximations de la
dérivée première. Ceci sugère d’utiliser les différences finies d’ordre 2 pour approcher la
dérivée seconde.
22
2. Soit f une fonction quatre fois dérivable telle que |f (4) (x)| ≤ M4 pour tout x dans
h h
l’intervalle x0 − , x0 + . Alors
2 2
2
δ f (x0 ) 00
1 2
h2 − f (x0 ) ≤ 12 h M4 . (4.10)
Si les paramètres a1 , a2 , . . . , an sont définis à partir des conditions d’après lequelles f (x)
doit coincider avec son approximation g aux points x1 , x2 , . . . , xn appelés nœud d’inter-
polation,
g(xi , a1 , a2 , . . . , an ) = f (xi ), i = 1, 2, . . . , n,
alors une telle méthode d’approximation s’appelle interpolation.
L’expression f (x) ainsi construite pourra permettre de déterminer les valeurs de la
fonction en des points autre que ceux de la suite discrétes x1 , x2 , . . . , xn . Soit y1 le plus
petit de nœud d’interpolation xi , et y2 le plus grand d’entre eux. Si le point x auquel on
calcule la valeur de f (x) se trouve hors du segment [y1 , y2 ], parallèlement au problème
d’interpolation, on parle du problème d’extrapolation ou l’art de lire entre les lignes d’une
table.
23
l’un ou l’autre type d’interpolation repose sur les deux théorèmes présentés par l’allemand
Weistrass en 1885.
Théorème 4.4 : Toute fonction continue dans un intervalle [a, b] peut être représenté
N
an x n .
P
dans cet intervalle pour chaque dégré de précision par un polynôme P (x) =
n=0
Théorème 4.5 : Toute fonction périodique de période 2π peut être représentée par une
N
P
série trigonométrique limitée de la forme P (x) = (an cos nx + bn sin nx).
n=0
Parmis les procédés d’interpolation la plus rencontrée est l’interpolation linéaire, quand
on cherche une approximation sous la forme :
n
X
g(x, a1 , a2 , . . . , an ) = ai ϕi (x), (4.12)
i=1
24
et le systèmes (4.13) prend la forme
f (xj ) = xi−1
j , i, j = 1, 2, . . . , n. (4.16)
Dans ce qui suit, on suppose que les xj dont deux à deux distincts. Le déterminant
det(xi−1
j ) du système (4.16) coïncide avec le déterminant de Vandermonde, et par consé-
quent est différent de zéro. Mais alors, le système admet une solution unique. Nous avons
ainsi démontré l’existence et l’unicité de l’interpolation polynomiale (4.14).
Soit δij le symbole de Kronecker, i.e.,
1 si i = j,
δij =
0 si i 6= j.
Φi (xj ) = δij , i, j = 1, 2, . . . , n.
Le polynôme
n
X
gn (x) = f (xi )Φi (x) (4.17)
i=1
sera le polynôme d’interpolation cherchée. En effet,
n
X n
X
gn (xj ) = f (xi )Φi (xj ) = f (xi )δij = f (xj ), j = 1, 2, . . . , n.
i=1 i=1
25
Exemple 4.2 : Les résultats d’une expérience sont donnés par le tableau suivant :
x 1 2 4 6
y 10 5 2 1
x 1 2 3 4
y 2 3 4 5
4 x−x 4 4 4
Q j
Y x − xj Y x − xj Y x − xj
gn = 2 +3 +4 +5 .
j6=1 1 − xj j6=2
2 − xj j6=1
3 − xj j6=1
4 − xj
26
Il vient que
(x − 1)(x − 2)(x − 3)
+ 5 ,
(4 − 1)(4 − 2)(4 − 3
1 3
= − (x − 2)(x − 3)(x − 4) + (x − 1)(x − 3)(x − 4) − 2(x − 1)(x − 2)(x − 4)
3 2
5
+ (x − 1)(x − 2)(x − 3),
6
= x + 1.
Nous allons à présent présenter un algorithme qui permet d’évaluer l’ordonnée d’un point.
Différences divisées
27
Définition 4.7 :
1. La différence divisée des variables xi et xj correspondant aux valeurs yi et yj est la
quantité
yj − yi
δ(xi , xj ) = . (4.19)
xj − x i
2. La différence divisée seconde est définie pour les trois variables xi , xj et xk par
δ(xj , xk ) − δ(xi , xj )
δ(xi , xj , xk ) = . (4.20)
xk − xi
Preuve : Nous démontrons la formule (4.22) par recurrence. Pour k = 1 donne f (x1 ) =
f (x1 ) et pour k = 2, on a
2
δ(x2 ) − δ(x1 ) δ(x1 ) X δ(xj )
δ(x1 , x2 ) = = + δ(x2 )x2 − x1 = Q ,
x2 − x1 x1 − x2 j=1
(x j − x i )
i6=j
1
= Q ,
(xj − xi )
i6=j, 1≤i≤l+1
28
i.e., a la forme cherchée , si par contre j = 1 ou j = l + 1, alors la valeur δ(xj ) figure dans
un seul terme à droite de l’égalité et sont coefficients a la forme que nous cherchons : pour
δ(x1 ) on a
1 1 1
Q = Q .
xl+1 − xl (xl+1 − xi (xl+1 − xi
i6=l+1, 2≤i≤l+1 i6=l+1, 1≤i≤l+1
On obtient alors
l+1 l
1 X δ(xj ) X δ(xj )
δ(x1 , x2 , . . . , xl+1 ) = − ,
Q Q
xl+1 − x1 j=2 (xj − xi ) (xj − xi )
j=1
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1
l l
1 X δ(xj ) X δ(xj )
= Q − Q
xl+1 − x1 j=2 (xj − xi ) j=2 (xj − xi )
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1
δ(x ) δ(x1 )
+ Q l+1 − Q ,
(xj − xi ) (xj − xi )
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1
l+1
P δ(xj )
= Q .
j=1 (xj − xi )
i6=j
Corollaire 4.1 : Pour des valeurs fixées x1 , x2 , . . . , xn la différence divisée est une fonc-
tionnelle linéaire par rapport à f :
Corollaire 4.2 : La différence divisée est une fonction symmétrique de ses arguments
x1 , x2 , . . . , xn (i.e., ne change pas pour toute permutation).
29
Si la fonction f est donnée aux nœuds d’interpolation x1 , x2 , . . . , xn alors le tableau des
différences divisées est donné par
δ(x1 )
δ(x1 , x2 )
δ(x2 ) δ(x1 , x2 , x3 )
δ(x2 , x3 ) ↓
δ(x3 ) ↓ ↓
↓ ↓ ↓ δ(x1 , x2 , . . . , xn )
↓ ↓ ↓
↓ ↓ ↓
↓ δ(xn−1 , xn )
δ(xn )
x 1 2 3 4 5 6 7
f (x) 3 7 13 21 31 43 57
Solution : 1.
δ(3, 4, 5) − δ(2, 3, 4)
δ(2, 3, 4, 5) = = 0, δ(3, 4, 5, 6) = 0, δ(4, 5, 6, 7) = 0,
5−2
30
D’où le tableau de différences divisées
3
4
7 1
6 0
13 1 0
8 0 0
21 1 0 0
10 0 0
31 1 0
12 0
43 1
14
57
f (x) = δ(1) + δ(1, 2)(x − 1) + δ(1, 2, 3)(x − 1)(x − 2) + δ(1, 2, 3, 4)(x − 1)(x − 2)(x − 3)
+ δ(1, 2, 3, 4, 5)(x − 1)(x − 2)(x − 3)(x − 4) + δ(1, 2, 3, 4, 5, 6)(x − 1)(x − 2)(x − 3)(x − 4)(x − 5)
= x2 + x + 1.
Soient y1 , y2 , . . . les valeurs d’une fonction y = f (x) correspondantes aux valeurs équi-
distantes des arguments x1 , x2 , . . . (i.e., xk+1 − xk = h où le nombre h s’appelle pas
d’interpolation).
Définition 4.8 :
1. La différence progressive est la quantité
31
3. La différence progessive d’ordre α est définie par
∆y1 ∆2 y1
f (x) = y1 + (x − x1 ) + (x − x1 )(x − x2 ) + . . .
h 2!h2
(4.28)
∆n+1 y1
+ (x − x1 )(x − x2 )...(x − xn+1 ).
(n + 1)!hn+1
x 1 2 3 4 5 6 7
y 3 7 13 21 31 43 57
x y ∆y ∆2 y ∆3 y
1 3 4 2 0
2 7 6 2 0
3 13 8 2 0
4 21 10 2 0
5 31 12 2 0
6 43 14
7 57
32
2. La différence regressive d’ordre 2 est la quantité
33
4.3 Exercices
Exercice 4.1 : Trouvez les schémas de différences finies centrées, en avant et en arrière
pour les dérivées seconde et troisième.
Exercice 4.2 : Lors du titrage d’acide par une base, on mesure le pH en fonction du
volume V de base rajoutée. Les mesures sont résumées dans le tableau ci-dessous :
Exercice 4.3 : Soient des résultats expériementaux présentés sous la forme d’un tableau
de correspondance :
t(min) 1 5 10 15 17 20 30 40
C(t)(mg/L) 24.50 10.30 8.50 7.8 7.70 7.45 7.30 7.25
x 1 2 3 4
f(x) 2 3 7 8
Exercice 4.5 : Trouver l’équation de la parabole qui passe par les points (2, 0), (4, 3),
(6, 5), (8, 4), (10, 1).
Exercice 4.6 : Trouver le polynôme prenant les valeurs données correspondantes aux
valeurs données des arguments : (0, 3), (2, 1), (3, 5), (4, 7).
34
Exercice 4.9 : Former le polynôme qui prend les valeurs figurant au tableau ci-dessus :
x 1 3 4 6
y -7 5 8 14
x 1 2 3 4 5 6 7
y 3 7 13 21 31 43 57
35
Chapitre 5
5.1 Généralités
5.1.1 Rappels
Soit f une fonction définie sur un intervalle [a, b]. Pour introduire la notion d’intégrale
de f sur [a, b], on se donne n ∈ N et on divise [a, b] en n sous-intervalles [ak , ak+1 ] pour
k = 0, 1, . . . , n − 1 où a = a0 < a1 < a2 < . . . < an−1 < an = b. Puis, dans chaque
sous-intervalle, on choisit un point ζ1 ∈ [a0 , a1 ], ζ2 ∈ [a1 , a2 ], . . . , ζn ∈ [a, b] et on calcule la
somme
S(f ) = f (ζ1 )(a1 − a0 ) + f (ζ2 )(a2 − a1 ) + . . . + f (ζn )(an − an−1 ).
Evidemment, cette somme dépend du choix de n, des points de la subdivision de [a, b],
a1 , a2 , . . . , an−1 et des points ζ1 , ζ2 , . . . , ζn .
Définition 5.1 : On dit que f est intégrable au sens de Riemann sur [a, b] si la somme
S(f ) tend vers une limite unique quand n tend vers l’infini, quel que soit le choix des
points de subdivisions a1 , a2 , . . . , an−1 et des points ζ1 , ζ2 , . . . , ζn et pourvu que la longueur
de chaque sous-intervalle [ak , ak+1 ] tende vers zéro quand n tend vers infini. La limite de
S(f ) s’appelle l’intégrale de Riemann de f sur [a, b] et se note
Z b
I= f (x)dx. (5.1)
a
On dit que x est la variable d’intégration et que [a, b] est l’intervalle d’intégration.
En particulier, on rappelle que les fonctions continues sont intégrables. Dans toute la
suite, on supposera que f est continue sur [a, b] donc intégrable sur cet intervalle.
36
(5.1) de certaines fonctions. Mais, contrairement à ce qui se passe pour le calcul des
dérivées, il y a relativement peu de fonctions dont on sait calculer l’intégrale. Il suffit
même de changer légèrement l’expression d’une fonction pour passer d’une fonction que
l’on sait intégrer à une fonction qu’on ne sait pas intégrer. Par exemple, on sait que
Z b
sin xdx = cos a − cos b,
a
sin x
Or la fonction est intégrable sur tout intervalle [a, b] puisqu’elle est continue sur R.
x
Il en est de même pour la fonction sin(x2 ). A défaut de pourvoir calculer ces intégrales,
on doit savoir les approcher.
Mais, même s’il s’agit d’intégrales qu’on sait calculer, leur calcul peut être long et
compliqué et il peut être avantageux de le remplacer par un calcul approché.
Enfin, il y a un autre cas où il est indispensable d’approcher une intégrale : c’est
lorsque l’expression de la fonction à intégrer n’est pas connue. Il se peut que la fonction
ne soit connue qu’en un certain nombre de points : ses valeurs peuvent venir d’un autre
calcul ou de mesures ponctuelles. Mais le cas le plus fréquent est celui où la fonction à
intégrer fait partie des inconnues, par exemple lorsque c’est la solution d’une équation
différentielle.
Dans ce chapitre, on va étudier des approximations de l’intégrale de Riemann d’une
fonction à l’aide de formules de quadrature. La fonction f supposée continue sur [a, b] est
remplacée par une formule d’interpolation. Généralement, la fonction f est approximée
par un polynôme et les formules d’intégration qui s’en déduisent sont dites formules de
Newton-Cotes. Ces formules supposent que les nœuds d’interpolation sont équidistants.
37
Pour deux points
Sur [a, b], on approxime la fonction f par une constante, i.e., par une droite parallèle
à l’axe des abscisses et passant par les deux points a et b. La surface sous cette droite
est alors un rectangle de bases h et f (a) et donc d’aire (b − a)f (a). Ainsi, en prenant
b = a + h, on a Z b
f (x)dx ≈ hf (a). (5.2)
a
où M1 = sup |f 0 (x)|.
x∈[a,b]
n R
P xk
= xk−1
f (x)dx.
k=1
≈ hf (xk−1 ).
38
En sommant l’intégrale ci-dessus, on obtient finalement la formule des rectangles
Z b n−1
!
X
f (x)dx ≈ h f (a) + f (xk ) . (5.4)
a k=1
La formule d’erreur va nous donner sa vitesse de convergence. pour cela, on suppose que
f est de classe C 1 sur [a, b]. On pose
M1 = sup |f 0 (x)|.
x∈[a,b]
Ceci montre que l’erreur est un O(h), i.e., qu’elle tend vers zèro à la même vitesse que
h. Si l’intervalle d’intégration n’est pas trop grand et si la constante M1 n’est pas trop
grande non plus, la méthode des rectangles est une bonne approximation de l’intégrale.
R2√
Exemple 5.1 : Calculer I = 1 xdx par la formule des rectangles, en décomposant
l’intervalle d’intégration en 10 parties. Evaluer l’erreur commise.
√ 2−1
Ici f (x) = x. Pour n = 10, on a h = = 0.1. Les valeurs successives de x
10
seront : x0 = 1, x1 = x0 + h = 1.1, x2 = 1.2, x3 = 1.3, x4 = 1.4, x5 = 1.5, x6 = 1.6,
x7 = 1.7, x8 = 1.8 et x9 = 1.9. On aura alors
R2√
I = 1 xdx,
= 0.1[f (1) + f (1.1) + f (1.2) + f (1.3) + f (1.4) + f (1.5) + f (1.6) + f (1.7) + f (1.8) + f (1.9)],
= 0.1[1 + 1.049 + 1.095 + 1.140 + 1.183 + 1.225 + 1.265 + 1.304 + 1.342 + 1.378],
= 1.20.
1
Evaluons l’erreur. Dans notre cas, f 0 (x) = √ sur le segment [1, 2] atteint sa valeur
2 x
1
maximale égale à 0.5 lorsque x = 1. De cette façon, |f 0 (x)| ≤ M1 = . D’où en appliquant
2
la formule on trouve
0.1 1
ER ≤ .1. = 0.025.
2 2
Par conséquent,
I ≈ 1.20 ± 0.025.
39
Algorithme de la formule du rectangle
où c est un point arbitraire de [a, b]. Si en qualité du point c, on prend le point moyen du
a+b
segment [a, b] , i.e., c = , on obtient
2
Z b
a+b
f (x)dx ≈ (b − a)f .
a 2
En prenant b = a + h, on obtient la formule du point milieu :
Z b
2a + h h h
f (x)dx ≈ hf = hf a + = hf b − . (5.6)
a 2 2 2
M2 = sup |f 00 (x)|.
x∈[a,b]
40
Supposons maintenant que l’intervalle d’intégration [a, b] est de grande amplitude.
b−a
Soit h > 0 donné et n = . On divise l’intervalle [a, b] en n sous-intervalles égaux
h
[xk−1 , xk ] avec x0 = a, x1 = a + h, x2 = a + 2h, . . . , xn−1 = a + (n − 1)h, xn = b = a + nh.
En appliquant la formule (5.6) ci-dessus à chacun de ces sous-intervalles et en sommant,
on trouve la formule du point milieu :
Z b n " X n−1 #
X h h h
f (x)dx ≈ h f xk−1 + =h f a+ + f xk + . (5.8)
a k=1
2 2 k=1
2
Pour estimer l’erreur de cette formule, on suppose que f est de classe C 2 et on pose
M2 = sup |f 00 (x)|.
x∈[a,b]
Remarque 5.2 : L’erreur de la formule du point milieu est un O(h2 ), i.e., qu’elle tend
vers zèro à la même vitesse que h2 . Si l’intervalle d’intégration n’est pas trop grand et
si la constante M2 n’est pas trop grande, l’erreur de la formule du point milieu est donc
meilleure que l’erreur de la formule des rectangle.
R2√
Exemple 5.2 : Calculer par la formule du point milieu, l’intégrale 1 xdx en divisant
l’intervalle d’intégration en 10 parties égales, puis évaluer l’erreur.
b−a √
Ici h = = 0.1 et f (x) = x. On a x0 = 1, xk = x0 + kh = 1 + 0.1k et
10
41
6. Pour k variant de 1 à n − 1 faire
∗ x ←− x + h
∗ I ←− I + f (x)
7. I ←− I × h
8. Afficher I
9. fin pour
f (b) − f (a)
y = f (a) + (x − a) .
b−a
Dans ce cas, sur [a, b] on a
f (b) − f (a)
f (x) ≈ g(x) = f (a) + (x − a) .
b−a
Ainsi Rb Rb
a
f (x)dx ≈ a
g(x)dx,
Rb f (b) − f (a)
= a
f (a) + (x − a) dx,
b−a
(b − a)2
f (b) − f (a)
= (b − a)f (a) + ,
2 b−a
b−a
= [f (a) + f (b)].
2
42
En prenant b = a + h, on a
Z b
h
f (x)dx ≈ [f (a) + f (b)]. (5.10)
a 2
Calcul de l’erreur
On suppose que la fonction f est C 2 et que |f 00 (x)| ≤ M2 ∀x ∈ [a, b]. On montre que
Rb Rb
l’erreur commise en prenant a f (x)dx = a g(x)dx est
M2
eT = (b − a). (5.11)
12
43
Ainsi n R
Rb P xk
a
f (x)dx ≈ xk−1
f (x)dx,
k=1
Pn h
≈ [f (xk ) + f (xk−1 )],
k=1 2
h
≈ [f (x0 ) + f (x1 ) + f (x3 ) + . . . + f (xn−1 ) + f (xn ))],
2
n
!
h X
≈ f (x0 ) + 2 f (xk ) + f (xn ) .
2 k=1
D’où !
Z b n
h X
f (x)dx ≈ f (a) + f (b) + 2 f (xk ) , (5.12)
a 2 k=1
b−a
avec h = .
n
Calcul de l’erreur
n R
P xk R xk
≤ xk−1 f (x)dx − xk−1 gk (x)dx ,
k=1
n R
P xk
≤ xk−1
|f (x) − gk (x)|dx,
k=1
n M
2
(xk − xk−1 )3 ,
P
≤
k=1 12
3
Pn nM
2 b−a
≤ ,
k=1 12 n
M2
≤ (b − a)3 .
12n2
44
Rb Rb
D’où l’erreur commise en prenant a
f (x)dx = a
g(x)dx est
M2 M2 2
ET = 2
(b − a)3 = h (b − a). (5.13)
12n 12
R2
Exemple 5.3 : Calculer l’intégrale I = 1 xdx avec h = 0.2 et h = 0.1.
Pour h = 0.2, on a
R2
I = 1 xdx,
0.2
= [f (1) + 2f (1.2) + 2f (1.4) + 2f (1.6) + 2f (1.8) + f (2)],
2
= 1.5.
Pour h = 0.1, on a
R2
I = 1 xdx,
0.1
= [f (1) + 2f (1.1) + 2f (1.2) + 2f (1.3) + 2f (1.4) + 2f (1.5) + 2f (1.6) + 2f (1.7)
2
= 0.05[1 + 2.2 + 2.4 + 2.6 + 2.8 + 3 + 3.2 + 3.4 + 3.6 + 3.8 + 2],
= 1.5.
45
On peut aussi avoir
1. Lire a, b les bornes de l’intervalle
2. Lire n, le nombre de sous-intervalles
b−a
3. h ←− , le pas de la subdivision
n
4. S ←− 0
5. x ←− a
6. Pour k allant de 1 à n − 1 faire
∗ x ←− x + kh
∗ S ←− S + 2f (x)
7. fin pour
8. S ←− S + f (a) + f (b)
h
9. I ←− S
2
10. Afficher I
46
La résolution de ce système donne
f (b) − f (a) 1
a1 = et a2 = [f (a) + f (b) − 2f (c)].
b−a (a − c)2
Ainsi,
Rb Rb
a
f (x)dx ≈ a
g(x)dx,
Rbh a2 i
= a
f (c) + a1 (x − c) + (x − c)2 dx,
2
a1 a2
= (b − a)f (c) + [(b − c)2 − (a − c)2 ] + [(b − c)3 − (a − c)3 ],
2 6
a2
= (b − a)f (c) + (b − c)3 ,
3
1
= (b − c)f (c) + (b − c)3 [f (a) + f (b) − 2f (c)],
3(a − c)2
b−a
= [f (a) + f (b) + 4f (c)].
6
En prenant a = c − h et b = c + h, on a
Z b
h
f (x)dx ≈ [f (a) + f (b) + 4f (c)]. (5.14)
a 3
Calcul de l’erreur
Lemme 5.1 : Soit f une fonction de classe C 4 sur I telle que f (4) soit bornée par M4
sur I. Soient α ∈ I et h > 0 tels que [α − h, α + h] ⊂ I alors
Z α+h
M4 h5
h
f (t)dt − [f (α − h) + f (α + h) + 4f (α)]≤ .
α−h 3 90
47
a+b b−a
En appliquant le lemme ci-dessus sur [a, b] avec α = c = et h = . On a alors
2 2
M4 b − a 5
Z b
h
f (x)dx − [f (a) + f (b) + 4f (c)]
≤ 90
a 3 2
Rb h
D’où l’erreur commise en prenant a
[f (a) + f (b) + 4f (c) est
f (x)dx =
3
5
M4 b − a
eT = . (5.15)
90 2
n/2
P R x2k
= x2k−2
f (x)dx.
k=1
h
≈ [f (x0 ) + 4f (x1 ) + f (x2 ) + f (x2 ) + 4f (x3 ) + f (x4 ) + . . . + f (xn−2 ) + 4f (xn−1 ) + f (xn )],
3
h
≈ [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + . . . + 2f (xn−2 ) + 4f (xn−1 ) + f (xn )]
3
n−2 n−1
h
X X
≈ f (x0 ) + f (xn ) + 2 f (xk ) + 4 f (xk ) .
3
k=2 k=3
k → paire k → impaire
48
D’où
Z b n−2 n−1
h X X
f (x)dx ≈ f (x0 ) + f (xn ) + 2 f (xk ) + 4 f (xk ) .
a 3
k=2 k=3
k → paire k → impaire
(5.16)
ou encore
Z b (n−2)/2 (n−2)/2
h X X
f (x)dx ≈ f (x0 ) + f (xn ) + 2 f (x2k ) + 4 f (x2k+1 ) . (5.17)
a 3 k=1 k=0
Calcul de l’erreur
et
Z 5
x2k h M x − x M2 5
2k 2k−2
f (x)dx − [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )] ≤ = h.
3 90 2 90
x2k−2
on a
n/2 h n/2
P M4 5 n M4 5
P R x2k
f (x)dx − [f (x ) + 4f (x ) + f (x )] ≤ h = h.
x 2k−2 2k−1 2k
3 k=1 90 2 90
2k−2
k=1
n/2
Rb P h
D’où l’erreur commise en prenant a
f (x)dx = [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )] est
i=1 3
M4
ES = 4
(b − a)5 .
180n
Sachant que nh = b − a, on obtient finalement
M4
ES = (b − a)h4 . (5.18)
180
Remarque 5.3 : Le calcul de l’intégrale de la fonction f sur [a, b] par la méthode des
M2
trapèzes générele une erreur ET = (b−a)3 où M2 = sup |f 00 (x)|. Cette erreur devient
12n2 x∈[a,b]
49
M4
ES = 4
(b − a)5 si l’on utilise la méthode de Simpson (ici M4 = sup |f (4) (x)|). On
180n x∈[a,b]
M4 5 M2
constate que quand n → ∞, (b − a) tend plus vite vers zéro que (b − a)3 .
180n4 12n2
Autrement dit l’erreur obtenue par la méthode de Simpson est plus petite que celle obtenue
par la méthode des trapèzes. Il en résulte que la méthode de Simpson donne une meilleure
approximation de l’intégrale de f sur [a, b] que la méthode des trapèzes.
Exemple 5.4 :
R1√
1. Calculer à 0.001 près l’intégrale I = 0
1 + x2 dx à l’aide de la formule de Simpson.
A l’aide de la formule (5.18), trouvons tout d’abord la valeur de h qui assure le dégré
de précision nécessaire. On a
√ x 1 3x
f (x) = 1 + x2 , f 0 (x) = √ , f 00 (x) = p , f (3) (x) = − p ,
1 + x2 (1 + x2 )3 (1 + x2 )5
12x2 − 3
f (4) (x) = p .
(1 + x2 )7
La valeur maximale de f (4) (x) est atteinte sur le segment [0, 1] au point x = 0 ;
f (4) (0) = 3, i.e., M4 = 3. Pour cette raison
h4 h4
ES = (b − a)M4 = 1.3
180 180
h4
Pour que cette erreur soit inférieure à 0.001, il est nécessaire que ≤ 0.001, i.e.,
60
4 4
h ≤ 0.06. On peut prendre h = 0.5 ( si h = 0.5 alors h = 0.0625), i.e., un peu
plus de la valeur nécessaire. Toutefois, la précision du calcul ne sera influencée, car
l’évaluation a été faite à l’aide de l’erreur limite absolue qui, évidemment, est plus
grande que l’erreur effective. Ainsi, le dégré de précision requis peut être atteint en
décomposant l’intervalle d’intégration en deux parties.
√
Calculons les valeurs prises par la fonction f (x) = 1 + x2 pour x = 0, 0.5, 1. On
a f (0) = 1.000, f (0.5) = 1.1180 et f (1) = 1.4142. C’est pourquoi
R1√
I = 0 1 + x2 dx,
0.5
= [f (0) + 4f (0.5) + f (1)],
3
= 1.1477.
50
Pour comparer les résultats, calculons la valeur exacte de cette intégrale. On a
1
R1√ x√ √
2 2
1 2
0
1 + x dx = 1 + x + ln(x + 1 + x ) ,
2 2 0
1√ √ 1
= [ 2 + ln(1 + 2)] ≈ (4.4142 + 0.8814),
2 2
≈ 1.478.
On voit que la valeur de l’intégrale calculée par la formule de Simpson est donnée
non seulement avec trois, mais aussi avec quatre décimales exactes.
R 1 dx
2. Calculer l’intégrale I = 0 par la formule de Simpson, en posant n = 8.
1 + x2
Les calculs doivent être effectués à six décimales. Evaluer l’erreur du résultat ob-
tenu. Comparer le résultat avec la valeur vraie de l’intégrale prise avec un chiffre de
reserve.
Les valeurs de la fonction prises sous le signe d’intégration doivent être déterminées
pour les valeurs suivantes de la variable indépendante (h = 0.125) : x0 = 0, x1 =
1
10.125, . . . , x8 = 1. On trouve les valeurs correspondantes de f (x) = ; f (0) =
1 + x2
1, f (0.125) = 0.984625, f (0.25) = 0.941176, f (0.375) = 0.87612, f (0.5) = 0.80000,
f (0.625) = 0.719101, f (0.75) = 0.640000, f (0.875) = 0.566389 et f (1) = 0.50000.
Portons ces valeurs dans la formule de Simpson pour h = 0.125. On a
0.125
I = [f (0) + f (1) + 4(f (0.125) + f (0.375) + 0.719101 + f (0.875)) + 2(f (0.25) + f (0.5) + f (0
3
0.125
= [1 + 0.5 + 4(0.984625 + 0.87612 + 0.719101 + 0.566389) + 2(0.941176 + 0.8 + 0.64)],
3
,
≈ 0.785392.
Algorithme
51
5. x ←− a
6. Pour k allant de 1 à n − 1 faire
h
∗ x ←− x +
2
∗ I ←− I + 4f (x)
h
∗ x ←− x +
2
∗ I ←− I + 2f (x)
7. x ←− x
h
8. I ←− I
6
9. Afficher I
10. fin pour
52
5.6 Exercices
R2√
Exercice 5.1 : Trouver par la formule des trapèzes, la valeur approchée de 1 xdx en
divisant l’intervalle d’intégration par 10 intervalles de même longueur. Estimer l’erreur.
R 2 dx
Exercice 5.2 : En se servant de la formule des trapèzes, trouver ln 2 = 1
avec une
x
précision de l’ordre de 0.01.
Exercice 5.3 : Calculer par la méthode du point milieu les intégrales suivantes :
Z 1
−x2
Z 1 √
e dx, n=5 et 1 − x3 dx, n = 5.
0 0
Exercice 5.4 :
R +∞ 2
1. Calculer numériquement l’intégrale I = −∞ e−x /2 dx en utilisant les valeurs du tableau
2
ci-dessous et en considérant que e−x /2 est négligeable pour x > 5.
2. Cette intégrale est très utilisée en statistique. Calculer sa valeur exacte à partir de
R +∞ 2 √
l’intégrale de Gauss : −∞ e−x /2 dx = π.
Exercice 5.5 : Calculer par la méthode des trapèzes les intégrales suivantes :
Z 1 √ Z 1
2
1 − x3 dx, n=5 et e−x dx, n = 4.
0 0
dx R1π
Exercice 5.7 : Sachant que =0
, trouver par trois méthodes différentes une
1 + x2 2
valeur approchées de π. On divisera l’intervalle d’intégration en 10 parties égales. Com-
parer les résultats obtenus.
R 1.35
Exercice 5.8 : Calculer par la formule de Simpson l’intégrale 1.05
f (x)dx si f (x) est
donnée tabulairement par
53
Chapitre 6
fi (x1 , x2 , . . . , xn ) = 0, i = 1, 2, . . . , n. (6.2)
Ces équations peuvent être aussi bien algébriques (par exemple polynomiale) ou trans-
cendantes (par exemple sinusoïdale, exponentielle ou hyperbolique). Ces équations sont
souvent dites équations finies pour les distinguer des équations différentielles. Il existe
plusieurs méthodes pour résoudre numériquement l’equation (6.1) ou le systèmes (6.2).
Nous donnerons dans ce chapitre quelque une de ces méthodes.
54
inversement, de sorte que la courbe ne soit pas très proche de l’axe 0x. Il est souvent
utile d’écrire l’équation f (x) = 0 seront les abscisses des points d’intersection des courbes
y = ϕ(x) et y = ψ(x).
6.2.1 La méthode
Supposons que f (a) < 0 < f (b) et que la fonction f est strictement croissante sur
[a, b]. La solution r de l’équation f (x) = 0 appartient à [a, b], i.e., a ≤ r ≤ b. Le milieu
a+b
de l’intervalle est c = . Si f (a) et f (c) sont de signes contraires alors r ∈ [a, c], i.e.,
2
a ≤ r ≤ c. Si par contre c’est f (c) et f (b) qui sont de signes contraires alors r ∈ [c, b], i.e.,
c ≤ r ≤ b. Dans l’un ou l’autre cas, la taille de l’intervalle est divisée par 2. Une nouvelle
bisection peut être faite sous de nouvels intervalles contenant la solution et ansi de suite.
b−a
Après n étapes, la taille de l’intervalle devient (voir figure 6.1).
2n
Figure 6.1 –
6.2.2 Organigramme
L’organigramme de la méthode de dichrotomie ou de bisection est donné par la figure
ci-dessous :
Cette méthode permet ainsi de donner un encadrement de la solution avec une précision
de ε.
6.2.3 Algorithme
1. Lire a, b les bornes de l’intervalle.
55
Figure 6.2 –
56
Figure 6.3 –
(b − x1 )f (x1 )
x2 = x1 − .
f (b) − f (x1 )
En qualité de la valeur approchée de la racine de l’équation f (x) = 0 sur [a, b], on
prend x2 . Si f (x2 ) = 0, alors la racine de f (x) = 0 est trouvée. Dans le cas contraire, i.e.,
si f (x2 ) 6= 0, on continue le processus. Ainsi de suite, on obtient une suite de nombres
x1 , x2 , ...,
Définition 6.1 : Soit x̃ la racine exacte de l’équation f (x) = 0. on dira que ξ est la
valeur approchée de x̃ avec une précision de l’ordre de ε si | x̃ − ξ |≤ ε.
Si x̃ est la racine exacte isolée sur [a, b] de l’équation f (x) = 0 et ξ la valeur approchée
de cette racine trouvée par la méthode de cordes, alors l’estimation de l’erreur de cette
approximation peut se calculer par la formule :
00
f (a)f (b) f (x)
| x̃ − ξ |< − max 0
2 [a,b] [f (x)]3
.
Dans l’algorithme précédent, la racine approchée avec l’ordre de précision ε donné est
xn tel que :
57
Exemple 6.2 : Calculer par la méthode de cordes la racine sur [1; 1, 7] de l’équation
x4 − 2x − 4 = 0 avec une précision de l’ordre de 0,01.
Pour cet exemple nous avons f (1) = −5 < 0, f (1, 7) = 0, 952 > 0. Trouvons la
première approximation par la formule (1) :
Remarque 6.1 : Dans ce qui précède, nous avons supposé que l’équation f (x) = 0 pos-
sède une seule racine sur [a, b]. Si jamais elle possède plus d’une racine sur [a, b], alors
avant d’utiliser la méthode de cordes pour la recherche des racines de cette équation, il
faut d’abord séparer les racines, i.e., découper le segment [a, b] en un certain nombre de
segments [a, b] dans chacun desquels l’équation ne possède pas plus d’une racine. Pour cela
il faut noter que si une fonction est continue, dérivable sur un segment et si sa dérivée
garde le même signe sur le dit segment, alors la fonction sera monotone sur ce segment et
ne pourra pas s’annuler plus d’une fois sur le dit segment. Pour savoir si f (x)s’annule sur
[ai , bi ], on regarde le signe du produit f (ai )f (bi ). Si ce produit est négatif, alors l’équation
f (x) = 0 admet sur (ai , bi ) une racine. Si par contre ce produit est positif, alors f (x) = 0
n’admet pas de solution sur (ai , bi ). Si f (ai )f (bi ) = 0, alors x = ai ou x = bi sera solution
de l’équation f (x) = 0.
58
6.4.1 La méthode
Supposons que la racine réelle de l’équation f (x) = 0 est isolée sur [a, b]. On admettra
que la fonction f (x) vérifient toutes les conditions indiquées dans l’introduction. Soit x0
00 00
un point quelconque de [a, b] tel que f (x0 )f (x0 ) > 0, i.e., f (x0 ) et f (x0 ) ont le même
00
signe (si f (a)f (a) > 0, alors en qualité de x0 on peut prendre x0 = a. De même si
00
f (b)f (b) > 0, alors on peut prendre x0 = b).
Passons au pointM0 (x0 , f (x0 )) la tangente à la courbe y = f (x) (voir figure 6.4).
Figure 6.4 –
Désignons par x1 l’abscisse de l’intersection de cette tangente avec l’axe des abscisses
0x :
f (x0 )
x1 = x0 − 0 .
f (x0 )
En qualité de la racine approchée de l’équation f (x) = 0 prenons x1 .Répétons ceci au
point M1 (x1 , f (x1 )). On obtient comme racine approchée de l’équation le nombre :
f (x1 )
x 2 = x1 − .
f 0 (x1 )
Ainsi de suite nous obtenons une suite de points de [a, b]x0 , x1 , ..., xn , ...
f (xn ) f (x0 )
xn+1 = xn − , x 1 = x0 − , n = 1, 2, ... (6.3)
f 0 (xn ) f 0 (x0 )
dont la limite est la racine de l’équation f (x) = 0. Pour estimer l’erreur de la racine
approchée trouvée par la méthode de Newton, on peut utiliser la formule
00 00
f (ξ) f (x)
| x̃ − ξ |< max
2 [a,b] [f 0 (x)]3
Ici x̃ est la racine exacte et ξ la racine approchée.
59
Si on se propose de trouver la racine approchée de f (x) = 0 avec une précision de
l’ordre de ε, alors à chaque étape, il faut vérifier le signe de f (xn )f (xn−1 ) et comparer
| xn − xn−1 | avec ε. Si f (xn )f (xn−1 ) < 0 et | xn − xn−1 |≤ ε, alors en qualité de la
racine approchée avec l’ordre de la précision indiquée, on prend xn avec le nombre de
chiffres après la virgule égal au nombre de chiffres après la virgule dans ε. Si par contre
f (xn )f (xn−1 ) > 0 ou | xn − xn−1 |> ε, on passe à l’itération suivante.
Exemple 6.3 : Calculer par la méthode de Newton la racine sur [1; 1, 7] de l’équation
x4 − 2x − 4 = 0 avec une précision de l’ordre de 0,01. On a f 0 (x) = 4x3 − 2, f 00 (x) = 12x2 .
Puisque f (1, 7)f 00 (1, 7) > 0 (voir l’exemple précédent), on prend x0 = 1, 7. En utilisant la
formule (1), on trouve tour à tour
Remarque 6.2 :
f (xn )
1. Lorsque f (x0 )f 00 (x0 ) > 0, la suite xn+1 = xn − est monotone, bornée et
f 0 (xn )
converge vers la solution x̄. Ce résultat donne une condition suffisante pour que la
méthode de Newton converge vers x̄ mais la condition n’est pas nécessaire. Dans le
cas où il n’y a pas de convergence, on change la valeur de x0 .
2. La méthode de Newton est une méthode d’itérations de second ordre (souvent appelé
méthode des approximations sucessives). Ces méthodes se traduisent par la répétition
systématique d’une opération déterminée. Ce qui finit par donner de proche en proche
la solution exacte.
3. La formule de Newton est l’une des plus utilisées parce qu’elle est relativement plus
simple et d’une convergence très suffisante dans la plupart des cas. Il faut toutefois
que x0 soit assez près de la racine pour que la dérivée f 0 ne change pas de signe
entre x0 et la solution x̄. Si en effet, f 0 s’annule sans que f s’annule aussi alors
la tangente à la courbe doit couper l’axe des abscisses à l’infini puisque qu’il risque
d’osciller indéfiniment autour de la solution sans l’atteindre.
60
4. Condition d’arrêt : La méthode de Newton converge vers la solution exacte x̄ mais
on ne sait pas explicitement à quel moment une certaine précision est atteinte. Pour
cela, on utilise généralement les résultats souivants : Soit x̄ une racine de l’équation
f (x) = 0 et soit xn une valeur approchée de x̄. Si l’intervalle [a, b] contenant x̄ et
xn on a |f 0 (x)| ≥ m > 0, alors
6.4.2 Organigramme
L’organigramme de la méthode de Newton-Raphson est donné par la figure ci-dessous :
Figure 6.5 –
61
6.5 Méthode par approximations successives
Soit R un espace métrique euclidien de R et soit g une application de R dans R.
Définition 6.2 : L’application g s’appelle contraction, s’il existe un réel α < 1 tel que
pour tous les x, y ∈ R, on a
Toute contraction g de R dans R est une application continue. En effet, soit xn une
suite de points de R convergente vers x ∈ R, i.e., | xn − x |→ 0, quand n → +∞. Alors
puisque | g(xn ) − g(x) |≤ α | xn − x |, on conclut que | g(xn ) − g(x) |→ 0, n → +∞, et g
est continue.
Définition 6.3 : Un point x s’appelle point fixe d’une application g(x) si g(x) = x.
Théorème 6.1 : (Principe des contractions) : Toute contraction g d’un espace mé-
trique complet R dans R possède un et un seul point fixe.
xn = g(xn−1 ), n = 1, 2, ...
≤ ... ≤ αn | xp − x0 | .
Puisque
| xm+l − xm ||l=1 ≤ αm | x1 − x0 |,
on a
| xn + p − xn | ≤ αn [αp−1 + ... + α + 1] | x1 − x0 |
.
n
∞
P α n | x1 − x0 |
k
≤ α | x1 − x0 | α =
k=0 1−α
Puisque 0 ≤ α < 1,
α n | x1 − x0 |
→ 0, n → +∞,
1−α
62
et il s’en suit que xn est une suite fondamentale. R étant un espace métrique complet,
la suite xn converge vers un point x ∈ R : lim g(xn ) = x ∈ R. Il découle alors de la
n→+∞
continuité de g que :
g(x) = lim g(xn ) = lim xn−1 = x.
n→+∞ n→+∞
et cete inégalité n’a lieu que si x = y, car α ≤ 1. le théorème est démontré. Soit f une
fonction de [a, b] vérifiant la condition de Lipschitz
| f (x1 ) − f (x2 ) |≤ K | x1 − x2 |,
avec la constante K < 1.Alors f est une contraction et d’après le théorème précédent la
suite xn définie par xn = f (xn−1 ), x0 ∈ [a, b] converge vers la solution unique de l’équation
f (x) = x. La condition de la contraction est vérifiée sur le segment[a, b] dès que f (x) est
dérivable sur [a, b] et | f 0 (x) |≤ K < 1 sur [a, b]. En effet, pour tous les x1 et x2 dans
[a, b] alors le segment d’extrémités x2 et x1 est contenu dans [a, b]. D’après la formule de
Lagrange
f (x1 ) − f (x2 ) = (x1 − x2 )f 0 (c),
où c est un point du segment d’extrémité x1 et x2 . Mais alors
Avec ce choix de λ, la fonction f (x) est une contraction et les approximations successives
de l’équation F (x) = 0 sont xn = f (xn−1 ), x0 ∈ [a, b].
Si x̃ est la racine isolée de F (x = 0) sur [a, b] et on cherche la racine approchée avec
une précision de l’ordre de ε, alors en qualité de cette racine approchée on prend xn tel
que
1−K
| xn − xn−1 |< ε.
K
63
Exemple 6.4 : Trouver par la méthode des approximationss successives la racine de
l’équation 2 − ln x − x = 0 avec une précision de l’ordre de 0, 001.
3
x1 = f (x0 ) = , x2 = f (x1 ) = 1, 5472,
2
Remarque 6.3 :
1. Il existe de nombreuses autres méthodes telles que la méthode des parties proportion-
nelles, la méthode de Bairstow, la méthode de petits paramètres ou de perturbations.
La méthode de Bairstow permet de trouver la solution complexe de l’équation.
2. Il existe des méthodes qui permettent de trouver simultanement toutes les racines
d’un polynôme en particulier le cas des polynômes de degré 3 et 4.
3. On peut aussi élaborer les processus itératifs du premier, second et troisième ordre
pour les systèmes d’équations non linéaires en particulier pour le système de deux
équations :
G(x, y) = 0,
(6.5)
H(x, y) = 0.
64
On peut trouver x à partir de G(x, y) = 0 et y à partir de H(x, y) = 0. On aura
alors le processus itératif suivant :
xn+1 = g(xn , yn ),
(6.6)
yn+1 = h(xn , yn ).
65
6.6 Exercices
Exercice 6.1 : Proposer un algorithme pour la méthode de la corde.
Exercice 6.3 :
1. Etablir la formule itérative pour la méthode de Newton pour le système d’équations à
deux inconnues suivant :
G(x, y) = 0,
H(x, y) = 0.
Exercice 6.6 : Par la méthode des approximations successives, trouver la racine appro-
chée de l’équation 2 − ln x − x = 0 avec une précision de l’ordre de 0.001.
Exercice 6.7 : Par la méthode des approximations successives, trouver la racine appro-
chée de léquation x3 + 2x − 7 = 0 avec une précision de l’ordre de 0.01.
Exercice 6.8 : Trouver graphiquement les intervalles des racines isolées de l’équation
x3 − 9x2 + 18x − 1 = 0. Par l’une des méthodes étudiées que l’on précisera, trouver la
racine approchée de la dite équation sur 0.1 avec une précision de l’ordre de 0.01.
Exercice 6.10 : Appliquer deux fois la méthode de Newton pour trouver la racine appro-
chée de l’équation x4 − 8x + 1 = 0, isolée sur [1.6, 2]. Trouver les valeurs approchées x1
et x2 avec deux chiffres après la virgule. Estimer l’erreur de l’approximation x2 .
Exercice 6.11 : Appliquer cinq fois la méthode des approximations successives pour trou-
ver la racine approchée de l’équation 2x − cos x = 0, isolée sur [0, 0.5].
Exercice 6.12 : Calculez (à la main) à 10−4 près la racine r positive de l’équation g(x) =
x pour g(x) = x2 + x1 et comparer avec la méthode de bissection.
66
Chapitre 7
où f (xk ) = yk . Autrement dit la somme des carrés des écarts des valeurs de y calculées
par la formule par rapport aux valeurs données d’où la dénomination de méthode des
moindres carrés.
67
7.2 Résolution du problème de l’approximation par les
moindre carrés
68
Cas d’un polynôme de dégré quelconque m
Dans la dernière ligne, sont portées les sommes des éléments constituant les colonnes
respectives. Ces sommes représentent les coefficients du système (7.6). Le système (7.6)
est d’habitude résolu par la méthode de Gauss.
Exemple 7.1 : A l’aide de la méthode des moindres carrés, choisir une fonction quadra-
tique p(x) = a2 x2 + a1 x + a0 pour les valeurs de x et de y données :
x 7 8 9 10 11 12 13
y 7.4 8.4 9.1 9.4 9.5 9.5 9.4
69
Formons le tableau
k xk x2k x3k x4k yk xk y k x2k yk2
1 7 49 343 2401 7.4 51.8 362.6
2 8 64 512 4196 8.4 67.2 537.6
3 9 81 729 6561 9.1 81.9 737.1
4 19 100 1000 10000 9.4 94 940
5 11 121 1331 14641 9.5 104.5 1149.5
6 12 144 1728 20736 9.5 114 1368
7
P 13 169 2197 28561 9.4 122.2 1588.6
70 728 7840 87096 62.7 635.6 6683.4
D’où on tire le système suivant :
728a2 + 70a1 + 7a0 = 62.7
7840a2 + 728a1 + 70a0 = 635.6,
87096a2 + 784a1 + 728a0 = 6683.4.
Exemple 7.2 : Trouver par la méthode des moindres carrés une fonction exponentielle
S = Aect d’après les données du tableau suivant :
t 0 2 4 6 8 10 12
S 1280 635 324 162 76 43 19
70
On forme le tableau suivant :
k t t2k y = log S ty
1 0 0 3.1072 0
2 2 4 2.8028 5.6056
3 4 16 2.5105 10.0420
4 6 36 2.2095 13.2570
5 8 64 1.8808 15.0464
6 10 100 1.6335 16.3350
7
P 12 144 1.2787 15.3444
42 364 15.4230 75.6304
c’est à dire c log e = −0.1509, log A = 3.1087. Par conséquent, A = 1284 et c = −0.347.
Ainsi, la fonction exponentielle cherchée sera
S = 1284e−0.347t .
Cas général
De manière plus générale dans l’approximation par la méthode des moindres carrés la
fonction f peut être définie par
m
X
f (x) = ak gk (x) = a0 g0 (x) + a1 g1 (x) + . . . + an gn (x), (7.8)
k=1
où les fonction gk (x) sont des fonctions quelconques et peuvent donc être de nature dif-
∂R
férente. Lorsque le système d’équations = 0 est gros, la résolution se fait numéri-
∂ak
quement. En général, le système d’équations que l’on obtient est défini de la manière
suivante : m
P
A a
00 0 + A a
01 1 + A a
02 2 + . . . + A a
0n n = g0 (xi )fi ,
i=1
m
A a + A a + A a + ... + A a = P g1 (xi )fi ,
10 0 11 1 12 2 1n n
i=1 (7.9)
...
m
P
An0 a0 + An1 a1 + An2 a2 + . . . + Ann an =
gn (xi )fi ,
i=1
où m
X
Akj = gk (xi )gj (xi ), j = 0, 1, . . . , n et k = 0, 1, 2, . . . , n.
i=1
71
7.3 Exercices
Exercice 7.1 : Les résultats d’une expérience est donné dans le tableau suivant :
x 1 2 4 6
y 10 5 2 1
y = a0 + a1 x + a2 x 2 . (7.10)
t 1 2 3 4 5
S 7.1 15.2 48.1 96.3 150.1
72
Chapitre 8
73
8.2 Calcul matriciel
8.2.1 Quelques définitions de base
– Une matrice est un tableau rectangulaire des nombres réels ou complexes de la
forme :
a11 · · · · · · a1n
a21 · · · · · · a3n
A = ..
.
· · · ..
. ···
am1 · · · · · · amn
Sous forme condensé, on écrit A = (aij ); i = 1, 2, · · · , m; j = 1, 2, · · · , n. m : nombre
de ligne et n : nombre de colonne. On parle alors de matrice m × n. La diagonale
contenant les éléments aii est la diagonale principale. Si n = m la matrice est carrée.
– La transformée d’une matrice m × n notée A = (aij ) est la matrice n × m notée
AT = (aji ). Les colonnes de A sont les lignes de AT et les lignes de A sont les
colonnes de AT .
Une matrice carrée réelle (aij = réelle) est dit symétrique ssi aij = aji c’est-à-dire
AT = A.
Si aij = −aji =⇒ aii = 0, alors AT = −A et la matrice est dite antisymétrique.
– Une matrice carrée (aij ) donc les éléments situés au dessus (ou en dessous) de la
diagonale principale sont nuls est appelée matrice triangulaire.
– On appelle matrice en echelon, une matrice telle que :
1. les coefficients principaux des lignes 1, 2, 3, · · · sont situées dans les colonnes de
numéro strictement croissant (le coefficient principal d’une ligne est le premier
coefficient nul de cette ligne).
2. Si une ligne a tout ses coefficients nuls, il en est de même des lignes suivantes.
– Une matrice carrée (aij ) dont les éléments situés au dessus et en dessous de la
diagonale principale sont tous nuls (aij = 0, i 6= j) est appelé matrice diagonale. Si
les éléments de la diagonale principale sont tous égaux à un nombre C, la matrice
est dite scalaire-. Si C = 1, la matrice est unitaire.
– Pour une matrice carrée m × m, si les coefficients aij sont nuls lorsque |i − j| >
k(k < m), la matrice est dite (2k + 1)−diagonale.
En particulier :
si k = 0 =⇒ matrice diagonale,
si k = 1 =⇒ matrice tri-diagonale,
si k = 2 =⇒ matrice penta-diagonale,
74
8.2.2 Produit de deux matrices et propriétés
a) Définition
b) Algorithme
pour j allant de 1 à p
faire
pour i allant de 1 à m
faire
cij ←− 0
pour k allant de 1 à n
faire
cij ←− cij + aik bkj
fin pour
ecrire cij
fin pour
fin pour
Propriétés :
a11 · · · · · · a1n
a21 · · · · · · a3n
D = .. .
. ··· · · · ..
an1 · · · · · · ann
75
Sa valeur calculable par plusieurs méthodes est un nombre réel ou complexe.
Les mineurs Mij d’un élément aij du déterminant D d’ordre n est le déterminant
d’ordre n−1 obtenu en supprimant la ligne et la colonne de D passant par aij . La quantité
c0ij = (−1)i+j Mij est appelée cofacteur de l’élément aij . La valeur du déterminant est alors
donnée par la formule :
Xn n
X
0
D= aik cik = akj c0kj .
k=1 k=1
Bienque cette méthode soit simple et d’une grande importance sur le plan théorique, elle
est trop longue pour les calculs quand les matrices sont d’ordre supérieur.
Soit A une matrice donc la 1ere colonne n’est pas nulle (c’est-à-dire que la premiére
colonne contient au moins un élément non nul), par yune succession convenable d’opéra-
tion, la matrice A peut être transformé en une matrice donc la premiére colonne a tout ces
éléments non nuls sauf le premier. En procedant ainsi, on obtient une matrice triangulaire.
Pour le faire, on utilise la méthode suivante :
Soit ai1 un élément non nul de la premiére colonne de A, il suffit d’executer les ins-
tructions suivantes.
1. Echanger les lignes L1 et Li (si i 6= 1), le coefficient a11 de la nouvelle matrice est
alors nul.
2. Pour k allant de 2 à n (n : nombre de ligne de la matrice)
faire
ak1
Lk ←− Lk − Li
a11
ak1
la 1ere coordonnée de la nouvelle ligne est alors ak1 − a
a11 11
= 0.
On considére ensuite la matrice partant de la 2eme colonne et de la 2eme ligne,
on procéde alors de la même façon jusqu’à obtenir une matrice triangulaire. Le
déterminant de la matrice est alors égal au produit des éléments de la diagonale
principale.
Exemple :
3 4 5 14 3 4
=⇒ (5; 2) − (3; 4) = (0; − ) =⇒
5 2 3 3 0 2
76
Cette méthode est aussi appelée méthode de pivot et le coefficient ai1 est appelé pivot.
Pour des calculs à la main, on choisira de préférence le pivot le plus simple (le meilleur
étant 1 pour éviter les divisions). Si l’on utilise un ordinateur, il est recommandé de choisir
le plus grand pivot en valeur absolue pour diminuer l’influence des erreurs d’arrondies, on
parle alors de pivot maximum.
Il existe une autre variante de la méthode de pivot qui consiste à reduire l’ordre du
déterminant étape par étape pour en former une matrice triangulaire donc les éléments
situés au dessus de la diagonale principale sont tous nuls (matrice triangulaire inférieure).
Théoréme 2 :
Si tout les éléments d’une colonne (ou d’une ligne) d’un déterminant D sont multiples
d’un même facteur K, alors le nouveau déterminant est Dk = kD.
Théoréme 3 :
Si tout les éléments d’une colonne ou d’une ligne d’un déterminant D sont tous nuls
alors D = 0.
L’inversion A−1 d’une matrice carrée A existe si et seulement si detA 6= 0. A−1 est
alors unique et défini par :
1
A−1 = C oT ,
detA
où C oT est la transposée de C o = (Cijo ), Cijo étant le cofacteur de (aij ).
77
caractéristique |A − λI| = 0. Il existe deux méthodes principales pour déterminer les
valeurs propres.
1. La premiére méthode permet de calculer les valeurs propres réelles, elle repose sur
le principe de décomposition d’une matrice carrée en un produit de deux matrices
triangulaires (l’une supérieur et l’autre inférieur). C’est le principe de décomposition
LU(Lower-Upper).
2. La deuxiéme tout à fait générale permet de déterminer toute les valeurs propres
réelles et imaginaires. Elle donne une expression explicite du polynôme caractéris-
tique en utilisant les relations de Newton relative à un polynôme. Ce polynôme peut
être résolu par les méthodes de résolution des équations algébriques non linéaires
(par la méthode de Newton–Raphson).
AX = B, (8.1)
Théoréme de Cramer :
Si le déterminant D est non nul, le système (8.1) admet une solution définir par
Xk = DDk où Dk est le déterminant obtenu de D en remplaçant la colonne k par la colonne
des éléments du vecteur B.
78
8.4 Méthode de Gauss ou des éléminations successives
ou de pivot
8.4.1 Méthode d’élémination successive de Gauss
Présentation de la méthode
C’est une méthode utilisée depuis le 19e siécle. Elle a été systématisé par la mathé-
maticien Allemand Gauss en 1809 pour les besoins de la mécanique celeste. Son principe
est le suivant :
Les inconnues sont éliminées successivement en exprimant à partir d’une des équations
une inconnue en fonction des autres puis en substituant dans le reste des équations. On
peut ainsi d’un système de n équations à n équations à un système de n équations à
n − 1 inconnues. Le processus se poursuit jusqu’à l’obtention d’une équation à une seule
inconnue. On trouve alors cette derniére inconnue, et par le processus inverse, les autres
inconnues sont calculées. L’équation qui permet d’exprimer une inconnue en fonction des
autres est appelé équation pivotale.
Pour éviter les erreurs d’arrondies, l’équation pivotale doit être celle qui posséde le
plus grand coefficient de l’inconnue à éliminer. L’idée de cette méthode de Gauss peut
également s’exprimer de la maniére suivante : réduire le système matriciel AX = B en
un système triangulaire supérieur. Le système triangulaire peut alors se résoudre par un
processus inverse c’est-à-dire on trouve d’abord Xn , en suite Xn−1 , ainsi de suite jusqu’à
X1 .
Algorithme
Soit le système :
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
a x + a x + ··· + a x = b
n1 1 n2 2 nn n n
où
ai1
a0ij = aij − a1j
a11
79
et
ai1
b0i = bi −b1
a11
On continut le processus en considérant le système constitué des lignes 2 à n et ainsi
de suite jusqu’au système constitué de ligne n − 1 et n. Pour une étape k, c’est-à-dire en
considérant le système constitué des lignes k à n l’algorithme suivant peut être utilisé.
pour i allant de k + 1 à n
faire
aik
bi ←− bi − bk
akk
pour j=k à n
faire
aik
aij ←− aij − akj
akk
fin
fin
On peut ainsi en déduire l’algorithme de triangularisation du système d’équation en
faisant varier k de 1 à n − 1.
a11 a12 · · · · · ·
a1n x1 b1
0 a22 · · · · · · a2n x 2 b2
..
x 3 b3
0 0 a33 · · · . =
. .. .. ..
.. · · · · · · · · · . . .
0 0 ··· 0 ann xn bn
80
8.5 Méthode de Jordan
Elle est analogue à celle de Gauss, sauf qu’ici l’on met aussi égale à 0 les termes qui
se retrouvent au dessus de la diagonale principale.
Principe
SX = L−1 B.
Ce dernier système est un système triangulaire que l’on peut résoudre par le schéma
précédent.
Décomposition de la matrice
Avec ces équations, on obtient les éléments de la premiére colonne de L puis ceux de la
premiére ligne de S ensuite ceux de la deuxiéme colonne de L et ceux de la deuxiéme ligne
de S et ainsi de suite. On obtient alors les éléments suivants qui permettent de calculer
81
les coefficients lij et sij . On a
lj1 = aj1 ,
s1,j = a1j /l11 ,
lj2 = aj2 − lj1 s2j ,
s2j = (a2j − l21 s1j )/l22 ,
lj3 = (aj3 − l31 s1j − l32 s2j )/l33 ,
..
.
n−2
P
l j,n−1 = a j,n−1 − ljk sk,n−1 ,
k=1
n−1
P
sn−1,j = an−1,j − ln−1,k skj /ln−1,n−1 ,
k=1
n−1
P
lnn = ann − lnk skn .
k=1
82
où est un infiniment petit dépendant de la matrice A des éléments aii , bi et des valeurs
initiales de X.
Ceci sugére que les valeurs connues de x1 , x2 , · · · , xi , xi+1 , · · · , xn soient substitués pour
trouver xi . La formule d’itération de Jacobi est alors la suivante :
(k+1) (k) (k) (k) (k)
xi = [bi − ai1 x1 − ai2 x2 − · · · − ai,i−1 xi−1 − ai,i+1 xi+1 + · · · + ain x(k)
n ]/aii , (8.2)
(k)
où xi sont les valeurs des inconnues obtenues aprés k itérations.
(k+1)
Dans la formule de Gauss-Seidel, les valeurs xj pour j ≤ i−1 sont utilisées aussitôt
(k+1)
qu’elles sont déterminées pour calculer xi .
La formule itérative de Gauss-Seidel se met sous la forme
(k+1) (k+1) (k+1) (k+1) (k+1)
xi = [bi −ai1 x1 −ai2 x2 −· · ·−ai,i−1 xi−1 −ai,i+1 xi+1 +· · ·+ain xn(k+1) ]/aii , (8.4)
Remarque 8.1 : Les deux méthodes sont importantes car ils existent les systèmes d’équa-
tions pour lesquels la méthode de Jacobi converge tandis que la méthode de Gauss-Seidel
ne converge pas et vis.versa.
83
8.8 Exercices
Exercice 8.1 : Un rayonnement électromagnétique traversant une solution contenant
plusieurs solutés s1 , s2 , s3 , · · · , sn est absorbé selon la loi de Beer suivante : A = ni=1 ki (λ)ci ,
P
Ecrire un algorithme qui utilise la méthode de pivot pour trouver les concentrations c1 , c2 , c3 .c4 .
Exercice 8.2 : Ecrire un algorithme pour la résolution d’un système d’équations linéaires
par la méthode Jacobi.
Exercice 8.3 : Ecrire un algorithme pour la résolution d’un système d’équations linéaires
par la méthode de Gauss Seidel.
84
Chapitre 9
9.1 Généralités
Définition 9.1 : Une équation différentielle d’ordre m est une expression de la forme :
avec f : U → Rn , U ⊂ R × (Rn )n+1 , y 0 = (y10 , y20 , . . . , yn0 ). C’est ce type d’équation que l’on
va traiter dans ce chapitre.
Définition 9.2 : Une solution de (9.2) sur un intervalle I ⊂ R est une fonction dérivable
y : I → Rn telle que
1. ∀x ∈ I, (x, y(x)) ∈ U ;
2. ∀x ∈ I, y 0 = f (x, y(x)).
85
Définition 9.3 1. L’ensemble {(x, y(x)), t ∈ I} est appelé trajectoire de la solution.
2. L’ensemble {y(x), x ∈ I} est appelé orbite de la solution.
y 000 = fxx (x, y) + 2fxy (x, y)y 0 + fyy (x, y)y 02 + fy (x, y)y 00 , ...
86
En inserant x = x0 , y = y0 dans (9.4) et les relations précédentes, on trouve les valeurs
y 0 (x0 ), y 00 (x0 ), y 000 (x0 ), ...
Alors on peut écrire l’approximation
n
X y (i) (x0 )
y(x) ≈ (x − x0 )i . (9.5)
i=0
i!
Si | x − x0 | est plus grande que le rayon de convergence de la série
∞
X y (i) (x0 )
(x − x0 )i ,
i=0
i!
alors l’erreur de la formule (9.5) ne tendra pas vers zéro quand n → ∞ et la méthode ne
sera pas applicable.
Le plus souvent on procède de la façon suivante. On divise le segment [x0 , x0 + X]
en des segments éléméntaires [xj−1 , xj ], j = 1, 2, . . . , N . On obtiendra successivement les
valeurs approchées y(xj ), j = 1, 2, . . . , N , suivant la règle suivante. Supposons la valeur
(i)
yj déjà trouvée, et calculons au point xj les dérivées yj de la solution de l’équation
différentielle (9.4), passant par le point (xj , yj ), i.e., yj (xj ) = yj . Sur le segment [xj , xj+1 ]
on a
n (i)
X yj
y(x) ≈ zj (x) = (x − xj )i , (9.6)
i=0
i!
et prenons
yj+1 = zj (xj+1 ). (9.7)
Etudions le cas où xj+1 − xj ≡ h. Si jamais la valeur de yj coïncidait avec la solution
exacte y(xj ), alors l’erreur commise en prenant zj (xj+1 ) à la place de yj+1 serait de l’ordre
de O(hn+1 ). Puisque nous introduisons l’erreur en O(h−1 ) sur les segments, alors on peut
s’attendre à avoir
max | yj − y(xj) |= O(hn ),
1≤j≤N
87
9.4 Méthode de Runge-Kutta
Dans le cas particulier où n = 1, la formule (9.6) de la section précédente prend la
forme suivante :
yj+1 = y(xj+1 ),
= yj + yj0 .(xj+1 − xj ),
= yj + hf (xj , yj ), h = xj+1 − xj ,
i.e.,
yj+1 = yj + hf (xj , yj ), h = xj+1 − xj . (9.8)
Cette méthode s’appelle méthode d’Euler.
L’algorithme suivant peut être utiliser :
Données de x0 , y0
y ←− y0 ; x ←− x0
Pour k allant de 1,n
faire
y ←− y + hf (x, y)
x ←− x + kh ou x ←− x + h
fin pour
ecrire (x,y)
On peut construire une autre classe de formules de calcul contenant la méthode d’Eu-
ler. Supposons connue la valeur de y(x) et proposons nous de trouver y(x+h). Considérons
l’égalité : Z h
y(x + h) = y(x) + y 0 (x + t)dt. (9.9)
0
Remarque 9.1 : La formule (9.13) est équivalente à (9.11) et s’appelle aussi formule de
calcul d’Adams.
Pour des valeurs très petites de h, nous pouvons résoudre (9.11) par la méthode d’itéra-
tion :
k+1 h k
yj+1 = yj + [f (xj , yj ) + f (xj+1 , yj+1 )]. (9.14)
2
0
Si yj+1 est calculé par la formule d’Euler :
0
yj+1 = yj + hf (xj , yj ),
1
alors yj+1 obtenue au premier pas de l’itération coïncide avec yj+1 , obtenue par la formule
(9.13) :
0
yj+1 = yj + hf (xj , yj ),
1 h 0
yj+1 = yj + [f (xj , yj ) + f (xj+1 , yj+1 )].
2
89
2
Par la suite, on trouve yj+1 , et ainsi de suite.
Construisons une autre paire de formule de calcul avec une erreur de même ordre
sur le pas. Donnons l’approximation de l’intégrale à droite de (9.9) par la formule des
rectangles :
0 h
y(x + h) = y(x) + hy x + + O(h3 ),
2
ou encore, ce qui revient au même,
h h
y(x + h) = y(x) + hf x + , y x + + O(h3 ).
2 2
Si
∗ h
y =y x+ + O(h2 ),
2
alors comme dans le cas précédent, on aura
h ∗
y(x + h) = y(x) + hf x + , y + O(h3 ).
2
En qualité de y ∗ on peut prendre le résultat obtenu par la formule d’Euler avec comme
h
pas :
2
h
y ∗ = y(x) + f (x, y(x)).
2
A ces relations correspond la paire de schéma de calcul suivant :
h
yj+ 1 = yj + f (xj , yj ),
2 2
(9.15)
h
yj+1 = yj + f xj + , yj+ 1 .
2 2
Les méthodes obtenues (formule de calcul d’Euler (9.8), la formule de calcul d’Adams
(9.11) ou (9.13) et la formule de calcul (9.15) se rapportent à la famille des méthodes de
Runge-Kutta. Nous entendrons par formule de calcul de Runge-Kutta, la formule (9.15).
Exemple 9.2 : Trouver par la méthode d’Euler les quatre premières valeurs de la fonction
y(x), solution du problème de Cauchy
y−x
y0 = , y(0) = 1,
y+x
en prenant pour pas h = 0.1.
Solution : Nous cherchons les dites valeurs suivant la formule :
90
y−x
Puisque h = 0.1, alors xj = x0 + jh = 0.1j. D’autre part f (x, y) = . Alors
y+x
y0 = y(0) = 1, y1 = y0 + hf (x0 , y0 ) = 1 + 0.1f (0.1) = 1.1,
1.1 − 0.1
y2 = y1 + hf (x1 , y1 ) = 1.1 + 0.1f (0.1, 1.1) = 1.1 + 0.1 = 1.183,
1.1 + 0.1
1.183 − 0.2
y3 = y2 + hf (x2 , y2 ) = 1.183 + 0.1f (0.2, 1.183) = 1.183 + 0.1 = 1.254,
1.183 + 0.2
1.254 − 0.3
y4 = y3 + hf (x3 , y3 ) = 1.254 + 0.1f (0.3, 1.254) = 1.254 + 0.1 = 1.315.
1.254 + 0.3
Ainsi,
En intégrant les deux membres de (9.16) sur un segment d’extrémité x0 et x, nous obtenons
Z x
y(x) = y(x0 ) + f (t, y(t))dt. (9.17)
x0
Supposons
que dans un certain voisinage du point (x0 , y0 ) la fonction f (x, y) est continue
∂f
et que ∂y ≤ K, i.e., que la dérivée partielle du premier ordre de f par rapport à y est
bornée dans le dit voisinage. Alors, dans un certain voisinage du point x0 le, probleme
de Cauchy (9.16) possède une et une seule solution. Cette solution est équivalente à la
solution de l’équation (9.17) (c’est une équation intégrale car l’inconnue y se trouve sous
le signe intégrale). En effet, si ϕ(x) est une solution du problème de Cauchy (9.16), i.e.,
ϕ0 (x) = f (x, ϕ(x)) et ϕ(x0 ) = y0 , alors
Z x Z x
0
ϕ (t)dt = f (t, ϕ(t))dt.
x0 x0
Mais, Z x
ϕ0 (t)dt = ϕ(x) − ϕ(x0 ) = ϕ(x) − y0 ,
x0
et par suite Z x
ϕ(x) = y0 + f (t, ϕ(t))dt,
x0
91
ce qui revient à dire que y = ϕ(x) est une solution de (9.17).
Rx
Soit maintenant y = ϕ(x) une solution de (9.17), i.e., ϕ(x) = y0 + x0 f (t, ϕ(t))dt. Alors
Rx
y(x0 ) = ϕ(x0 ) = y0 . En dérivant membre à membre l’égalité ϕ(x) = y0 + x0 f (t, ϕ(t))dt
par rapport à x, on aura ϕ0 (x) = f (x, ϕ(x)) et ϕ(x0 ) = y0 . Par conséquent, y = ϕ(x) est
une solution du problème de Cauchy (9.16).
pour obtenir la suite des approximations du problème de Cauchy (9.16), donnons à
l’inconnue y dans (9.17) une valeur connue y0 , nous obtenons la première approximation :
Z x
y1 = y0 + f (t, y0 )dt.
x0
Ainsi de suite, nous obtenons la suite de fonctions {yn (x)} définie par
Z x
yn (x) = y0 + f (t, yn−1 (t))dt, n = 2, 3, . . .
x0
En théorie des équations différentielles ordinaires, les approximations successives {yn (x)}
converge vers la solution y(x) du problème de Cauchy dans un voisinage |x − x0 | ≤ a du
point x0 . On montre aussi que l’erreur de la méthode est estimée par
M (Kc)n
|y(x) − yn (x)| ≤ ,
Kn!
où
b
|f (x, y)| ≤ M, |y − y0 | < b ≤ pm∞, c = min a, .
M
Exemple 9.3 : Donner les deux premières approximations de la solution du problème de
Cauchy y 0 = x + y 2 , y(0) = 1.
3 2 1 1
= 1 + x + x2 + x3 + x4 + x5 .
2 3 4 20
92
9.6 Exercices
Exercice 9.1 : Trouver par la méthode d’Euler les valeurs de y(x) (trois), solution du
problème de Cauchy y 0 = 1 + x + y 2 , y(0) = 1, en prenant h = 0.1.
Exercice 9.2 : Trouver par la méthode d’Euler quatre valeurs de y, solution du problème
de Cauchy y 0 = x2 + y 2 , y(0) = 0, en prenant h = 0.1.
Exercice 9.3 : Trouver par la méthode d’Euler quatre valeurs de y, solution du problème
y
de Cauchy y 0 = + y 2 , y(2) = 4, en prenant h = 0.1.
x
Exercice 9.4 : Trouver par la méthode d’Euler quatres valeurs de y, solution du problème
(x + y)(1 − xy)
de Cauchy y 0 = , y(0) = 1 sur [0, 1], en prenant h = 0.2.
x + 2y
Exercice 9.8 : Calculer par la méthode d’Adams y(0.5), où y(x) est la solution du pro-
blème de Cauchy y 0 = x + y, y(0) = 1 en prenant h = 0.1.
Exercice 9.12 : Estimez la trajectoire d’une planète en orbite circulaire autour d’une
étoile, par la méthode d’Euler, en utilisant differents pas d’intégration. Comparez à la
solution exacte.
93
Bibliographie
94