Vous êtes sur la page 1sur 95

Méthodes Numériques

Cours et Travaux Dirigés


Année accadémique 2012-2013

par

Samuel BOWONG
Table des matières

Table des Matières 3

1 Concepts de bases et méthodologie du traitement numérique des pro-


blèmes scientifiques 6
1.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Le problème posé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 La méthode de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 L’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 La programmation scientifique . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Traitement machine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.7 Interprétation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.8 Notions de base en calcul numérique . . . . . . . . . . . . . . . . . . . . . 8
1.8.1 Utilisation des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.8.2 Utilisation des fonctions . . . . . . . . . . . . . . . . . . . . . . . . 8
1.8.3 Discrétisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.8.4 Les itérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.8.5 Erreurs d’arrondis et de troncature . . . . . . . . . . . . . . . . . . 9
1.8.6 Problèmes instables ou mal conditionnés . . . . . . . . . . . . . . . 9
1.9 Méthodes instables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Généralités sur l’ordinateur et sur les programmations structurées 10


2.1 Généralités sur l’ordinateur . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Les calculateurs électroniques . . . . . . . . . . . . . . . . . . . . . 10
2.1.2 Les utilitaires les plus rencontrées . . . . . . . . . . . . . . . . . . . 11
2.2 Généralités sur les programmations structurées . . . . . . . . . . . . . . . . 11

3 Erreurs sur les solutions numériques 15


3.1 Sources des erreurs et classification des erreurs . . . . . . . . . . . . . . . . 15
3.2 Erreurs absolue et relative . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

4 Approximation numérique des fonctions 18


4.1 Approximation de la dérivée d’une fonction . . . . . . . . . . . . . . . . . . 18

1
4.1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.2 Interpolation et approximation des fonctions . . . . . . . . . . . . . . . . . 23
4.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2.2 Types d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2.3 Interpolation polynomiale . . . . . . . . . . . . . . . . . . . . . . . 24
4.2.4 Interpolation de Newton . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5 Approximation numérique des intégrales 36


5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.1.1 Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.1.2 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.2 Méthode des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2.2 Calcul de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3 Formule du point millieu . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4 Méthode de trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.4.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.4.2 Calcul de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.5 Méthode de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.5.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.5.2 Calcul de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

6 Résolution numérique des équations non linéaires 54


6.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2 Méthode de dichrotomie ou de partage en deux . . . . . . . . . . . . . . . 55
6.2.1 La méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.2 Organigramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.3 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.3 Méthode de la corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.4 Méthode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.4.1 La méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.4.2 Organigramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.5 Méthode par approximations successives . . . . . . . . . . . . . . . . . . . 62
6.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

7 Approximation par la méthode des moindres carrés 67


7.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2 Résolution du problème de l’approximation par les moindre carrés . . . . . 68
7.2.1 Choix des paramètres par la méthode des moindres carrés . . . . . 68

2
7.2.2 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
7.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

8 Résolution numérique des équations linéaires 73


8.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
8.2 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
8.2.1 Quelques définitions de base . . . . . . . . . . . . . . . . . . . . . . 74
8.2.2 Produit de deux matrices et propriétés . . . . . . . . . . . . . . . . 75
8.2.3 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . 75
8.2.4 Inversion des matrices . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.2.5 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . 77
8.3 systèmes d’équations linéaires et méthode de Cramer . . . . . . . . . . . . 78
8.3.1 Définition et cas particulier . . . . . . . . . . . . . . . . . . . . . . 78
8.3.2 Méthode de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.4 Méthode de Gauss ou des éléminations successives ou de pivot . . . . . . . 79
8.4.1 Méthode d’élémination successive de Gauss . . . . . . . . . . . . . . 79
8.4.2 Résolution numérique des systèmes triangulaires . . . . . . . . . . . 80
8.5 Méthode de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
8.5.1 Méthode de la décomposition triangulaire . . . . . . . . . . . . . . 81
8.6 Méthode par inversion des matrices . . . . . . . . . . . . . . . . . . . . . . 82
8.7 Méthodes itératives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.7.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.7.2 Méthodes de Jacobi et Gauss-seidel . . . . . . . . . . . . . . . . . . 83
8.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

9 Intégration numérique des équations différentielles 85


9.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
9.2 Quelques premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 85
9.2.1 Problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . 86
9.3 Résolution du problème de Cauchy à l’aide de la formule de Taylor . . . . 86
9.4 Méthode de Runge-Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
9.5 Méthode des approximations successives . . . . . . . . . . . . . . . . . . . 91
9.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

3
Introduction Générale

Les machines à calculer électroniques ont leur origine en science et aujourd’hui, ils
constituent des objets vitaux pour tous les domaines de l’activité humaine. Tandis que les
outils comme les microscopes et les télescopes augmentent nos possibilités d’observation,
les calculateurs électroniques et les ordinateurs augmentent nos possibilités de raisonne-
ment. Ils ont revolutionné la science moderne. Les moyens de calcul jadis utilisés sont la
règle à calcul, l’arithmométre, les tables que l’on a établi mais ces moyens de calcul se
sont averés incapables de faire face au besoin de plus en plus complexe de la science, de la
technique et de l’économie de notre temps. La recherche des dispositifs plus performants,
plus efficaces et plus rapides ont génerés la création des calculateurs électroniques ana-
logiques et numériques. Le premier calculateur électronique a été construit en 1945 aux
USA. En 1946, FON NEUMANN a formulé les principes et les idées qui servent de base
à la construction des calculateurs électroniques. Leur généralisation, leur développement,
et leur application conduisent aujourd’hui à une refonte de la recherche scientifique, des
travaux scientifiques, de la gestion, du service. En effet, en somme les ordinateurs nous
aide à
- traiter la complexité dans les modèles qui ne peuvent pas être résolu autrement ;
- étudier les phénomènes qui dont difficiles à étudier expériementalement ;
- tester la théorie ;
- découvrir de nouveaux concepts et améliorer la théorie.
Le but de ce cours est donc de permettre aux scientifiques en général, aux mathémati-
ciens, physiciens, ingenieurs, chimistes, biologistes et économistes en particulier d’élaborer
les méthodes de calcul numérique utilisable par l’ordinateur pour résoudre les problèmes
de recherche et de devéloppement. Ces problèmes pourront être de divers types : par
exemple
1. Le traitement d’un grand nombre de données ou mesures d’une expérience.
2. La résolution de gros systèmes d’équations linéaires à plusieurs inconnues.
3. La résolution des équations algébriques non linéaires.
Le cours est basé sur environ huit chapitres.
1. Concepts de bases et méthodologie du traitement numérique des problèmes scienti-
fiques
2. Généralités sur l’ordinateur et sur les programmations structurées

4
3. Erreurs sur les solutions numériques
4. Approximation numérique des fonctions
5. Approximation numérique des intégrales
6. Résolution numérique des équations non linéaires
7. Approximation par la méthode des moindres carrés
8. Résolution numérique des équations linéaires
9. Intégration numérique des équations différentielles

5
Chapitre 1

Concepts de bases et méthodologie du


traitement numérique des problèmes
scientifiques

1.1 Méthodologie
Le traitement d’un problème de calcul scientifique comprend en général six phases
dont la disposition est la suivante

1.2 Le problème posé


Le problème doit être
- posé clairement ;

6
- avoir un sens ;
- être bien posé afin d’éviter des instabilités.

1.3 La méthode de résolution


C’est la description du procédé permettant d’obtenir la solution du problème. Elle
peut être faite par une formulation mathématique ou par des directives de type littérales.

1.4 L’algorithme
C’est la décomposition en un nombre fini d’opérations élémentaires de la méthode
choisie. L’algorithme peut être complété par un organigramme. L’algorithme est une étape
très importante du calcul numérique :
- Il confirme ou infirme la réalité du problème posé ;
- Il justifie la faisabilité de la méthode proposée ;
- Il donne directement accès au problème informatique ;
- Il permet d’exercer un contrôle sur les performances qui résulteront du traitement
informatique : temps d’exécution, encombrement mémoire, précision
N.B. : Optimiser un algorithme signifie
• Réduire le temps calcul machine.
• Réduire la place occupée en mémoire centrale.
• Augmenter la précision.

1.5 La programmation scientifique


C’est la traduction de l’algorithme en un langage informatique. Les langages informa-
tiques les plus utilisés pour la résolution des problèmes scientifiques sont : le Fortran, le
Pascal et leurs dérivés (le C+, le C++, Matlab, Scilab, etc...). Ce sont les langages qui
évoluent de jous en jour (Exemple : Fortran 1, 2, 3, 4, 66, 77, 90, 91,... ; Pascal, Turbo
Pascal, Matlab 5.3, 7.2, Scilab 1, 2, 3, 4,...). La compatibilité des versions est ascendante
par exemple un programme écrit en Fortran 66 peut être exécuté à l’aide d’un compilateur
de Fortran 77.
N.B. : Le langage choisi doit pourvoir satisfaire toutes les opérations figurant dans l’al-
gorithme.

1.6 Traitement machine


C’est l’exécution de la méthode de résolution par un programme. Il s’agit d’utiliser
le systèmes d’exploitation de l’ordinateur : logiciels (compilateur, utilitaire, fonction et
sous-programme réquis), ressources matérielles (taille, vitesse d’exécution , etc...)

7
1.7 Interprétation des résultats
Les résultats doivent être interprétés avec la logique scientifique car il n’existe aucune
règle permettant d’affirmer à priori qu’un programme ou un algorithme donnera des résul-
tats tout à fait correct du problème posé. Il est donc souvent nécessaire d’essayer plusieurs
méthodes de résolution, plusieurs algorithmes ou même plusieurs langages pour un même
problème.

1.8 Notions de base en calcul numérique

1.8.1 Utilisation des réels


Le terme calcul numérique se rapporte à l’utilisation des calculateurs pour résoudre
les problèmes faisant intervenir des nombres entiers et réels. La plupart de ces nombres
s’exprime par une suite de chiffres. D’autre par contre nécessite pour leur représentation
une suite infinie de chiffres. Les ordinateurs quant à eux ne peuvent représenter les entiers
et les réels par une suite finie ce qui peut alors entrainer les erreurs d’arrondies. Chaque
chiffre de cette suite est appelé " digit ". La longueur de la suite finie est un élément qui
entre dans les qualités de performance et de précision de l’ordinateur. On peut améliorer
la précision en travaillant en double ou en quadruple.

1.8.2 Utilisation des fonctions


Il y a deux manières de représenter une fonction dans l’ordinateur : par un tableau
de valeurs ou par un sous-programme qui calcule les valeurs de la fonction à des points
choisis.

1.8.3 Discrétisation
En calcul scientifique, certains problèmes sont par nature continus. Ils font intervenir
les opérations telles que le dérivation et l’intégration. L’ordinateur ne pouvant résoudre de
tels problèmes continus, on doit les remplacer par des problèmes discrets en utilisant par
exemple les différences finis, les éléments finis, les méthodes particulières ou spectrales :
on parle alors de discrétisation.

1.8.4 Les itérations


Certains problèmes numériques sont souvent formulé en terme de processus succes-
sifs ou d’une suite de calculs. Le résultat d’un processus étant lié à celui du processus
précédent, on parle alors d’itération.

8
1.8.5 Erreurs d’arrondis et de troncature
Les erreurs de calcul numérique associées aux ordinateurs peuvent être classés en
plusieurs catégories : les erreurs dûes à la représentation limitée des réels et les erreurs
dûes au manque de ressource de l’ordinateur. La première catégorie est celle des erreurs
d’arrondis qui augmentent avec les opérations arithmétiques, la deuxième catégorie est
celle des erreurs de troncature. Elles surviennent par exemple lors de l’approximation des
fonctions par des fonctions rationnelles. Généralement, l’on remarque que la réduction des
erreurs de troncature entraine l’augmentation des erreurs d’arrondis.

1.8.6 Problèmes instables ou mal conditionnés


Une difficulté courante et source d’erreur graves en calcul numérique réside dans l’ex-
trême sensibilité de la solution aux légères variations des paramètres du problème. Cette
difficulté peut subvenir à n’importe quel type de calcul numérique : soustraction, système
d’équations linéaires, équations non linéaires. Comme exemple, considérons le système
suivant : 
x + 2y = 3
0.499x + 1, 001y = 1.5
La solution est (1, 1). Si dans la 2eme équation nous remplaçons 0, 499 par 0.5, on
obtient comme solution le couple (3, 0) qui est très loin de (1, 1). Ce genre de problème
est dit instable ou mal conditionné. Si les variations légères des paramètres d’un problème
entraine un changement légèr de la solution, on dit que le problème est stable ou bien
conditionné ou bien posé. Il faut donc noter que lorsque le problème est instable les
erreurs d’arrondis et de troncature ainsi que d’autres approximations peuvent conduire
à des solutions très éloignées de la solution exacte. Notons également qu’un problème
peut être stable pour une méthode numérique et instable pour une autre. Il faudra donc
au cours des calculs numériques faire des tests de la stabilité du problème posé ou de la
méthode.

1.9 Méthodes instables


A cours des opérations mathématiques, des erreurs d’arrondis subséquentes des mé-
thodes de calcul numérique peuvent conduire à de faux résultats. La méthode qui est la
bonne mais qui souvent à cause des données d’un problème ou de la manière que ces don-
nées sont transmises produisent des résultats avec une courte précision est dite instable.
Une méthode sera d’autant plus stable que les solutions qu’elles donnent d’un problème
sont proches de la solution exacte. C’est pourquoi, il faut toujours analyser les erreurs de
calcul d’une méthode de calcul scientifique.

9
Chapitre 2

Généralités sur l’ordinateur et sur les


programmations structurées

2.1 Généralités sur l’ordinateur

2.1.1 Les calculateurs électroniques


Les calculateurs électroniques sont des dispositifs conçus est fabriqués par l’homme
pour faire des calculs. Ils sont de deux types :
- Les calculateurs analogiques qui utilisent des dispositifs d’électronique analogique pour
résoudre les problèmes scientifiques (sommateur, intégrateurs, multiplieurs, amplifica-
teurs, différentiateurs, etc...). Ces dispositifs utilisent les analogies électromécaniques,
optico-mécaniques, électro-acoustique, etc... C’est le cas aussi de simulation sur maquette.
- Les calculateurs numériques ou digitaux qui sont à la base des ordinateurs modernes
traitent les informations sius forme binaire. Cette information est représentée par une
suite de bits. L’ordinateur comprend essentiellement trois parties : l’unité centrale, la mé-
moire centrale et l’unité d’échange. La mémoire centrale dont la capacité s’exprime en kilo
octet ou mega octet enrégistre et concerve les informations. L’unité centrale ou encore
partie intelligente de la machine est constituée de l’organe de commande et de l’opérateur
arithmétique et de logique. L’unité d’échange est constituée des organes d’entrée et de
sortie et assure le transport des informations entre la mémoire, les périphériques (clavier,
écran,) et l’utilisateur. Pour son fonctionnement, l’ordinateur doit posséder un système
d’exploitation qui assure l’organisation de la mémoire centrale, le transfert des informa-
tions entre les diverses parties et la communication avec l’utilisateur. L’un des systèmes
d’exploitation le plus utilisé est le MS-DOS. Sur un ordinateur actuel, on peut résoudre
n’importe quel problème mathématique dont l’algorithme est connu. De plus, l’ordinateur
d’aujourd’hui permet de résoudre les problèmes non mathématiques pourvu qu’il existe
un algorithme de calcul adéquat. Par exemple, un ordinateur peut être connecté à une
machine utile qui fabrique une pièce d’un profil aussi compliqué que l’on veut. Dans ce
cas, les données d’entrée reflètent les caractéristiques du profil tandis que les résultats des

10
calculs sont convertis en signaux qui sont envoyés à l’organe de commande de la machine
outil. C’est également le principe d’action de disposition de commande de vol d’un avion
ou d’un processus technologique.

2.1.2 Les utilitaires les plus rencontrées


Pour l’exploitation et la gestion des ordinateurs et des logiciels un certain nombre
d’utilitaires est souvent utilisé et les plus rencontré sont les suivants :
- L’éditeur de texte : c’est un programme qui permet de rentrer ou d’envoyer les données
sur le disque.
- Le compilateur : c’est un programme qui transforme les programmes sources en langage
machine, i.e., en binaire. En effet, le programme source est incompris par la machine et
c’est le compilateur qui le transforme en un programme binaire executable par la machine.
- L’interpréteur : c’est un compilateur qui convertit le programme instruction après ins-
truction.
- Système de gestion de bases de données : il permet d’enregistrer une suite de donner de
manière structurée, de stocker et de gérer un ensemble de données.
- Bibliothèque mathématique et bibliothèque graphique : c’est un ensemble d’utiliteurs
pour les opérations mathématiques et graphiques.
- Interfaces utilisateurs : ils permettent de simplifier les échanges entre l’ordinateur et
l’utilisateur.

2.2 Généralités sur les programmations structurées


La réalisation d’un programme ou la programmation est une affaire de grande im-
portance qui possède quelques règles simples qui permettent d’améliorer la lisibilité du
programme par la mise en page et l’autodocumentaire (commentaire). Pour cela, on dé-
compose le programme en multiple dimension raisonnable. Les principales règles de la
programmation structurée est la suivante :
Règle 1 : Le programme doit être divisé en sous-programmes ou procédures. En
effet, les programmes traitant les problèmes complexes peuvent être très volumineux. Le
plus souvent, il inclut des problèmes plus simples repetés plusieurs fois. La méthode de
résolution de ces problèmes élémentaires est mise sous forme d’un sous-programme. Dans
ce cas en programmant un problème plus compliqué, l’appel aux sous-programmes se fait
par une seule instruction.
Règle 2 : Un programme s’écrit avec les trois structures fondamentales suivantes :
a) La séquence : une suite d’instructions.

11
b) L’alternative :
Si condition
alors
Instruction 1
sinon
Instruction 2
fin si

Exemple 2.1 : Soit à résoudre l’équation ax2 + bx + c = 0. Soit ∆ = b2 − 4ac.


Si ∆ > 0 alors
√ √
−b − ∆ −b + ∆
x1 = , x2 =
2a 2a
sinon
p
−b |∆|
real(x1 ) = , Im(x1 ) = −
2a 2a
p
−b |∆|
real(x2 ) = , Im(x2 ) =
2a 2a
fin

12
c) L’itération :
Première forme
Pour i variant de n à m par pas de p
faire
Instruction
fin pour

• Deuxième forme :
Repéter
Instruction
jusqu’à la condition

Troisième forme :
Tant que la condition
faire
Instruction
fin tant que

13
Règle 3 : Le programme doit être commandé convenablement et mise en page de
façon à faciliter le lisibilité.

14
Chapitre 3

Erreurs sur les solutions numériques

Dans ce chapitre, nous donnons les sources principales des erreurs et les règles donnant
des valeurs approchées des quantités.

3.1 Sources des erreurs et classification des erreurs


Les erreurs commises dans les problèmes mathématiques peuvent être conditionnées
par les raisons suivantes :
1. La formulation mathématique du phénomène n’est pas exacte. En générale lors
de l’étude d’un phénomène naturel, dans les cas courants on est contraint afin de
simplifier le problème d’admettre certaines conditions, par exemple sur les données
initiales du problème.
2. La méthode de résolution du problème n’est souvent pas exacte : la solution exacte
obtenue dans le problème mathématique nécessite généralement un nombre infini
ou un nombre très grand des opérations arithmétiques. Un processus infini ou très
grand ne se terminant pas en général en un nombre fini de pas, on est obligé d’y
mettre fin à un certain terme de la suite en le considérant comme une approximation
de la solution approchée.
3. Pendant l’introduction des données dans l’ordinateur, l’accomplissement des opéra-
tions arithmétiques et la sortie des résultats, il faut les arrondir.
Les erreurs correspondantes à ces sources sont appelées respectivement
1. Erreur inhérente ou erreur du problème ;
2. Erreur de la méthode ou erreur propagée ;
3. Erreur de calcul ou de chute ou d’arrondi ;
Généralement l’erreur du problème se divise en deux parties :
(a) On appelle erreur du problème les seules erreurs dûes à la non exactitude
des données numériques apparaissant dans la description mathématique du
problème ;

15
(b) On appelle erreur du modèle mathématique, l’erreur dûe à la non correspon-
dance de la description mathématique du problème réel.

3.2 Erreurs absolue et relative

Définition 3.1 : On appelle nombre approché du nombre A, un nombre a légèrement


différent de A et qui dans les calculs remplace ce dernier.
On dira que le nombre a est une valeur approchée de A par défaut si a < A. Si par
contre a > A, on dira que a est la valeur approchée de A par excès.
Si a est une valeur approchée de A, on note souvent a ≈ A.

Exemple 3.1 : 0.69 est une valeur appprochée par défaut de ln 2 et 0.7 est une valeur
approchée par excès de ln 2 car 0.69 < ln 2 < 0.7.

Si a est une valeur approchée du nombre A, alors la quantité ∆a définie par ∆a = A−a
s’appelle erreur du nombre approché a. Si a est une valeur approchée de A par excès,
alors ∆a = A − a < 0. Si par contre a est une valeur approchée de A par défaut, alors
∆a = A − a > 0. Il est évident que si ∆a est l’erreur du nombre approché a au nombre
A, alors A = a + ∆a.
Définition 3.2 : On appelle erreur absolue ∆ d’un nombre approché a, la valeur absolue
de l’erreur de ce nombre approché :

∆ = |A − a| = |∆a|. (3.1)

Remarque 3.1 : Il faut noter que si le nombre A est connu, alors l’erreur absolue se
calcule par la formule (3.1). Si par contre A n’est pas connu, alors nous ne pouvons pas
déterminer l’erreur absolue par la formule (3.1). Ce dernier cas étant le cas pratiquement
le plus fréquent.

Dans le cas où le nombre A est inconnu, au lieu de l’erreur absolue qui est inconnue, on
introduit sa limite supérieure appelée borne supérieure d’erreur absolue 1
On appelle borne d’erreur absolue du nombre approché a du nombre exact A la quan-
tité non négative ∆a telle que
∆ = |A − a| ≤ ∆a . (3.2)
Il découle de l’équation (3.2) ci-dessus que

a − ∆a ≤ A ≤ a + ∆a . (3.3)

Par conséquent a − ∆a est une valeur approchée du nombre A par défaut et A + ∆a l’est
par excès. On a alors
A = a ± ∆a .
1. On appelle borne supérieure d’erreur absolue d’un nombre approché, tout nombre supérieur ou égal
à l’erreur absolue de ce nombre.

16
Exemple 3.2 : Si a = 0.69 est la valeur approchée de ln 2, alors 0.69 < ln 2 < 0.70. De
là, on a|a − ln 2| < 0.01 et il vient que 0.01 est le borne supérieure d’erreur. Si l’on tient
compte de ce que 0.69 < ln 2 < 0.693 une meilleure estimation est ∆a = 0.003.

Définition 3.3 : On appelle erreur relative d’un nombre appeoché a le nombre noté δ qui
est le rapport de l’erreur absolue de ce nombre et du module du nombre exact correspondant
A (A 6= 0), i.e.,

δ= . (3.4)
|A|
Comme dans le cas de l’erreur absolue, on peut introduire aussi la notion de borne d’erreur
relative.

Définition 3.4 : On appelle borne d’erreur relative d’un nombre approché a donné, un
nombre quelconque noté δa supérieur ou égal à la veleur relative de ce nombre :

δ ≤ δa . (3.5)

De l’inégalité (3.5), il vient que ≤ δa , i.e., ∆ ≤ |A|δa . La plus petite des bornes
|A|
d’erreur relative s’appelle borne supérieure d’erreur relative.
Il découle de l’inégalité ∆ ≤ |A|δa que ∆a = |A|δa est une borne d’erreur absolue du
nombre a. Si δa est une erreur du nombre approché a, on note

A = a(1 ± δa ).

Soient a un nombre approché remplaçant le nombre exact A et ∆a une borne d’erreur


absolue du nombre a. Pour fixer les idées, on suppose que A > 0, a > 0 et ∆a < a. Alors
la formule (3.4) donne
∆ ∆ ∆a
δ= = ≤ .
|A| A A − ∆a
On peut pas conséquent prendre comme borne d’erreur relative du nombre a le nombre
∆a
δa = .
a − ∆a
De la même façon, on obtient de la formule (3.4) que ∆ = Aδ ≤ (a + ∆)δa , i.e.,
aδa
∆(1 − δa ) ≤ aδa ⇔ ∆ ≤ .
1 − δa
On peut alors prendre comme borne d’erreur absolue le nombre
aδa
∆a = .
1 − δa
Comme il est d’ordinaire, si a  ∆a et 1  δa , alors on peut avoir de façon approchée
∆a
δa ≈ et ∆a ≈ aδa .
a

17
Chapitre 4

Approximation numérique des fonctions

4.1 Approximation de la dérivée d’une fonction


4.1.1 Généralités

Définition 4.1 : Soit f une fonction réelle ou complexe, définie dans l’intervalle [a, b] de
R. Soit x0 un point de [a, b]. On dit que f est dérivable en x0 , de dérivée f 0 (x0 ), si
f (x0 + h) − f (x0 )
lim = f 0 (x0 ).
h→0 h
Lorsque la fonction f a une dérivée en chaque point de l’intervalle [a, b], on dit que f est
dérivable dans [a, b], de dérivée f 0 .
Définition 4.2 : On dit que f est de classe C k sur l’intervalle [a, b] si toutes ses dérivées
jusqu’à l’ordre k sont définies et continues en tout point de [a, b].
On connait des formules qui permettent de dériver les fonctions usuelles. Selon la
fonction, le calcul de la dérivée est plus ou moins compliqué et il existe des langages de
calcul formel qui permettent, dans la plupart des cas, de calculer l’expression de la dérivée
f 0 à partir de l’expression de la fonction f .
Cependant, il y a deux cas importants où on ne sait pas calculer la dérivée d’une
fonction en un point.
- Le premier cas se produit quand on connait les valeurs que prend la fonction f en
certains points, mais que l’expression de f n’est pas connue. Par example, ces valeurs de
f peuvent venir des mesures physiques ou d’un calcul précédent.
- Le second cas, qui est le plus fréquent, se produit quand la fonction f fait précisement
partie des inconnues de problème. Par exemple, lorsque f est la solution d’une équation
différentielle ou d’une équation aux dérivées partielles.
Définition 4.3 : Pour h > 0 fixé et pour tout point x0 et toute fonction f , on définit
1. La différence finie avant ou progressive de f au point x0 :

∆f (x0 ) = f (x0 + h) − f (x0 ). (4.1)

18
2. La différence finie arrière ou régressive de f au point x0

∆− f (x0 ) = f (x0 ) − f (x0 − h). (4.2)

3. La différence finie centrée de f au point x0


   
h h
δf (x0 ) = f x0 + − f x0 − . (4.3)
2 2
Remarque 4.1 : On peut facilement itérer ces formules, i.e., définir les différences finies
d’ordre 2, 3, etc.. Par exemple, on pose par définition

∆2 f (x0 ) = ∆(∆f (x0 )).

On a alors
∆2 f (x0 ) = ∆(∆f (x0 )),

= ∆(f (x0 + h) − f (x0 )),

= ∆f (x0 + h) − ∆f (x0 ),

= f (x0 + 2h) − f (x0 + h) − [f (x0 + h) − f (x0 )],

= f (x0 + 2h) − 2f (x0 + h) + f (x0 ).


Exemple 4.1 : Si f est un polynôme de dégré inférieur ou égale à n, i.e., f (x) = Pn (x) =
an xn + . . . + a1 x + a0 , alors

∆n Pn (x0 ) = n!an hn et ∆m Pn (x0 ) = 0, pour tout m > n.

Par exemple, écrivons les différences divisées du polynôme P (x) = x3 .


∆P (x) = (x + h)3 − x3 = 3x2 h + 3xh2 + h3 ,
∆2 P (x) = 3(x + h)2 h + 3(x + h)h2 + h3 − (3x2 h + 3xh2 + h3 ) = 6xh2 + 6h3 ,
∆3 P (x) = 6(x + h)h2 + 6h3 − (6xh2 + 6h3 ) = 6h3 ,
∆4 P (x) = 0.
Définition 4.4 : A partir des différences finies, on peut définir trois approximations de
f 0 (x0 ) :
∆f (x0 ) ∆− f (x0 ) δf (x0 )
f 0 (x0 ) ≈ , ou f 0 (x0 ) ≈ ou f 0 (x0 ) ≈ , (4.4)
h h h
où h est appelé paramétre de dicrétisation.

En calcul scientifique, on ne contente pas d’établir qu’une approximation converge vers


la valeur qu’on cherche, on veut aussi estimer sa vitesse de convergence. En effet, il y a des
approximations qui convergent avec telle lenteur qu’elles sont inuitilisables en pratique.
Pour estimer la vitesse avec laquelle une approximation converge vers f 0 (x0 ), on dispose
d’un excellent outil mathématique, dont on fera un usage constant : la formule de Taylor.

19
Théorème 4.1 : (Théorème de Rolle) : On suppose que f est dérivable en tout point
de l’intervalle [a, b] et que f (a) = f (b). Alors, il existe au moins un point c tel que
a < c < b où f 0 (c) = 0.

Théorème 4.2 : (Théorème des accroissements finis) : On suppose que f est dé-
rivable en tout point de l’intervalle [a, b]. Alors, il existe au moins un point c tel que
a < c < b où on a l’égalité : f (b) − f (a) = (b − a)f 0 (c).

La formule de Taylor est une généralisation directe du théorème des accroissements finis :

Théorème 4.3 (Formule de Taylor d’ordre n) : On suppose que f est n fois dérivable
en tout point de l’intervalle [a, b]. Alors, il existe au moins un point c tel que a < c < b
où on a l’égalité :
(b − a)2 00 (b − a)3 (3)
f (b) = f (a) + (b − a)f 0 (a) + f (a) + f (a) + . . .
2! 3!

(b − a)n−1 (n−1) (b − a)n (n)


+ f (a) + f (c)
(n − 1)! n!
On voit bien que le théorème des accroissements finis coïncide avec la formule de Taylor
à l’ordre n.
On va maintenant untiliser la formule de Taylor pour évaluer l’erreur dans l’approxi-
mation d’une dérivée. On utilise dans la suite la notation de Landau :

Définition 4.5 : On dit qu’une fonction E(h) est un O(hk ) au voisinage de 0 s’il existe
un C > 0 tel que pour h au voisinage de 0 on ait

|E(h)| < C|h|k .


∆f (x0 )
Commençons par l’approximation f 0 (x0 ) ≈ .
h
Proposition 4.1 : Si f est deux fois dérivable et si |f 00 (x)| ≤ M2 pour tout x dans
l’intervalle [x0 , x0 + h], alors
 
 ∆f (x0 ) 0
 h

 h − f (x 0 ) ≤ M2 .
 2 (4.5)

Preuve : Utilisons la formule de Taylor à l’ordre n = 2. On aura alors


   
 ∆f (x0 ) 0
 1 0


 h − f (x 0 ) =  [f (x0 + h) − f (x0 )] − f (x0 ) ,
 h 

h 00
= f (ξ),
2
où le point ξ est situé entre x0 et x0 + h. Alors, on obtient bien
 
 ∆f (x0 ) 0
 h

 h − f (x0 )
 ≤ 2 M2 .

20
2
∆f (x0 ) 0
Cela veut dire que tend vers f (x0 ) avec la même vitesse que h. Donc l’erreur
h
∆f (x0 )
E(h) = − f 0 (x0 ) est un O(h).
h
Bien sûr, si la constante M2 est très grande, il faut que h soit d’autant plus petit pour
que l’erreur soit, elle aussi, petite. En théorie, on peut choisir h aussi petit qu’on veut,
mais en pratique il y a un seuil, dépendant du problème à traiter, en dessous duquel il
∆f (x0 )
n’est pas réaliste de choisir h. Donc, si f 00 a de trop grandes variations n’est pas
0
h
une bonne approximation de f (x0 ).
On aborde là une caractéristique essentielle du calcul numérique. : la précision d’une
approximation dépend non seulement du type de l’approximation elle-même, mais aussi
de la fonction à laquelle on l’applique. En calcul numérique, il n’y a aucune méthode
d’approximation qui puisse être appliqué avec succès dans tous les cas.
Le calcul précédent donnerait la même estimation pour l’approximation de f 0 (x0 ) par
∆− f (x0 ) δf (x0 )
. Etudions maintenant l’approximation de f 0 (x0 ) par . On a le résultat
h h
suivant :

Proposition
 4.2 : Si f est trois dérivable et si |f (3) (x)| ≤ M3 , pour tout x dans l’inter-
h h
valle x0 − , x0 + , alors
2 2
 h2
 
 δf (x0 ) 0

 h − f (x 0 )  ≤ M3 .
 24 (4.6)

Preuve : Avec la formule de Taylor d’ordre n = 2, on a


h2
   
h h h
f x0 + − f x0 − = f (x0 ) + f 0 (x0 ) + f 00 (ξ1 )
2 2 2 8

h2 00
 
h 0
− f (x0 ) − f (x0 ) + f (ξ2 ) ,
2 8

h2 00
= hf 0 (x0 ) + [f (ξ1 ) − f 00 (ξ2 )],
8
h h
où ξ1 est un point compris entre x0 et x0 + et ξ2 est un point compris entre x0 − et
2 2
x0 .
Remarquons que f 00 (ξ1 ) a le même coefficient que f 00 (ξ2 ), mais avec un signe opposé.
Ceci suggère que si nous avions appliqué la formule de Taylor d’ordre n = 3, ces deux
termes se seraient élimilnés. En effet, avec la formule de Taylor d’ordre n = 3, on trouve
h2 00 h3 (3)
 
h h 0
f x0 + = f (x0 ) + f (x0 ) + f (x0 ) + f (ξ3 ),
2 2 8 48

h2 h3
 
h h
f x0 − = f (x0 ) − f 0 (x0 ) + f 00 (x0 ) − f (3) (ξ4 ).
2 2 8 48

21
D’où
h3
   
h h
f x0 + − f x0 − = hf 0 (x0 ) + [f (3) (ξ3 ) + f (3) (ξ4 )],
2 2 48
h h
où ξ3 est un point compris entre x0 et x0 + et ξ4 est un point compris entre x0 − et
2 2
x0 .
Cette fois-ci, les coefficients de f (3) (ξ3 ) et f (3) (ξ4 ) ont le même signe ; donc ces deux
termes ne s’élimineront pas si nous prenons une formule de Taylor d’ordre plus élevé. Pour
conclure, on obtient
 
 δf (x0 ) 0
 1 2 (3) (3)
 h − f (x0 ) = 48 h |f (ξ3 ) + f (ξ4 )|.
 

Ce qui implique la majoration


 
 δf (x0 ) 0  ≤ 1 h2 M3 .


 h − f (x 0 ) 24 (4.7)

δf (x0 )
Ceci veut dire que si la fonction f est trois fois dérivable. tend vers f 0 (x0 ) avec
h
δf (x0 )
la même vitesse que h2 . Donc, l’erreur E(h) = − f 0 (x0 ) est un O(h2 ). Comme h2
h
tend vers zéro beaucoup plus vite que h, on conclut que, lorsque la constante M3 n’est
δf (x0 ) ∆f (x0 )
pas trop grande, est une bien meilleure approximation de f 0 (x0 ) que .
h h
Remarque 4.2 : Nous aurions gagné du temps en appliquant directement la formule de
Taylor d’ordre n = 3, mais on n’a aucun moyen de savoir, avant de faire le calcul, quel
est l’ordre de la formule de Taylor que l’on doit appliquer.

Nous venons de voir que les différences finies fournissent des approximations de la
dérivée première. Ceci sugère d’utiliser les différences finies d’ordre 2 pour approcher la
dérivée seconde.

Définition 4.6 : Pour approcher la dérivée seconde d’une fonction f au point x0 on


utilise les quotients :
∆2 f (x0 ) ∆2− f (x0 ) δ 2 f (x0 )
f 00 (x0 ) ≈ , ou f 00 (x0 ) ≈ ou f 00 (x0 ) ≈ . (4.8)
h2 h2 h2
∆2 f (x0 ) δ 2 f (x0 )
On va faire le calcul d’erreur et , i.e., qu’on va étudier les différences :
 2   2 h2  h2
 ∆ f (x0 ) 00
  δ f (x0 ) 00


 h2 − f (x 0 ) et 
  h2 − f (x 0 ).

Proposition 4.3 :
1. Soit f une fonction trois fois dérivable telle que |f (3) (x)| ≤ M3 pour tout x dans
l’intervalle [x0 , x0 + 2h]. Alors
 2 
 ∆ f (x0 ) 00

 − f (x 0 ) ≤ 2h3 M3 . (4.9)
 h2 

22
2. Soit f une fonction quatre fois dérivable telle que |f (4) (x)| ≤ M4 pour tout x dans
h h
l’intervalle x0 − , x0 + . Alors
2 2
 2 
 δ f (x0 ) 00
 1 2
 h2 − f (x0 ) ≤ 12 h M4 . (4.10)
 

4.2 Interpolation et approximation des fonctions


4.2.1 Position du problème
L’interpolation et l’approximation des fonctions sont des techniques numériques très
utilisées. Le problème est le suivant. Nous avons une fonction y = f (x) dont nous ignorons
la forme analytique mais dont on connait ces valeurs pour un certain nombre de valeurs
discrétes x1 , x2 , . . . , xn , i.e., que nous avons y1 = f (x1 ), y2 = f (x2 ), . . . , yn = f (xn ). Le
problème est de trouver une expression analytique approchée d’une fonction que l’on ne
connait qu’une suite discréte des valeurs de la variable.
Parfois sous certaines considérations complémentaires, il est connu que l’approximation
de la fonction se cherche sous la forme :

f (x) ≈ g(x, a1 , a2 , . . . , an ). (4.11)

Si les paramètres a1 , a2 , . . . , an sont définis à partir des conditions d’après lequelles f (x)
doit coincider avec son approximation g aux points x1 , x2 , . . . , xn appelés nœud d’inter-
polation,
g(xi , a1 , a2 , . . . , an ) = f (xi ), i = 1, 2, . . . , n,
alors une telle méthode d’approximation s’appelle interpolation.
L’expression f (x) ainsi construite pourra permettre de déterminer les valeurs de la
fonction en des points autre que ceux de la suite discrétes x1 , x2 , . . . , xn . Soit y1 le plus
petit de nœud d’interpolation xi , et y2 le plus grand d’entre eux. Si le point x auquel on
calcule la valeur de f (x) se trouve hors du segment [y1 , y2 ], parallèlement au problème
d’interpolation, on parle du problème d’extrapolation ou l’art de lire entre les lignes d’une
table.

4.2.2 Types d’interpolation


La fonction P (x) peut avoir plusieurs formes. Lorsqu’elle est un polynôme on parle
d’interpolation polynomiale, lorsque P (x) est une série trigonométrique finie, on parle
d’interpolation trigonométrique. On peut aussi avoir une interpolation par les fonctions
exponentielles, par les polynômes de Legendre ou par des fonctions de Bessel. Cependant,
en pratique l’on choisit la forme polynomiale. Dans le cas où l’on sait que la fonction est
périodique, il est juditieux d’utiliser l’interpolation trigonométrique. La justification de

23
l’un ou l’autre type d’interpolation repose sur les deux théorèmes présentés par l’allemand
Weistrass en 1885.

Théorème 4.4 : Toute fonction continue dans un intervalle [a, b] peut être représenté
N
an x n .
P
dans cet intervalle pour chaque dégré de précision par un polynôme P (x) =
n=0

Théorème 4.5 : Toute fonction périodique de période 2π peut être représentée par une
N
P
série trigonométrique limitée de la forme P (x) = (an cos nx + bn sin nx).
n=0

Les coefficients an et bn sont déterminés par la connaissance des valeurs discrétes de la


fonction sur l’intervalle [a, b].

4.2.3 Interpolation polynomiale


Un polynôme de dégré n est défini par n + 1 coefficients. Ainsi, un polynôme d’in-
terpolation de dégré n est complètement déterminé par ses n + 1 valeurs discrétes yk . Il
existe plusisurs formules pour déterminer l’interpolation polynômiale.

Formule d’interpolation de Lagrange

Parmis les procédés d’interpolation la plus rencontrée est l’interpolation linéaire, quand
on cherche une approximation sous la forme :
n
X
g(x, a1 , a2 , . . . , an ) = ai ϕi (x), (4.12)
i=1

où ϕi (x) sont des fonctions données et les coefficients ai se déterminent à partir de la


condition d’après laquelle f (x) doit coîncider avec g aux nœuds d’interpolation xj :
n
X
f (xj ) = ai ϕi (xj ), j = 1, 2, . . . , n. (4.13)
i=1

Les fonctions ϕi (x) de la formule (4.13) s’appellent polynômes d’interpolation. La méthode


de résolution du problème dans lequel les coefficients ai se déterminent directement en
resolvant le système (4.13) s’appelle méthode de coefficients indéterminés. Comme il est
de règle, dans la méthode de coefficients indéterminés le nombre des coordonnées est égal
au nombre de paramètres libres (inconnus).
Le polynôme d’interpolation
X n
ai xi−1 , (4.14)
i=1

est le plus étudié. Alors

ϕi (x) = xi−1 , i = 1, 2, . . . , n, (4.15)

24
et le systèmes (4.13) prend la forme

f (xj ) = xi−1
j , i, j = 1, 2, . . . , n. (4.16)

Dans ce qui suit, on suppose que les xj dont deux à deux distincts. Le déterminant
det(xi−1
j ) du système (4.16) coïncide avec le déterminant de Vandermonde, et par consé-
quent est différent de zéro. Mais alors, le système admet une solution unique. Nous avons
ainsi démontré l’existence et l’unicité de l’interpolation polynomiale (4.14).
Soit δij le symbole de Kronecker, i.e.,

 1 si i = j,
δij =
0 si i 6= j.

Le problème d’interpolation aura de solution si on parvient à construire des polynômes


Φi (x) de degré n − 1 tels que

Φi (xj ) = δij , i, j = 1, 2, . . . , n.

Le polynôme
n
X
gn (x) = f (xi )Φi (x) (4.17)
i=1
sera le polynôme d’interpolation cherchée. En effet,
n
X n
X
gn (xj ) = f (xi )Φi (xj ) = f (xi )δij = f (xj ), j = 1, 2, . . . , n.
i=1 i=1

Par ailleurs, gn (x) est un polynôme de degré n − 1.


Puisque Φi (xj ) = 0 lorsque i 6= j, alors Φi (x) est divisible par x − xj , quand i 6= j.
Ainsi, nous connaissons n − 1 diviseurs du polynôme de degré n − 1, et c’est ainsi que
n
Y
Φi (x) = k (x − xj ),
j6=i

où k est une constante à déterminer. Il découle de la condition Φi (xi ) = 1 que


1
k= Q
n .
(xi − xj )
j6=i

De là, on déduit que


n
Y x − xi
Φi (x) = .
x i − xj
j6=i

Le polynôme d’interpolation (4.14), écrit sous la forme :


n Y n
X x − xi
y = gn (x) = . (4.18)
i=1 j6=i
x i − x j

s’appelle polynôme d’interpolation de Lagrange.

25
Exemple 4.2 : Les résultats d’une expérience sont donnés par le tableau suivant :

x 1 2 4 6
y 10 5 2 1

1. De ce tableau, utiliser la formule d’interpolation linéaire pour déterminer la valeur de


y pour x = 3.
2. Utiliser aussi la formule d’interpolation linéaire pour déterminer la valeur de x pour
y = 1.5.
Solution : D’après la formule d’interpolation linéaire (4.18), on a
x − x2 x − x1
y = y1 + y2 .
x1 − x2 x2 − x1
1. Puisque 2 < 3 < 4, on prend x1 = 2 et x2 = 4. On obtient
3−4 3−2
y = 5 +2 ,
2−4 4−2
7
= = 3.5.
2
2. Pour y = 1.5, on a 1 < 1.5 < 2 et on prend y1 = 1 et y2 = 2. Dans ce cas x1 = 6 et
x2 = 4. On obtient alors
x−4 x−6
1.5 = +2 ,
6−4 4−6
x−4
= − (x − 6).
2
La résolution de l’équation ci-dessus donne x = 5.

Remarque 4.3 : L’unicité du polynôme d’interpolation d’ordre k implique en particulier


que si la fonction f est elle-même un polynôme de dégré inférieur ou égale à k, elle coïncide
avec son polynôme d’interpolation d’ordre k, quels que soient les points x1 , x2 , . . . , xn , xn+1 .
Connaissant l’expression de f (x), on peut évaluer toute valeur yp correspondant à une
variable x = xp comprise en dehors des points xk (extrapolation).

Exemple 4.3 : Former le polynôme de Lagrange vérifiant le tableau ci-dessous :

x 1 2 3 4
y 2 3 4 5

D’après la formule d’interpolation de Lagrange (4.18), on a

4 x−x 4 4 4
Q j
Y x − xj Y x − xj Y x − xj
gn = 2 +3 +4 +5 .
j6=1 1 − xj j6=2
2 − xj j6=1
3 − xj j6=1
4 − xj

26
Il vient que

(x − 2)(x − 3)(x − 4 (x − 1)(x − 3)(x − 4) (x − 1)(x − 2)(x − 4)


gn = 2 +3 +4
(1 − 2)(1 − 3)(1 − 4) (2 − 1)(2 − 3)(2 − 4) (3 − 1)(3 − 2)(3 − 4

(x − 1)(x − 2)(x − 3)
+ 5 ,
(4 − 1)(4 − 2)(4 − 3

1 3
= − (x − 2)(x − 3)(x − 4) + (x − 1)(x − 3)(x − 4) − 2(x − 1)(x − 2)(x − 4)
3 2
5
+ (x − 1)(x − 2)(x − 3),
6

= x + 1.

Nous allons à présent présenter un algorithme qui permet d’évaluer l’ordonnée d’un point.

Algorithme de calcul de yp sachant xp

1. Lire x1 , x2 , . . . , xn : la suite discréte des valeurs de la variable.


2. Lire y1 , y2 , . . . , yn : la suite discréte des valeurs de la fonction.
3. Lire xp la valeur correspondante à yp
4. yp ←− 0
5. Pour i allant de 1 jusqu’à n
faire
y ←− 1
Pour j allant de 1 jusqu’à n
faire
si j 6= i
y ←− y × (xp − xi )/(xi − xj )
fin pour
yp ←− yp + yi y
fin pour
6. Ecrire xp et yp

4.2.4 Interpolation de Newton

Différences divisées

La notion de la différence divisée généralise la notion de dérivée. La différence divisée


d’ordre zéro coincide avec les valeurs de la fonction f (xi ).

27
Définition 4.7 :
1. La différence divisée des variables xi et xj correspondant aux valeurs yi et yj est la
quantité
yj − yi
δ(xi , xj ) = . (4.19)
xj − x i
2. La différence divisée seconde est définie pour les trois variables xi , xj et xk par

δ(xj , xk ) − δ(xi , xj )
δ(xi , xj , xk ) = . (4.20)
xk − xi

3. La différence divisée d’ordre n aux n + 1 points x1 , x2 , . . . , xn est définie par

δ(x1 , x2 , . . . , xn−1 ) − δ(x1 , x2 , . . . , xn−2 , xn )


δ(x1 , x2 , . . . , xn ) = . (4.21)
xn−1 − xn

Lemme 4.1 : La formule suivante est vérifiée


k
X δ(xj )
δ(x1 , x2 , . . . , xn , xn+1 ) = Q . (4.22)
j=1
(xj − xi )
i6=j

Preuve : Nous démontrons la formule (4.22) par recurrence. Pour k = 1 donne f (x1 ) =
f (x1 ) et pour k = 2, on a
2
δ(x2 ) − δ(x1 ) δ(x1 ) X δ(xj )
δ(x1 , x2 ) = = + δ(x2 )x2 − x1 = Q ,
x2 − x1 x1 − x2 j=1
(x j − x i )
i6=j

et la formule (4.22) est vraie. Supposons (4.22) vraie pour k ≤ l. Alors

δ(x2 , . . . , xl+1 ) − f (x1 , . . . , xl )


δ(x1 , x2 , . . . , xl+1 ) = ,
xl+1 − x1
 
l+1 l
1 X δ(xj ) X δ(xj )
= −
Q Q 
xl+1 − x1 j=2 (xj − xi ) j=1 (xj − xi )
 
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1

Si j 6= 1, l + 1, alors le coefficient de δ(xj ) à droite de la dernière égalité est


 
l+1 l
1 X δ(xj ) X δ(xj ) (xj − xi ) − (xj − xl+1 )
−  = ,
Q Q  Q
xl+1 − x1 j=2 (xj − xi ) j=1 (xj − xi ) (xl+1 − x1 ) (xl+1 − x1

i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1 i6=j, 1≤i≤l+1

1
= Q ,
(xj − xi )
i6=j, 1≤i≤l+1

28
i.e., a la forme cherchée , si par contre j = 1 ou j = l + 1, alors la valeur δ(xj ) figure dans
un seul terme à droite de l’égalité et sont coefficients a la forme que nous cherchons : pour
δ(x1 ) on a
1 1 1
Q = Q .
xl+1 − xl (xl+1 − xi (xl+1 − xi
i6=l+1, 2≤i≤l+1 i6=l+1, 1≤i≤l+1

On obtient alors
 
l+1 l
1 X δ(xj ) X δ(xj )
δ(x1 , x2 , . . . , xl+1 ) = − ,
 Q Q 
xl+1 − x1 j=2 (xj − xi ) (xj − xi )

j=1
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1


l l
1 X δ(xj ) X δ(xj )
= Q − Q
xl+1 − x1 j=2 (xj − xi ) j=2 (xj − xi )

i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1


δ(x ) δ(x1 )
+ Q l+1 − Q ,

(xj − xi ) (xj − xi )
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1

δ(xj ) δ(x1 ) δ(x )


= Q + Q + Q l+1 ,
(xj − xi ) (xj − xi ) (xj − xi )
i6=j, 2≤i≤l+1 i6=j, 1≤i≤l+1 i6=j, 1≤i≤l+1

l+1
P δ(xj )
= Q .
j=1 (xj − xi )
i6=j

Le lemme est ainsi demontré.


2
Les conséquences suivantes découlent directement de la formule (4.22).

Corollaire 4.1 : Pour des valeurs fixées x1 , x2 , . . . , xn la différence divisée est une fonc-
tionnelle linéaire par rapport à f :

(αf1 + βf2 )(x1 , x2 , . . . , xn ) = αf1 (x1 , x2 , . . . , xn ) + βf2 (x1 , x2 , . . . , xn ). (4.23)

Corollaire 4.2 : La différence divisée est une fonction symmétrique de ses arguments
x1 , x2 , . . . , xn (i.e., ne change pas pour toute permutation).

Le polynôme d’interpolation de Newton d’ordre n de la fonction f associé aux n + 1


points x1 , x2 , . . . , xn , xn+1 se met sous la forme

f (x) = y1 + δ(x1 , x2 )(x − x1 ) + δ(x1 , x2 , x3 )(x − x1 )(x − x2 ) + . . .


(4.24)
+ δ(x1 , x2 , . . . , xn+1 )(x − x1 )(x − x2 )...(x − xn+1 ).

29
Si la fonction f est donnée aux nœuds d’interpolation x1 , x2 , . . . , xn alors le tableau des
différences divisées est donné par

δ(x1 )
δ(x1 , x2 )
δ(x2 ) δ(x1 , x2 , x3 )
δ(x2 , x3 ) ↓
δ(x3 ) ↓ ↓
↓ ↓ ↓ δ(x1 , x2 , . . . , xn )
↓ ↓ ↓
↓ ↓ ↓
↓ δ(xn−1 , xn )
δ(xn )

Exemple 4.4 : Soit donné le tableau

x 1 2 3 4 5 6 7
f (x) 3 7 13 21 31 43 57

1. Construire le tableau des différences divisées correspondant à la fonction f (x).


2. Déterminer le polynôme d’interpolation de Newton avec différences divisées.
3. En déduire une valeur approchée de f (3.1).

Solution : 1.

f (2) − f (1) f (3) − f (2) f (4) − f (3)


δ(1, 2) = = 1, δ(2, 3) = = 6, δ(3, 4) = = 8,
2−1 3−2 4−3

f (5) − f (4) f (6) − f (5) f (7) − f (6)


δ(4, 5) = = 10, δ(5, 6) = = 12, δ(6, 7) = = 14,
5−4 6−5 7−6

δ(2, 3) − δ(1, 2) 6−4 δ(3, 4) − δ(2, 3) 8−6


δ(1, 2, 3) = = = 1, δ(2, 3, 4) = = = 1,
3−1 2 4−2 2

δ(4, 5) − δ(3, 4) 10 − 8 δ(5, 6) − δ(4, 5) 12 − 10


δ(3, 4, 5) = = = 1, δ(4, 5, 6) = = = 1,
5−3 2 6−4 2

δ(6, 7) − δ(5, 6) 14 − 12 δ(2, 3, 4) − δ(1, 2, 3) 1−1


δ(5, 6, 7) = = = 1, δ(1, 2, 3, 4) = = = 0,
7−5 2 4−1 3

δ(3, 4, 5) − δ(2, 3, 4)
δ(2, 3, 4, 5) = = 0, δ(3, 4, 5, 6) = 0, δ(4, 5, 6, 7) = 0,
5−2

δ(1, 2, 3, 4, 5) = 0, δ(2, 3, 4, 5, 6) = 0, δ(3, 4, 5, 6, 7) = 0,

δ(1, 2, 3, 4, 5, 6) = 0, δ(2, 3, 4, 5, 6, 7) = 0, δ(1, 2, 3, 4, 5, 6, 7) = 0.

30
D’où le tableau de différences divisées
3
4
7 1
6 0
13 1 0
8 0 0
21 1 0 0
10 0 0
31 1 0
12 0
43 1
14
57

2. Utilisons à présent le tableau ci-dessus et la formule (4.24) pour trouver le polynôme


d’interpolation de Newton. On a

f (x) = δ(1) + δ(1, 2)(x − 1) + δ(1, 2, 3)(x − 1)(x − 2) + δ(1, 2, 3, 4)(x − 1)(x − 2)(x − 3)

+ δ(1, 2, 3, 4, 5)(x − 1)(x − 2)(x − 3)(x − 4) + δ(1, 2, 3, 4, 5, 6)(x − 1)(x − 2)(x − 3)(x − 4)(x − 5)

+ δ(1, 2, 3, 4, 5, 6, 7)(x − 1)(x − 2)(x − 3)(x − 4)(x − 5)(x − 6),

= 3 + 4(x − 1) + (x − 1)(x − 2),

= x2 + x + 1.

3. La valeur approchée de f (3.1) = (3.1)2 + 3.1 + 1 = 13.71.


2

Par les différences progressive et regressive

Soient y1 , y2 , . . . les valeurs d’une fonction y = f (x) correspondantes aux valeurs équi-
distantes des arguments x1 , x2 , . . . (i.e., xk+1 − xk = h où le nombre h s’appelle pas
d’interpolation).

Définition 4.8 :
1. La différence progressive est la quantité

∆yk = yk+1 − yk , (4.25)

2. La différence seconde progressive est définie par

∆2 yk = ∆yk+1 − ∆yk = yk+2 − yk+1 − (yk+1 − yk ) = yk+2 − 2yk+1 + yk . (4.26)

31
3. La différence progessive d’ordre α est définie par

∆α yk = ∆α−1 yk+1 − ∆α−1 yk . (4.27)

Remarque 4.4 : En faisant la substitution successive, on obtient

∆3 yk = ∆2 yk+1 − ∆2 yk = yk+3 − 3yk+2 + 3yk+1 − yk .

Lorsqu’on a xk+1 = xk + h = x1 + kh, la formule de différence divisée se réduit à

∆y1 ∆2 y1
f (x) = y1 + (x − x1 ) + (x − x1 )(x − x2 ) + . . .
h 2!h2
(4.28)
∆n+1 y1
+ (x − x1 )(x − x2 )...(x − xn+1 ).
(n + 1)!hn+1

C’est la formule de Newton-Gregory progressive. Les coefficients ∆k y1 se calculent selon


le schéma des différences finies (4.27), que l’on peut représenter par le tableau

Exemple 4.5 : En partant des données du tableau ci-dessous

x 1 2 3 4 5 6 7
y 3 7 13 21 31 43 57

Trouver la valeur de y pour x = 3.1 à l’aide de la formule d’interpolation de Newton.


On forme la tableau des différences progressives

x y ∆y ∆2 y ∆3 y
1 3 4 2 0
2 7 6 2 0
3 13 8 2 0
4 21 10 2 0
5 31 12 2 0
6 43 14
7 57

Ici x1 = 1, y1 = 3 et h = 1. Le polynôme d’interpolation de Newton correspondant au cas


donné est
∆y1 ∆2 y1 (x − 1)(x − 2)
y = y1 + (x − x1 ) + 2
(x − x1 )(x − x2 ) = 3 + 4(x − 1) + 2 = x2 + x + 1.
h 2!h 2
Ainsi, pour x = 3.1, on a y = 3.12 + 3.1 + 1 = 13.71.

Définition 4.9 1. La différence regressive d’ordre 1 est définie par

∇yk = yk − yk−1 . (4.29)

32
2. La différence regressive d’ordre 2 est la quantité

∇2 yk = ∇yk − ∇yk−1 = yk − yk−1 − (yk−1 − yk−2 ) = yk − 2yk−1 + yk−2 . (4.30)

3. On définit la différence regressive d’ordre α de la manière suivante

∇α yk = ∇α−1 yk − ∇α−1 yk−1 . (4.31)

Lorsqu’on a xk+1 = xk − h = x1 − kh, on a la formule de Newton-Gregory regressive


suivante :
∇y1 ∇2 y1
f (x) = y1 + (x − x1 ) + (x − x1 )(x − x2 ) + . . .
h 2!h2
(4.32)
∇n+1 y1
+ (x − x1 )(x − x2 )...(x − xn+1 ).
((n + 1)!hn+1

33
4.3 Exercices
Exercice 4.1 : Trouvez les schémas de différences finies centrées, en avant et en arrière
pour les dérivées seconde et troisième.

Exercice 4.2 : Lors du titrage d’acide par une base, on mesure le pH en fonction du
volume V de base rajoutée. Les mesures sont résumées dans le tableau ci-dessous :

V(mL) 0 10 20 22 24 24.25 24.5 24.8 24.9 25 25.1 25.2 25.3


pH 2.87 4.57 5.35 5.61 6.12 6.25 6.43 6.84 7.14 8.70 10.60 10.90 11.07

On estime le volume équivalent de base comme étant le point où la dérivée pH 0 (V ) passe


par un maximum. Calculer cette dérivée en chaque point de la courbe afin d’estimer ce
maximum.

Exercice 4.3 : Soient des résultats expériementaux présentés sous la forme d’un tableau
de correspondance :

t(min) 1 5 10 15 17 20 30 40
C(t)(mg/L) 24.50 10.30 8.50 7.8 7.70 7.45 7.30 7.25

Estimer C(7) par interpolation parabolique.

Exercice 4.4 : Former le polynôme de Lagrange correspondant au tableau suivant :

x 1 2 3 4
f(x) 2 3 7 8

Exercice 4.5 : Trouver l’équation de la parabole qui passe par les points (2, 0), (4, 3),
(6, 5), (8, 4), (10, 1).

Exercice 4.6 : Trouver le polynôme prenant les valeurs données correspondantes aux
valeurs données des arguments : (0, 3), (2, 1), (3, 5), (4, 7).

Exercice 4.7 : Soit donné la tableau


x 2 2.1 2.2 2.3 2.4 2.5
ln x 0.30103 0.32222 0.34242 0.36173 0.38021 0.39794

Trouver à l’aide de la formule d’interpolation de Newton ln 2.03.

Exercice 4.8 : Former le polynôme d’interpolation de Newton de la fonction f (x) tabu-


lairement par
x 0 1 2 3 4
y 1 4 15 40 85

34
Exercice 4.9 : Former le polynôme qui prend les valeurs figurant au tableau ci-dessus :

x 1 3 4 6
y -7 5 8 14

Exercice 4.10 : En partant des données du tableau ci-dessous

x 1 2 3 4 5 6 7
y 3 7 13 21 31 43 57

Trouver la valeur de y pour x = 3.1 à l’aide de la formule d’interpolation de Newton.

Exercice 4.11 : Comparez, en terme de nombdre d’opérations élémentaires, l’approxi-


mation de Lagrange et la méthode des différences divisées de Newton.

35
Chapitre 5

Approximation numérique des


intégrales

5.1 Généralités
5.1.1 Rappels
Soit f une fonction définie sur un intervalle [a, b]. Pour introduire la notion d’intégrale
de f sur [a, b], on se donne n ∈ N et on divise [a, b] en n sous-intervalles [ak , ak+1 ] pour
k = 0, 1, . . . , n − 1 où a = a0 < a1 < a2 < . . . < an−1 < an = b. Puis, dans chaque
sous-intervalle, on choisit un point ζ1 ∈ [a0 , a1 ], ζ2 ∈ [a1 , a2 ], . . . , ζn ∈ [a, b] et on calcule la
somme
S(f ) = f (ζ1 )(a1 − a0 ) + f (ζ2 )(a2 − a1 ) + . . . + f (ζn )(an − an−1 ).
Evidemment, cette somme dépend du choix de n, des points de la subdivision de [a, b],
a1 , a2 , . . . , an−1 et des points ζ1 , ζ2 , . . . , ζn .

Définition 5.1 : On dit que f est intégrable au sens de Riemann sur [a, b] si la somme
S(f ) tend vers une limite unique quand n tend vers l’infini, quel que soit le choix des
points de subdivisions a1 , a2 , . . . , an−1 et des points ζ1 , ζ2 , . . . , ζn et pourvu que la longueur
de chaque sous-intervalle [ak , ak+1 ] tende vers zéro quand n tend vers infini. La limite de
S(f ) s’appelle l’intégrale de Riemann de f sur [a, b] et se note
Z b
I= f (x)dx. (5.1)
a

On dit que x est la variable d’intégration et que [a, b] est l’intervalle d’intégration.
En particulier, on rappelle que les fonctions continues sont intégrables. Dans toute la
suite, on supposera que f est continue sur [a, b] donc intégrable sur cet intervalle.

5.1.2 Position du problème


L’intégrale (5.1) représente un nombre qui dans certains cas favorables peut être calculé
analytiquement. En effet, on connaît des formules qui permettent de calculer l’intégrale

36
(5.1) de certaines fonctions. Mais, contrairement à ce qui se passe pour le calcul des
dérivées, il y a relativement peu de fonctions dont on sait calculer l’intégrale. Il suffit
même de changer légèrement l’expression d’une fonction pour passer d’une fonction que
l’on sait intégrer à une fonction qu’on ne sait pas intégrer. Par exemple, on sait que
Z b
sin xdx = cos a − cos b,
a

mais on ne sait pas calculer


Z b Z b
sin x
dx ou sin(x2 )dx.
a x a

sin x
Or la fonction est intégrable sur tout intervalle [a, b] puisqu’elle est continue sur R.
x
Il en est de même pour la fonction sin(x2 ). A défaut de pourvoir calculer ces intégrales,
on doit savoir les approcher.
Mais, même s’il s’agit d’intégrales qu’on sait calculer, leur calcul peut être long et
compliqué et il peut être avantageux de le remplacer par un calcul approché.
Enfin, il y a un autre cas où il est indispensable d’approcher une intégrale : c’est
lorsque l’expression de la fonction à intégrer n’est pas connue. Il se peut que la fonction
ne soit connue qu’en un certain nombre de points : ses valeurs peuvent venir d’un autre
calcul ou de mesures ponctuelles. Mais le cas le plus fréquent est celui où la fonction à
intégrer fait partie des inconnues, par exemple lorsque c’est la solution d’une équation
différentielle.
Dans ce chapitre, on va étudier des approximations de l’intégrale de Riemann d’une
fonction à l’aide de formules de quadrature. La fonction f supposée continue sur [a, b] est
remplacée par une formule d’interpolation. Généralement, la fonction f est approximée
par un polynôme et les formules d’intégration qui s’en déduisent sont dites formules de
Newton-Cotes. Ces formules supposent que les nœuds d’interpolation sont équidistants.

5.2 Méthode des rectangles

5.2.1 Principe de la méthode


Soit à calculer l’intégrale d’une fonction f sur un intervalle [a, b]. La méthode des
rectangles consiste à remplacer la courbe de f par une droite parallèle à l’axe des abscisses
d’équation y = f (a) et à calculer l’aire de chaque rectangle, ensuite de faire la somme des
aires sur l’intervalle sur lequel la fonction est à intégrer.

5.2.2 Calcul de l’intégrale

37
Pour deux points

Sur [a, b], on approxime la fonction f par une constante, i.e., par une droite parallèle
à l’axe des abscisses et passant par les deux points a et b. La surface sous cette droite
est alors un rectangle de bases h et f (a) et donc d’aire (b − a)f (a). Ainsi, en prenant
b = a + h, on a Z b
f (x)dx ≈ hf (a). (5.2)
a

Remarque 5.1 : L’estimation de l’erreur est


Z b
 h2


eR = 
 f (x)dx − hf (a)
 ≤ 2 M1 . (5.3)
a

où M1 = sup |f 0 (x)|.
x∈[a,b]

Pour (n + 1) points régulièrement repartis

On divise l’intervalle d’intégration [a, b] en n sous-intervalles égaux [xk−1 , xk ] de lon-


b−a
gueur h = , tels que x0 = a, x1 = a + h, x2 = a + 2h, . . . , xn−1 = a + (n − 1)h, xn =
n
b = a + nh. On a
Rb Rx Rx R xn
a
f (x)dx = x01 f (x)dx + x12 f (x)dx + . . . + xn−1 f (x)dx,

n R
P xk
= xk−1
f (x)dx.
k=1

En appliquant la formule des rectangles (5.2) ci-dessus à chacun de ces sous-intervalles


[xk−1 , xk ], on a R xk
xk−1
f (x)dx ≈ (xk − xk−1 )f (xk−1 ),

≈ hf (xk−1 ).

38
En sommant l’intégrale ci-dessus, on obtient finalement la formule des rectangles
Z b n−1
!
X
f (x)dx ≈ h f (a) + f (xk ) . (5.4)
a k=1

La formule d’erreur va nous donner sa vitesse de convergence. pour cela, on suppose que
f est de classe C 1 sur [a, b]. On pose

M1 = sup |f 0 (x)|.
x∈[a,b]

Alors, en appliquant la formule d’erreur (??) à chaque sous-intervalle et en sommant, on


trouve Z 
 b n−1
X  1
f (x)dx − hf (a) − h f (xk ) ≤ h2 nM1 .
 
 2

 a
k=1

Mais comme nh = b − a, on obtient finalement,


Z 
 b n−1
X  1
ER =  f (x)dx − hf (a) − h f (xk ) ≤ (b − a)hM1 . (5.5)
 
 a  2
k=1

Ceci montre que l’erreur est un O(h), i.e., qu’elle tend vers zèro à la même vitesse que
h. Si l’intervalle d’intégration n’est pas trop grand et si la constante M1 n’est pas trop
grande non plus, la méthode des rectangles est une bonne approximation de l’intégrale.
R2√
Exemple 5.1 : Calculer I = 1 xdx par la formule des rectangles, en décomposant
l’intervalle d’intégration en 10 parties. Evaluer l’erreur commise.
√ 2−1
Ici f (x) = x. Pour n = 10, on a h = = 0.1. Les valeurs successives de x
10
seront : x0 = 1, x1 = x0 + h = 1.1, x2 = 1.2, x3 = 1.3, x4 = 1.4, x5 = 1.5, x6 = 1.6,
x7 = 1.7, x8 = 1.8 et x9 = 1.9. On aura alors
R2√
I = 1 xdx,

= 0.1[f (1) + f (1.1) + f (1.2) + f (1.3) + f (1.4) + f (1.5) + f (1.6) + f (1.7) + f (1.8) + f (1.9)],

= 0.1[1 + 1.049 + 1.095 + 1.140 + 1.183 + 1.225 + 1.265 + 1.304 + 1.342 + 1.378],

= 1.20.
1
Evaluons l’erreur. Dans notre cas, f 0 (x) = √ sur le segment [1, 2] atteint sa valeur
2 x
1
maximale égale à 0.5 lorsque x = 1. De cette façon, |f 0 (x)| ≤ M1 = . D’où en appliquant
2
la formule on trouve
0.1 1
ER ≤ .1. = 0.025.
2 2
Par conséquent,
I ≈ 1.20 ± 0.025.

39
Algorithme de la formule du rectangle

1. Lire a, b les bornes de l’intervalle.


2. Lire n, le nombre de sous-intervalles.
b−a
3. h ←− , le pas de la subdivision.
n
4. x ←− a.
5. I ←− f (a)
6. Pour k variant de 1 à n − 1 faire
∗ x ←− x + h
∗ I ←− I + f (x)
7. I ←− I × h
8. Afficher I
9. fin pour

5.3 Formule du point millieu


Pour deux points
On suppose que f ≈constante sur le segment [a, b]. Alors
Z b
f (x)dx = (b − a)f (c),
a

où c est un point arbitraire de [a, b]. Si en qualité du point c, on prend le point moyen du
a+b
segment [a, b] , i.e., c = , on obtient
2
Z b  
a+b
f (x)dx ≈ (b − a)f .
a 2
En prenant b = a + h, on obtient la formule du point milieu :
Z b      
2a + h h h
f (x)dx ≈ hf = hf a + = hf b − . (5.6)
a 2 2 2

Estimons à présent l’erreur . On suppose que f est de classe C 2 . On pose

M2 = sup |f 00 (x)|.
x∈[a,b]

L’estimation de l’erreur est


Z b   2
a+b 
 ≤ h M2 , M2 = sup |f 00 (x)|.

 f (x)dx − hf (5.7)

a 2  24
x∈[a,b]

Pour (n + 1) régulièrement repartis

40
Supposons maintenant que l’intervalle d’intégration [a, b] est de grande amplitude.
b−a
Soit h > 0 donné et n = . On divise l’intervalle [a, b] en n sous-intervalles égaux
h
[xk−1 , xk ] avec x0 = a, x1 = a + h, x2 = a + 2h, . . . , xn−1 = a + (n − 1)h, xn = b = a + nh.
En appliquant la formule (5.6) ci-dessus à chacun de ces sous-intervalles et en sommant,
on trouve la formule du point milieu :
Z b n   "   X n−1  #
X h h h
f (x)dx ≈ h f xk−1 + =h f a+ + f xk + . (5.8)
a k=1
2 2 k=1
2

Pour estimer l’erreur de cette formule, on suppose que f est de classe C 2 et on pose

M2 = sup |f 00 (x)|.
x∈[a,b]

Alors, en appliquant la formule(??) dans chaque sous-intervalle et en sommant, on trouve


Z 
 b n 
X h  1
f (x)dx − h f xk−1 +  ≤ h3 nM2 .
 
2  24

 a
k=1

Puis, en tenant compte du fait que nh = b − a, ceci donne


Z 
 b n 
X 1  1
f (x)dx − h f xk−1 +  ≤ (b − a)h2 M2 . (5.9)
 
2  24

 a
k=1

Remarque 5.2 : L’erreur de la formule du point milieu est un O(h2 ), i.e., qu’elle tend
vers zèro à la même vitesse que h2 . Si l’intervalle d’intégration n’est pas trop grand et
si la constante M2 n’est pas trop grande, l’erreur de la formule du point milieu est donc
meilleure que l’erreur de la formule des rectangle.
R2√
Exemple 5.2 : Calculer par la formule du point milieu, l’intégrale 1 xdx en divisant
l’intervalle d’intégration en 10 parties égales, puis évaluer l’erreur.
b−a √
Ici h = = 0.1 et f (x) = x. On a x0 = 1, xk = x0 + kh = 1 + 0.1k et
10

Algorithme de la formule du point millieu

1. Lire a, b les bornes de l’intervalle.


2. Lire n, le nombre de sous-intervalles.
b−a
3. h ←− , le pas de la subdivision.
n
h
4. x ←− a +
 2 
h
5. I ←− f a +
2

41
6. Pour k variant de 1 à n − 1 faire
∗ x ←− x + h
∗ I ←− I + f (x)
7. I ←− I × h
8. Afficher I
9. fin pour

5.4 Méthode de trapèzes

5.4.1 Principe de la méthode


Soit à calculer l’intégrale d’une fonction f sur un intervalle [a, b]. La méthode de
trapèze consiste à remplacer la courbe de f par une ligne brisée et à calculer l’aire de
chaque trapèze, ensuite de faire la somme des aires sur l’intervalle sur lequel la fonction
est à intégrer.

5.4.2 Calcul de l’intégrale


L’intervalle [a, b] est de petite amplitude

L’amplitude de l’intervalle [a, b] étant petite, la fonction f est mesurée expériementa-


lement en deux points a et b. Ainsi, sur l’intervalle [a, b], on approxime la fonction f par
une droite passant par les points (a, f (a)) et (b, f (b)). La droite a pour équation

f (b) − f (a)
y = f (a) + (x − a) .
b−a
Dans ce cas, sur [a, b] on a

f (b) − f (a)
f (x) ≈ g(x) = f (a) + (x − a) .
b−a
Ainsi Rb Rb
a
f (x)dx ≈ a
g(x)dx,
 
Rb f (b) − f (a)
= a
f (a) + (x − a) dx,
b−a

(b − a)2
 
f (b) − f (a)
= (b − a)f (a) + ,
2 b−a

b−a
= [f (a) + f (b)].
2

42
En prenant b = a + h, on a
Z b
h
f (x)dx ≈ [f (a) + f (b)]. (5.10)
a 2

Calcul de l’erreur

On suppose que la fonction f est C 2 et que |f 00 (x)| ≤ M2 ∀x ∈ [a, b]. On montre que
Rb Rb
l’erreur commise en prenant a f (x)dx = a g(x)dx est

M2
eT = (b − a). (5.11)
12

L’intervalle [a, b] est de grande amplitude

La fonction f est mesurée expérimentalement en (n + 1) points régulièrement répar-


tis a = x0 , x1 , . . . , xk , . . . , xn = b définis par xk = a + kh avec k = 1, 2, . . . , n − 1.
Ainsi, Lorsque la longueur de l’intervalle n’est pas courte, on divise l’intervale [a, b] en n
b−a
intervalles [xk−1 , xk ] de même amplitude h = .
n
Chacun des intervalles [xk−1 , xk ] étant de petites amplitudes, on a
R xk xk − xk−1
xk−1
f (x)dx ≈ [f (xk ) + f (xk−1 )],
2
h
≈ [f (xk ) + f (xk−1 )].
2

43
Ainsi n R
Rb P xk
a
f (x)dx ≈ xk−1
f (x)dx,
k=1

Pn h
≈ [f (xk ) + f (xk−1 )],
k=1 2

h
≈ [f (x0 ) + f (x1 ) + f (x3 ) + . . . + f (xn−1 ) + f (xn ))],
2
n
!
h X
≈ f (x0 ) + 2 f (xk ) + f (xn ) .
2 k=1
D’où !
Z b n
h X
f (x)dx ≈ f (a) + f (b) + 2 f (xk ) , (5.12)
a 2 k=1
b−a
avec h = .
n

Calcul de l’erreur

On divise l’intervalle [a, b] en n intervalles a = x0 , x2 , . . . , xk , . . . , xn = b de même


b−a
amplitude h = définis par xk = a + kh avec k = 1, 2, . . . , n − 1. Sur chaque
n
intervalle [xk−1 , xk ], on a Z xk Z xk
f (x)dx ≈ gk (x)dx,
xk−1 xk−1

f (xk ) − f (xk−1 )
gk (x) = f (xk ) + (x − xk ) ,
xk − xk−1
est la droite passant par (xk−1 , f (xk−1 ) et (xk , f (xk )). On a alors
R   n 
 b Rb  P R xk R xk 
 a f (x)dx − a gk (x)dx =  f (x)dx − g (x)dx ,

 xk−1 xk−1 k 
k=1

n R 
P  xk R xk
≤  xk−1 f (x)dx − xk−1 gk (x)dx ,

k=1

n R
P xk
≤ xk−1
|f (x) − gk (x)|dx,
k=1

n M
2
(xk − xk−1 )3 ,
P

k=1 12
 3
Pn nM
2 b−a
≤ ,
k=1 12 n

M2
≤ (b − a)3 .
12n2
44
Rb Rb
D’où l’erreur commise en prenant a
f (x)dx = a
g(x)dx est

M2 M2 2
ET = 2
(b − a)3 = h (b − a). (5.13)
12n 12
R2
Exemple 5.3 : Calculer l’intégrale I = 1 xdx avec h = 0.2 et h = 0.1.
Pour h = 0.2, on a
R2
I = 1 xdx,

0.2
= [f (1) + 2f (1.2) + 2f (1.4) + 2f (1.6) + 2f (1.8) + f (2)],
2

= 0.1[1 + 2.4 + 2.8 + 3.2 + 3.6 + 2],

= 1.5.

Pour h = 0.1, on a
R2
I = 1 xdx,

0.1
= [f (1) + 2f (1.1) + 2f (1.2) + 2f (1.3) + 2f (1.4) + 2f (1.5) + 2f (1.6) + 2f (1.7)
2

+ 2f (1.8) + 2f (1.9) + f (2)],

= 0.05[1 + 2.2 + 2.4 + 2.6 + 2.8 + 3 + 3.2 + 3.4 + 3.6 + 3.8 + 2],

= 1.5.

Algorithme de la formule composite du trapèze

1. Lire a, b les bornes de l’intervalle


2. Lire n, le nombre de sous-intervalles
b−a
3. h ←− , le pas de la subdivision
n
f (a) + f (b)
4. I ←−
2
5. x ←− a
6. Pour k allant de 1 à n − 1 faire
∗ x ←− x + h
∗ I ←− I + f (x)
7. I ←− I × h
8. Afficher I
9. fin pour

45
On peut aussi avoir
1. Lire a, b les bornes de l’intervalle
2. Lire n, le nombre de sous-intervalles
b−a
3. h ←− , le pas de la subdivision
n
4. S ←− 0
5. x ←− a
6. Pour k allant de 1 à n − 1 faire
∗ x ←− x + kh
∗ S ←− S + 2f (x)
7. fin pour
8. S ←− S + f (a) + f (b)
h
9. I ←− S
2
10. Afficher I

5.5 Méthode de Simpson


5.5.1 Principe de la méthode
Soit à calculer l’intégrale d’une fonction f sur un intervalle [a, b]. La méthode de
Simpson consiste à remplacer la courbe de f par un polynôme de dégré 2 passant par
a+b
les points (a, f (a)), (b, f (b)) et (c, f (c)) avec c = . Lorsque [a, b] est grand, une
2
subdivision de ce dernier est nécessaire et l’approximation de f se fera alors sur chaque
intervalle de la subdivision.

5.5.2 Calcul de l’intégrale


Cas où l’intervalle [a, b] est de petite amplitude

L’intervalle [a, b] étant de courte amplitude, la fonction f est mesurée expérientalement


en trois points régulièrement répartis. C’est pourquoi, on approxime la fonction f par un
a+b
polynôme de dégré 2, g passant par les points (a, f (a)), (b, f (b)) et (c, f (c)) avec c = .
2
a2
On cherche g sous la forme g(x) = f (c) + a1 (x − c) + (x − c)2 , a1 , a2 ∈ R. On a
2
a2 a2
g(a) = f (c) + a1 (a − c) + (a − c)2 , et g(b) = f (c) + a1 (b − c) + (b − c)2 ,
2 2
et  a2 2
 a1 (a − c) + 2 (a − c) = f (a) − f (c),

 a1 (b − c) + a2 (b − c)2 = f (b) − f (c).




2

46
La résolution de ce système donne
f (b) − f (a) 1
a1 = et a2 = [f (a) + f (b) − 2f (c)].
b−a (a − c)2
Ainsi,
Rb Rb
a
f (x)dx ≈ a
g(x)dx,
Rbh a2 i
= a
f (c) + a1 (x − c) + (x − c)2 dx,
2
a1 a2
= (b − a)f (c) + [(b − c)2 − (a − c)2 ] + [(b − c)3 − (a − c)3 ],
2 6
a2
= (b − a)f (c) + (b − c)3 ,
3
1
= (b − c)f (c) + (b − c)3 [f (a) + f (b) − 2f (c)],
3(a − c)2

b−a
= [f (a) + f (b) + 4f (c)].
6
En prenant a = c − h et b = c + h, on a
Z b
h
f (x)dx ≈ [f (a) + f (b) + 4f (c)]. (5.14)
a 3

Calcul de l’erreur

Pour calculer l’estimation de l’erreur de cette formule, on a besoin du résultat suivant :

Lemme 5.1 : Soit f une fonction de classe C 4 sur I telle que f (4) soit bornée par M4
sur I. Soient α ∈ I et h > 0 tels que [α − h, α + h] ⊂ I alors
Z α+h
 M4 h5

 h
 f (t)dt − [f (α − h) + f (α + h) + 4f (α)]≤ .

α−h 3  90

47
a+b b−a
En appliquant le lemme ci-dessus sur [a, b] avec α = c = et h = . On a alors
2 2
 M4 b − a 5
Z b   
 h
 f (x)dx − [f (a) + f (b) + 4f (c)]
 ≤ 90

a 3 2
Rb h
D’où l’erreur commise en prenant a
[f (a) + f (b) + 4f (c) est
f (x)dx =
3
 5
M4 b − a
eT = . (5.15)
90 2

Généralisons le résultat précédent à (n + 1) points régulièrement répartis avec n pair.

Cas où l’intervalle [a, b] est de grande amplitude

La fonction f est mesurée expérimentalement en (n + 1) points régulièrement répartis


(a = x0 , x1 , . . . , xk , . . . , xn = b) définis par xk = a + kh avec n = 2p, p ∈ N. Ainsi, on
divise l’intervalle [a, b] en n (n pair) petits intervalles [x2k−2 , x2k ] avec k = 1, 2, . . . , n/2
b−a
de même amplitude h = . Dans ce cas, on a
n
Rb Rx Rx Rx R xn
a
f (x) = x02 f (x)dx + x24 f (x)dx + x46 f (x)dx + . . . + xn−2 f (x)dx,

n/2
P R x2k
= x2k−2
f (x)dx.
k=1

Chaque intervalle [x2k−2 , x2k ] étant pétit, on a


R x2k x2k − x2k−2
x2k−2
f (x)dx ≈ [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )],
6
h
≈ [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )].
3
Dans ce cas, on a
n/2
Rb P h
a
f (x) ≈ [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )],
k=1 3

h
≈ [f (x0 ) + 4f (x1 ) + f (x2 ) + f (x2 ) + 4f (x3 ) + f (x4 ) + . . . + f (xn−2 ) + 4f (xn−1 ) + f (xn )],
3
h
≈ [f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (x4 ) + . . . + 2f (xn−2 ) + 4f (xn−1 ) + f (xn )]
3 
 
n−2 n−1
h
 X X 
≈ f (x0 ) + f (xn ) + 2 f (xk ) + 4 f (xk ) .

3 
 k=2 k=3 
k → paire k → impaire

48
D’où
 
 
Z b n−2 n−1
h X X 
f (x)dx ≈ f (x0 ) + f (xn ) + 2 f (xk ) + 4 f (xk ) .
 
a 3  
 k=2 k=3 
k → paire k → impaire
(5.16)
ou encore
 
Z b (n−2)/2 (n−2)/2
h X X
f (x)dx ≈ f (x0 ) + f (xn ) + 2 f (x2k ) + 4 f (x2k+1 ) . (5.17)
a 3 k=1 k=0

Calcul de l’erreur

Les intervalles [x2k−2 , x2k ] étant pétits, on a


Z x2k+1
h
f (x)dx ≈ [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )],
x2k−1 3

et
Z  5
 x2k h  M x − x M2 5
2k 2k−2
f (x)dx − [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )] ≤ = h.
 
3  90 2 90

 x2k−2

Par ailleurs, sachant que


Z b n/2 Z x2k n/2
X X h
f (x)dx = f (x)dx ≈ [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )],
a k=1 x2k−2 k=1
3

on a
 
 n/2 h  n/2
P M4 5 n M4 5
 P R x2k
f (x)dx − [f (x ) + 4f (x ) + f (x )] ≤ h = h.

x 2k−2 2k−1 2k
3 k=1 90 2 90
 2k−2

k=1 

n/2
Rb P h
D’où l’erreur commise en prenant a
f (x)dx = [f (x2k−2 ) + 4f (x2k−1 ) + f (x2k )] est
i=1 3

M4
ES = 4
(b − a)5 .
180n
Sachant que nh = b − a, on obtient finalement
M4
ES = (b − a)h4 . (5.18)
180
Remarque 5.3 : Le calcul de l’intégrale de la fonction f sur [a, b] par la méthode des
M2
trapèzes générele une erreur ET = (b−a)3 où M2 = sup |f 00 (x)|. Cette erreur devient
12n2 x∈[a,b]

49
M4
ES = 4
(b − a)5 si l’on utilise la méthode de Simpson (ici M4 = sup |f (4) (x)|). On
180n x∈[a,b]
M4 5 M2
constate que quand n → ∞, (b − a) tend plus vite vers zéro que (b − a)3 .
180n4 12n2
Autrement dit l’erreur obtenue par la méthode de Simpson est plus petite que celle obtenue
par la méthode des trapèzes. Il en résulte que la méthode de Simpson donne une meilleure
approximation de l’intégrale de f sur [a, b] que la méthode des trapèzes.

Exemple 5.4 :
R1√
1. Calculer à 0.001 près l’intégrale I = 0
1 + x2 dx à l’aide de la formule de Simpson.
A l’aide de la formule (5.18), trouvons tout d’abord la valeur de h qui assure le dégré
de précision nécessaire. On a
√ x 1 3x
f (x) = 1 + x2 , f 0 (x) = √ , f 00 (x) = p , f (3) (x) = − p ,
1 + x2 (1 + x2 )3 (1 + x2 )5

12x2 − 3
f (4) (x) = p .
(1 + x2 )7

La valeur maximale de f (4) (x) est atteinte sur le segment [0, 1] au point x = 0 ;
f (4) (0) = 3, i.e., M4 = 3. Pour cette raison

h4 h4
ES = (b − a)M4 = 1.3
180 180
h4
Pour que cette erreur soit inférieure à 0.001, il est nécessaire que ≤ 0.001, i.e.,
60
4 4
h ≤ 0.06. On peut prendre h = 0.5 ( si h = 0.5 alors h = 0.0625), i.e., un peu
plus de la valeur nécessaire. Toutefois, la précision du calcul ne sera influencée, car
l’évaluation a été faite à l’aide de l’erreur limite absolue qui, évidemment, est plus
grande que l’erreur effective. Ainsi, le dégré de précision requis peut être atteint en
décomposant l’intervalle d’intégration en deux parties.

Calculons les valeurs prises par la fonction f (x) = 1 + x2 pour x = 0, 0.5, 1. On
a f (0) = 1.000, f (0.5) = 1.1180 et f (1) = 1.4142. C’est pourquoi
R1√
I = 0 1 + x2 dx,

0.5
= [f (0) + 4f (0.5) + f (1)],
3

= 1.1477.

De cette façon, en arrondissant le dernier chiffre, on trouve I ≈ 1.148.

50
Pour comparer les résultats, calculons la valeur exacte de cette intégrale. On a
1
R1√ x√ √

2 2
1 2
0
1 + x dx = 1 + x + ln(x + 1 + x ) ,
2 2 0

1√ √ 1
= [ 2 + ln(1 + 2)] ≈ (4.4142 + 0.8814),
2 2

≈ 1.478.

On voit que la valeur de l’intégrale calculée par la formule de Simpson est donnée
non seulement avec trois, mais aussi avec quatre décimales exactes.
R 1 dx
2. Calculer l’intégrale I = 0 par la formule de Simpson, en posant n = 8.
1 + x2
Les calculs doivent être effectués à six décimales. Evaluer l’erreur du résultat ob-
tenu. Comparer le résultat avec la valeur vraie de l’intégrale prise avec un chiffre de
reserve.
Les valeurs de la fonction prises sous le signe d’intégration doivent être déterminées
pour les valeurs suivantes de la variable indépendante (h = 0.125) : x0 = 0, x1 =
1
10.125, . . . , x8 = 1. On trouve les valeurs correspondantes de f (x) = ; f (0) =
1 + x2
1, f (0.125) = 0.984625, f (0.25) = 0.941176, f (0.375) = 0.87612, f (0.5) = 0.80000,
f (0.625) = 0.719101, f (0.75) = 0.640000, f (0.875) = 0.566389 et f (1) = 0.50000.
Portons ces valeurs dans la formule de Simpson pour h = 0.125. On a
0.125
I = [f (0) + f (1) + 4(f (0.125) + f (0.375) + 0.719101 + f (0.875)) + 2(f (0.25) + f (0.5) + f (0
3
0.125
= [1 + 0.5 + 4(0.984625 + 0.87612 + 0.719101 + 0.566389) + 2(0.941176 + 0.8 + 0.64)],
3

,
≈ 0.785392.

La valeur vraie de l’intégrale est


Z 1
dx π
I= 2
= [arctan x]10 = ≈ 0.7853979,
0 1+x 4
ce qui confirme le résultat trouvé.

Algorithme

1. Lire a, b les bornes de l’intervalle


2. Lire n, le nombre de sous-intervalles
b−a
3. h ←− , le pas de la subdivision
n
4. I ←− f (a) + f (b)

51
5. x ←− a
6. Pour k allant de 1 à n − 1 faire
h
∗ x ←− x +
2
∗ I ←− I + 4f (x)
h
∗ x ←− x +
2
∗ I ←− I + 2f (x)
7. x ←− x
h
8. I ←− I
6
9. Afficher I
10. fin pour

52
5.6 Exercices
R2√
Exercice 5.1 : Trouver par la formule des trapèzes, la valeur approchée de 1 xdx en
divisant l’intervalle d’intégration par 10 intervalles de même longueur. Estimer l’erreur.
R 2 dx
Exercice 5.2 : En se servant de la formule des trapèzes, trouver ln 2 = 1
avec une
x
précision de l’ordre de 0.01.

Exercice 5.3 : Calculer par la méthode du point milieu les intégrales suivantes :
Z 1
−x2
Z 1 √
e dx, n=5 et 1 − x3 dx, n = 5.
0 0

Exercice 5.4 :
R +∞ 2
1. Calculer numériquement l’intégrale I = −∞ e−x /2 dx en utilisant les valeurs du tableau
2
ci-dessous et en considérant que e−x /2 est négligeable pour x > 5.

x 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5


−x2 /2
e 1 0.882 0.607 0.325 0.135 4.39.10−2 1.11.10−2 2.19.10−3 3.35.10−4 4.01.10−5 3.73.

2. Cette intégrale est très utilisée en statistique. Calculer sa valeur exacte à partir de
R +∞ 2 √
l’intégrale de Gauss : −∞ e−x /2 dx = π.

Exercice 5.5 : Calculer par la méthode des trapèzes les intégrales suivantes :
Z 1 √ Z 1
2
1 − x3 dx, n=5 et e−x dx, n = 4.
0 0

Exercice 5.6 : Calculer par la méthode de Simpson, les intégrales suivantes :


Z 2 x Z 2
e ln x
dx, n = 5, et dx, n = 4.
1 x 1 x

dx R1π
Exercice 5.7 : Sachant que =0
, trouver par trois méthodes différentes une
1 + x2 2
valeur approchées de π. On divisera l’intervalle d’intégration en 10 parties égales. Com-
parer les résultats obtenus.
R 1.35
Exercice 5.8 : Calculer par la formule de Simpson l’intégrale 1.05
f (x)dx si f (x) est
donnée tabulairement par

x 1.05 1.10 1.15 1.20 1.25 1.30 1.35


f(x) 2.36 2.50 2.74 3.04 3.46 3.98 4.60

53
Chapitre 6

Résolution numérique des équations


non linéaires

Dans certains problèmes scientifiques, on a souvent besoin de résoudre numériquement


les équations de la forme :
f (x) = 0, (6.1)
ou un système d’équation de ce type. Par exemple de la forme

fi (x1 , x2 , . . . , xn ) = 0, i = 1, 2, . . . , n. (6.2)

Ces équations peuvent être aussi bien algébriques (par exemple polynomiale) ou trans-
cendantes (par exemple sinusoïdale, exponentielle ou hyperbolique). Ces équations sont
souvent dites équations finies pour les distinguer des équations différentielles. Il existe
plusieurs méthodes pour résoudre numériquement l’equation (6.1) ou le systèmes (6.2).
Nous donnerons dans ce chapitre quelque une de ces méthodes.

6.1 Position du problème


Soit donné l’équation (6.1) où f (x) est une fonction définie et continue sur un certain
intervalle [a, b]. On admettra que f (x) est de classe C 2 [a, b] et que f (a) et f (b) sont de
0 00
signe contraire, i.e., f (a)f (b) < 0 et les deux dérivées f (x) et f (x) garde chacune le
même signe sur [a, b]. Sous ces conditions, l’équation (6.1) possède sur [a, b] une et une
0
seule racine (f (x) garde le signe sur [a, b] implique que la fonction y = f (x) est monotone
00
sur [a, b] ; f (x) garde le même signe sur [a, b] implique que la courbe y = f (x) a sur [a, b]
une convexité soit orientée vers le haut, soit orientée vers la bas).
Puisque les racines réelles de l’équation (6.1) sont les abscisses des points d’intersection
de la courbe y = f (x) avec l’axe des abscisses Ox, alors la recherche des racines de
l’équation f (x) = 0 peut se faire graphiquement. A la place de l’équation y = f (x) on
peut prendre l’équation y = kf (x) où k est une constante différente de zéro puisque les
équations f (x) = 0 et kf (x) = 0 sont équivalentes. La constante peut être ordonnée
de sorte que les ordonnées des points de graphe ne soient pas extrêmement grandes, ou

54
inversement, de sorte que la courbe ne soit pas très proche de l’axe 0x. Il est souvent
utile d’écrire l’équation f (x) = 0 seront les abscisses des points d’intersection des courbes
y = ϕ(x) et y = ψ(x).

Exemple 6.1 : En écrivant l’équation x2 + 3x − sin x = 0 sous forme x2 + 3x = sin x, on


voit bien que les racines de x2 + 3x − sin x = 0 sont les abscisses des points d’intersection
des courbes y = x2 + 3x et y = sin x.

6.2 Méthode de dichrotomie ou de partage en deux

6.2.1 La méthode
Supposons que f (a) < 0 < f (b) et que la fonction f est strictement croissante sur
[a, b]. La solution r de l’équation f (x) = 0 appartient à [a, b], i.e., a ≤ r ≤ b. Le milieu
a+b
de l’intervalle est c = . Si f (a) et f (c) sont de signes contraires alors r ∈ [a, c], i.e.,
2
a ≤ r ≤ c. Si par contre c’est f (c) et f (b) qui sont de signes contraires alors r ∈ [c, b], i.e.,
c ≤ r ≤ b. Dans l’un ou l’autre cas, la taille de l’intervalle est divisée par 2. Une nouvelle
bisection peut être faite sous de nouvels intervalles contenant la solution et ansi de suite.
b−a
Après n étapes, la taille de l’intervalle devient (voir figure 6.1).
2n

Figure 6.1 –

6.2.2 Organigramme
L’organigramme de la méthode de dichrotomie ou de bisection est donné par la figure
ci-dessous :
Cette méthode permet ainsi de donner un encadrement de la solution avec une précision
de ε.

6.2.3 Algorithme
1. Lire a, b les bornes de l’intervalle.

55
Figure 6.2 –

2. Lire ε la précision voulue.


a+b
3. c −→ .
2
4. Si f (c) = 0 alors stop x = c est la solution.
5. Si f (c)f (a) < 0 alors
b ←− c
sinon
a ←− c
6. si |a − b| > ε aller en 3.
7. Sinon afficher x.

6.3 Méthode de la corde


On se propose de trouver la racine isolée sur [a, b] 1 de l’équation f (x) = 0. Considérons
la courbe de la fonction y = f (x). Supposons que f (a) < 0 et f (b) > 0. Alors joignons les
points A(a, f (a)) et B(b, f (b)) de la courbe par une corde (le segment d’extrémités A et
B) (voir figure 6.3).
En qualité de l’approximation de la racine cherchée, on peut prendre le point x1 ,
abscisse du point d’intersection de la corde AB avec l’axe 0x. Cette solution approchée
se calcule par la formule :
(b − a)f (a)
x1 = a −
f (b) − f (a)
1. Ceci signifie que l’équation f(x)=0 posséde sur [a,b] une seule racine

56
Figure 6.3 –

où x1 appartient au segment [a, b]. Si f (x1 ) = 0, alors x1 est la racine cherchée. Si


par contre f (x1 ) 6= 0, alors des deux choses l’une : f (x1 ) < 0 ; f (x1 ) > 0. Supposons que
f (x1 ) < 0. Alors la racine isolée de l’équation f (x) = 0 se trouve dans le segment [x1 , b],
qui est plus petit que [a, b]. Soit A1 B (avec A1 (x1 , f (x1 )) la corde reliant les points A1 et
B de la courbe y = f (x) et soit x2 l’abscisse du point d’intersection de A1 B avec l’axe des
abscisses 0x :

(b − x1 )f (x1 )
x2 = x1 − .
f (b) − f (x1 )
En qualité de la valeur approchée de la racine de l’équation f (x) = 0 sur [a, b], on
prend x2 . Si f (x2 ) = 0, alors la racine de f (x) = 0 est trouvée. Dans le cas contraire, i.e.,
si f (x2 ) 6= 0, on continue le processus. Ainsi de suite, on obtient une suite de nombres
x1 , x2 , ...,

(b − xn )f (xn ) (b − a)f (a)


xn+1 = xn − , x1 = a − , n = 1, 2, ...
f (b) − f (xn ) f (b) − f (a)
qui converge vers la racine de l’équation f (x) = 0. Pour calculer la valeur approchée de
la racine de l’équation f (x) = 0, il nous faut donner ce qu’on appelle degré de précision.

Définition 6.1 : Soit x̃ la racine exacte de l’équation f (x) = 0. on dira que ξ est la
valeur approchée de x̃ avec une précision de l’ordre de ε si | x̃ − ξ |≤ ε.

Si x̃ est la racine exacte isolée sur [a, b] de l’équation f (x) = 0 et ξ la valeur approchée
de cette racine trouvée par la méthode de cordes, alors l’estimation de l’erreur de cette
approximation peut se calculer par la formule :
00
f (a)f (b) f (x)
| x̃ − ξ |< − max 0
2 [a,b] [f (x)]3
.
Dans l’algorithme précédent, la racine approchée avec l’ordre de précision ε donné est
xn tel que :

57
Exemple 6.2 : Calculer par la méthode de cordes la racine sur [1; 1, 7] de l’équation
x4 − 2x − 4 = 0 avec une précision de l’ordre de 0,01.
Pour cet exemple nous avons f (1) = −5 < 0, f (1, 7) = 0, 952 > 0. Trouvons la
première approximation par la formule (1) :

(1, 7 − 1)f (1)


x1 = 1 − = 1, 588
f (1, 7) − f (1)
puisque f (x1 ) = f (1, 588) = −0, 817 < 0, nous appliquons une fois de plus la méthode
de cordes sur [1, 588; 1, 7],ce qui nous donne la deuxième approximation :

(1, 7 − 1, 588)f (1, 588)


x2 = 1, 588 − = 1, 639
f (1, 7) − f (1, 588)
f (1, 639) = −0, 051 < 0.
On trouve la troisième approximation :

(1, 7 − 1, 639)f (1, 639)


x3 = 1, 639 − = 1, 642
f (1, 7) − f (1, 639)
f (1, 642) = −0, 016 < 0.
Trouvons la quatrième approximation :

(1, − 1, 642)f (1, 642)


x4 = 1, 642 − = 1, 643
f (1, 7) − f (1, 642)
f(1,643) = 0,004>0
Ce qui signifie que la racine cherchée se trouve sur le segment [1, 642; 1, 643]. D’autre
part, 1,643-1,642 = 0,001. Par conséquent la racine approchée cherchée avec une précision
de l’ordre de 0,01 est x = 1, 64.

Remarque 6.1 : Dans ce qui précède, nous avons supposé que l’équation f (x) = 0 pos-
sède une seule racine sur [a, b]. Si jamais elle possède plus d’une racine sur [a, b], alors
avant d’utiliser la méthode de cordes pour la recherche des racines de cette équation, il
faut d’abord séparer les racines, i.e., découper le segment [a, b] en un certain nombre de
segments [a, b] dans chacun desquels l’équation ne possède pas plus d’une racine. Pour cela
il faut noter que si une fonction est continue, dérivable sur un segment et si sa dérivée
garde le même signe sur le dit segment, alors la fonction sera monotone sur ce segment et
ne pourra pas s’annuler plus d’une fois sur le dit segment. Pour savoir si f (x)s’annule sur
[ai , bi ], on regarde le signe du produit f (ai )f (bi ). Si ce produit est négatif, alors l’équation
f (x) = 0 admet sur (ai , bi ) une racine. Si par contre ce produit est positif, alors f (x) = 0
n’admet pas de solution sur (ai , bi ). Si f (ai )f (bi ) = 0, alors x = ai ou x = bi sera solution
de l’équation f (x) = 0.

6.4 Méthode de Newton-Raphson

58
6.4.1 La méthode
Supposons que la racine réelle de l’équation f (x) = 0 est isolée sur [a, b]. On admettra
que la fonction f (x) vérifient toutes les conditions indiquées dans l’introduction. Soit x0
00 00
un point quelconque de [a, b] tel que f (x0 )f (x0 ) > 0, i.e., f (x0 ) et f (x0 ) ont le même
00
signe (si f (a)f (a) > 0, alors en qualité de x0 on peut prendre x0 = a. De même si
00
f (b)f (b) > 0, alors on peut prendre x0 = b).
Passons au pointM0 (x0 , f (x0 )) la tangente à la courbe y = f (x) (voir figure 6.4).

Figure 6.4 –

Désignons par x1 l’abscisse de l’intersection de cette tangente avec l’axe des abscisses
0x :
f (x0 )
x1 = x0 − 0 .
f (x0 )
En qualité de la racine approchée de l’équation f (x) = 0 prenons x1 .Répétons ceci au
point M1 (x1 , f (x1 )). On obtient comme racine approchée de l’équation le nombre :

f (x1 )
x 2 = x1 − .
f 0 (x1 )

Ainsi de suite nous obtenons une suite de points de [a, b]x0 , x1 , ..., xn , ...

f (xn ) f (x0 )
xn+1 = xn − , x 1 = x0 − , n = 1, 2, ... (6.3)
f 0 (xn ) f 0 (x0 )

dont la limite est la racine de l’équation f (x) = 0. Pour estimer l’erreur de la racine
approchée trouvée par la méthode de Newton, on peut utiliser la formule
00 00
f (ξ) f (x)
| x̃ − ξ |< max
2 [a,b] [f 0 (x)]3
Ici x̃ est la racine exacte et ξ la racine approchée.

59
Si on se propose de trouver la racine approchée de f (x) = 0 avec une précision de
l’ordre de ε, alors à chaque étape, il faut vérifier le signe de f (xn )f (xn−1 ) et comparer
| xn − xn−1 | avec ε. Si f (xn )f (xn−1 ) < 0 et | xn − xn−1 |≤ ε, alors en qualité de la
racine approchée avec l’ordre de la précision indiquée, on prend xn avec le nombre de
chiffres après la virgule égal au nombre de chiffres après la virgule dans ε. Si par contre
f (xn )f (xn−1 ) > 0 ou | xn − xn−1 |> ε, on passe à l’itération suivante.

Exemple 6.3 : Calculer par la méthode de Newton la racine sur [1; 1, 7] de l’équation
x4 − 2x − 4 = 0 avec une précision de l’ordre de 0,01. On a f 0 (x) = 4x3 − 2, f 00 (x) = 12x2 .
Puisque f (1, 7)f 00 (1, 7) > 0 (voir l’exemple précédent), on prend x0 = 1, 7. En utilisant la
formule (1), on trouve tour à tour

f (x0 ) f (1, 7) 0, 952


x1 = x0 − = 1, 7 − = 1, 7 − = 1, 646
f 0 (x0 ) f 0 (1, 7) 17, 652
et f (x0 )f (x1 ) > 0.

f (x1 ) f (1, 646) 0, 048


x2 = x1 − 0
= 1, 646 − 0 = 1, 646 − = 1, 643
f (x1 ) f (1, 646) 15, 838
et f (x1 )f (x2 ) > 0.

f (x2 ) f (1, 643) 0, 004


x3 = x2 − = 1, 643 − = 1, 643 − = 1, 6427
f 0 (x2 ) f 0 (1, 643) 15, 740
f (x2 )f (x3 ) < 0 et | x2 − x3 |= 0, 0003 < 0, 01.
Par conséquent la racine cherchée est x3 = 1, 6427 avec deux chiffres après la virgule
(car ε = 0, 01 a deux chiffres après la virgule), i.e. x = 1, 64.

Remarque 6.2 :
f (xn )
1. Lorsque f (x0 )f 00 (x0 ) > 0, la suite xn+1 = xn − est monotone, bornée et
f 0 (xn )
converge vers la solution x̄. Ce résultat donne une condition suffisante pour que la
méthode de Newton converge vers x̄ mais la condition n’est pas nécessaire. Dans le
cas où il n’y a pas de convergence, on change la valeur de x0 .
2. La méthode de Newton est une méthode d’itérations de second ordre (souvent appelé
méthode des approximations sucessives). Ces méthodes se traduisent par la répétition
systématique d’une opération déterminée. Ce qui finit par donner de proche en proche
la solution exacte.
3. La formule de Newton est l’une des plus utilisées parce qu’elle est relativement plus
simple et d’une convergence très suffisante dans la plupart des cas. Il faut toutefois
que x0 soit assez près de la racine pour que la dérivée f 0 ne change pas de signe
entre x0 et la solution x̄. Si en effet, f 0 s’annule sans que f s’annule aussi alors
la tangente à la courbe doit couper l’axe des abscisses à l’infini puisque qu’il risque
d’osciller indéfiniment autour de la solution sans l’atteindre.

60
4. Condition d’arrêt : La méthode de Newton converge vers la solution exacte x̄ mais
on ne sait pas explicitement à quel moment une certaine précision est atteinte. Pour
cela, on utilise généralement les résultats souivants : Soit x̄ une racine de l’équation
f (x) = 0 et soit xn une valeur approchée de x̄. Si l’intervalle [a, b] contenant x̄ et
xn on a |f 0 (x)| ≥ m > 0, alors

|xn − x̄| ≤ |f (xn )|m.

Dans la pratique, on pourra prendre m = min(|f 0 (a)|, |f 0 (b)|). Si ε est la précision


|f (xn )|
exigée alors on arrêtera le calcul lorsque < ε.
m

6.4.2 Organigramme
L’organigramme de la méthode de Newton-Raphson est donné par la figure ci-dessous :

Figure 6.5 –

61
6.5 Méthode par approximations successives
Soit R un espace métrique euclidien de R et soit g une application de R dans R.

Définition 6.2 : L’application g s’appelle contraction, s’il existe un réel α < 1 tel que
pour tous les x, y ∈ R, on a

| g(x) − g(y) |≤ α | x − y | . (6.4)

Toute contraction g de R dans R est une application continue. En effet, soit xn une
suite de points de R convergente vers x ∈ R, i.e., | xn − x |→ 0, quand n → +∞. Alors
puisque | g(xn ) − g(x) |≤ α | xn − x |, on conclut que | g(xn ) − g(x) |→ 0, n → +∞, et g
est continue.

Définition 6.3 : Un point x s’appelle point fixe d’une application g(x) si g(x) = x.

Théorème 6.1 : (Principe des contractions) : Toute contraction g d’un espace mé-
trique complet R dans R possède un et un seul point fixe.

Preuve : Soit x0 un point quelconque de R. Si g(x0 ) = x0 , alors x0 est un point fixe de


g. Supposons que g(x0 ) 6= x0 . Soit xn la suite des points de R definie par :

xn = g(xn−1 ), n = 1, 2, ...

Montrons que xn est une suite fondamentale.

|xn+p − xn | = | g(xn+p−1 ) − g(xn−1 ) |≤ α | xn+p−1 − xn−1 |= α | g(xn+p−2 ) − g(xn−2 ) |,

≤ α2 | xn+p−2 − xn−2 |= α2 | g(xn+p−3 ) − g(xn−3 ) |≤ α3 | xn+p−3 − xn−3 |

≤ ... ≤ αn | xp − x0 | .

= αn | (xp − xp−1 ) + (xp−1 − xp−2 ) + ... + (x2 − x1 ) + (x1 − x0 ) |

≤ αn [| xp − xp−1 | + | xp−1 − xp−2 | +...+ | x1 − x0 |]

Puisque
| xm+l − xm ||l=1 ≤ αm | x1 − x0 |,
on a
| xn + p − xn | ≤ αn [αp−1 + ... + α + 1] | x1 − x0 |
.
n

P α n | x1 − x0 |
k
≤ α | x1 − x0 | α =
k=0 1−α
Puisque 0 ≤ α < 1,
α n | x1 − x0 |
→ 0, n → +∞,
1−α

62
et il s’en suit que xn est une suite fondamentale. R étant un espace métrique complet,
la suite xn converge vers un point x ∈ R : lim g(xn ) = x ∈ R. Il découle alors de la
n→+∞
continuité de g que :
g(x) = lim g(xn ) = lim xn−1 = x.
n→+∞ n→+∞

Cette égalité montre que x est un point de g. Alors

| x − y |=| g(x) − g(y) |≤ α | x − y |,

et cete inégalité n’a lieu que si x = y, car α ≤ 1. le théorème est démontré. Soit f une
fonction de [a, b] vérifiant la condition de Lipschitz

| f (x1 ) − f (x2 ) |≤ K | x1 − x2 |,

avec la constante K < 1.Alors f est une contraction et d’après le théorème précédent la
suite xn définie par xn = f (xn−1 ), x0 ∈ [a, b] converge vers la solution unique de l’équation
f (x) = x. La condition de la contraction est vérifiée sur le segment[a, b] dès que f (x) est
dérivable sur [a, b] et | f 0 (x) |≤ K < 1 sur [a, b]. En effet, pour tous les x1 et x2 dans
[a, b] alors le segment d’extrémités x2 et x1 est contenu dans [a, b]. D’après la formule de
Lagrange
f (x1 ) − f (x2 ) = (x1 − x2 )f 0 (c),
où c est un point du segment d’extrémité x1 et x2 . Mais alors

| f (x1 ) − f (x2 ) |=| (x1 − x2 )f 0 (c) |≤ K | x2 − x1 |= α | x2 − x1 |, avec α = K < 1,

ce qui montre que f est une contraction.


2
Soit à résoudre l’équation F (x) = 0 sur [a, b], avec F (a) < 0, F (b) > 0 et 0 <
K1 ≤ F 0 (x) ≤ K2 sur [a, b]. Introduisons la fonction f (x) = x − λF (x) et cherchons les
racines de l’équationx = f (x), ce qui est équivalente à F (x) = 0 quand λ 6= 0. Puisque
f 0 (x) = 1 − λF 0 (x), 1 − λK2 ≤ f 0 (x) ≤ 1 − λK1 et on peut prendre λ de sorte que
| f 0 (x) |≤ K < 1 sur [a, b]. Cela se fait des conditions 1 − λK1 < 1 ⇔ 0 < λK1 ,
1 − λK2 > −1 ⇔ K2 λ < 2, et 1 − λK2 ≤ 1 − λK1 i.e.,

K1 λ > 0, K2 λ < 2, λK2 ≥ λK1 ..

Avec ce choix de λ, la fonction f (x) est une contraction et les approximations successives
de l’équation F (x) = 0 sont xn = f (xn−1 ), x0 ∈ [a, b].
Si x̃ est la racine isolée de F (x = 0) sur [a, b] et on cherche la racine approchée avec
une précision de l’ordre de ε, alors en qualité de cette racine approchée on prend xn tel
que
1−K
| xn − xn−1 |< ε.
K

63
Exemple 6.4 : Trouver par la méthode des approximationss successives la racine de
l’équation 2 − ln x − x = 0 avec une précision de l’ordre de 0, 001.

Pour cet exemple, on a F (x) = 2 − ln x − x. Trouvons l’intervalle de la racine isolée


de F (x) = 0. F (x) = 0 ⇔ ln x = 2 − x et la droite d’équation 2 − x = y coupe l’axe 0x en
x = 2 et la courbe y = ln x coupe cet axe en x = 1. Le point d’intersection des courbes
2 − x = y et y = ln x a son abscisse entre 1 et 2. [1, 2] est alors le segment de racine isolée
de F (x) = 0.
3
Puisque −2 ≤ F 0 (x) < − . Nous ne pouvons pas alors appliquer ce qui précède.
2
Cependant, les équations F (x) = 0 et −F (x) = ln x + x − 2 = 0 sont équivalentes.
3
Puisque 0 < ≤ −F 0 (x) ≤ 2, on pose f (x) = x − λ(−F (x)). Alors on choisira λ des
2
3 3
conditions λ > 0, 2λ < 2 et 2λ ≥ λ. On peut alors prendre λ = 1/2, ce qui donne
2 2
1 1 1
f (x) = x − (−2 + ln x + x) = − ln x + x + 1
2 2 2
vérifie alors l’inégalité
1 13 1 1
1 − 2 ≤ f 0 (x) ≤ 1 − ⇔ 0 ≤ f 0 (x) ≤ ⇒| f 0 (x) |≤ sur [1, 2].
2 22 4 4
1−K
K
ε = 0, 003. En qualité de x0 = 1. Alors

3
x1 = f (x0 ) = , x2 = f (x1 ) = 1, 5472,
2

x3 = f (x2 ) = 1.5553, x4 = f (x3 ) = 1.5568, .

| x4 − x3 |= 0.0015 < 0.003.

La solution approchée est alors x = 1, 556.

Remarque 6.3 :
1. Il existe de nombreuses autres méthodes telles que la méthode des parties proportion-
nelles, la méthode de Bairstow, la méthode de petits paramètres ou de perturbations.
La méthode de Bairstow permet de trouver la solution complexe de l’équation.
2. Il existe des méthodes qui permettent de trouver simultanement toutes les racines
d’un polynôme en particulier le cas des polynômes de degré 3 et 4.
3. On peut aussi élaborer les processus itératifs du premier, second et troisième ordre
pour les systèmes d’équations non linéaires en particulier pour le système de deux
équations : 
 G(x, y) = 0,
(6.5)
H(x, y) = 0.

64
On peut trouver x à partir de G(x, y) = 0 et y à partir de H(x, y) = 0. On aura
alors le processus itératif suivant :

 xn+1 = g(xn , yn ),
(6.6)
yn+1 = h(xn , yn ).

De même, à partir de la formule de Newton, le système d’équations peut donner le


processus itératif suivant :

1
 xn+1 = xn + ∆ (HGy − GHy ) |xn ,yn ,



(6.7)

 1
 yn+1 = yn + (GHx − HGx ) |xn ,yn ,


où ∆ = Gx Hy − Gy Hx .

65
6.6 Exercices
Exercice 6.1 : Proposer un algorithme pour la méthode de la corde.

Exercice 6.2 : Ecrire un organigramme pour la méthode des approximations successives.

Exercice 6.3 :
1. Etablir la formule itérative pour la méthode de Newton pour le système d’équations à
deux inconnues suivant : 
 G(x, y) = 0,

H(x, y) = 0.

2. Ecrire un algorithme correspondant.

Exercice 6.4 : Trouver par la méthode de cordes la racine positive de l’équation x4 −


2x − 4 = 0 avec une précision de l’ordre de 0.01.

Exercice 6.5 : En combinant la méthode de la corde et la méthode de Newton, trouver


la racine approchée de l’équation x3 + x2 − 11 = 0 dans (1, 2) avec une précision de l’ordre
de 0.001.

Exercice 6.6 : Par la méthode des approximations successives, trouver la racine appro-
chée de l’équation 2 − ln x − x = 0 avec une précision de l’ordre de 0.001.

Exercice 6.7 : Par la méthode des approximations successives, trouver la racine appro-
chée de léquation x3 + 2x − 7 = 0 avec une précision de l’ordre de 0.01.

Exercice 6.8 : Trouver graphiquement les intervalles des racines isolées de l’équation
x3 − 9x2 + 18x − 1 = 0. Par l’une des méthodes étudiées que l’on précisera, trouver la
racine approchée de la dite équation sur 0.1 avec une précision de l’ordre de 0.01.

Exercice 6.9 : Résoudre par la méthode de cordes et de Newton l’équation x4 −12x−5 = 0


avec une précision de l’ordre de 0.01.

Exercice 6.10 : Appliquer deux fois la méthode de Newton pour trouver la racine appro-
chée de l’équation x4 − 8x + 1 = 0, isolée sur [1.6, 2]. Trouver les valeurs approchées x1
et x2 avec deux chiffres après la virgule. Estimer l’erreur de l’approximation x2 .

Exercice 6.11 : Appliquer cinq fois la méthode des approximations successives pour trou-
ver la racine approchée de l’équation 2x − cos x = 0, isolée sur [0, 0.5].

Exercice 6.12 : Calculez (à la main) à 10−4 près la racine r positive de l’équation g(x) =
x pour g(x) = x2 + x1 et comparer avec la méthode de bissection.

66
Chapitre 7

Approximation par la méthode des


moindres carrés

7.1 Position du problème


La méthode d’approximation par les moindres carrés est utilisée dans de nombreuses
applications sous des noms différents :
- optimisation linéaire ;
- Méthode de regression ;
- lissage des courbes.
Les expériences en physique, chimie et biologie peuvent contenir des centaines voire
des milliers de mesures. L’utilisation des méthodes d’interpolation doit alors conduire à
de grandes erreurs d’arrondi et à des calculs assez longs.
La méthode des moindres carrés nous permet d’utiliser plusieurs fonctions pour obtenir
une approximation simple. Par exemple, soient (y1 , y2 , . . . , yn ) les valeurs correspondantes
aux points (x1 , x2 , . . . , xn ) et y = f (x, a0 , a1 , . . . , am ) avec m < n. Il est clair que puisque
m ≤ n, il n’est pas possible d’avoir f tel que quelque soit k, on a y(xk ) = yk . Mais on peut
choisir les n paramétres a0 , a1 , . . . , am tels que y(xk ) ≈ yk , i.e., de façon que les m couples
de valeurs de x et y conviennent le mieux. La théorie des probabilité nous apprend que
les valeurs de a0 , a1 , . . . , am qui sont les meilleurs minimisent la somme
m
X
R= [fk − f (xk )]2 = [f1 − f (x1 )]2 + [f2 − f (x2 )]2 + . . . + [fm − f (xm )]2 , (7.1)
k=1

où f (xk ) = yk . Autrement dit la somme des carrés des écarts des valeurs de y calculées
par la formule par rapport aux valeurs données d’où la dénomination de méthode des
moindres carrés.

67
7.2 Résolution du problème de l’approximation par les
moindre carrés

7.2.1 Choix des paramètres par la méthode des moindres carrés


La condition (7.1) permet de former un système d’équations de m d’où l’on tire
a0 , a1 , . . . , am :
m
X ∂R
= 0,
k=1
∂ak
i.e.,
m
X ∂f (xk , a0 , a1 , . . . , am )
[f (xk , a0 , a1 , . . . , am ) − yk ] = 0, j = 1, 2, . . . , m. (7.2)
k=1
∂aj
La solution de ce système permet alors alors de trouver les coefficients a0 , a1 , . . . , am de
la fonction f (x, a0 , a1 , . . . , am ).
Remarque 7.1 : Parfois, afin de simplifier la résolution du système (7.2), on est contraint
à transformer la formule donnée y = f (x, a0 , a1 , . . . , am ), mais la précision de la solution
ainsi obtenue s’en ressent.

7.2.2 Cas particuliers

Cas d’un polynôme de dégré un

Considérons le cas d’un polynôme de dégré n = 1, i.e., y = f (x) = a0 + a1 x. Dans ce


cas, on a
m
X
R= [fk − (a0 + a1 xk )]2 . (7.3)
k=1
Pour que R soit minimal, il faut que
∂R ∂R
=0 et = 0,
∂a0 ∂a1
On obtient ainsi le système d’équations à deux inconnues a0 et a1 suivant :
 m
P
[fk − (a0 + a1 xk )]a0 = 0,




 k=1
(7.4)

 m
P


 [fk − (a0 + a1 xk )]a1 xk = 0.
k=1

La résolution du système ci-dessus donne


m m m m m m m
x2k
P P P P P P P
fk − xk xk f k m xk f k − xk fk
k=1 k=1 k=1 k=1 k=1 k=1 k=1
a0 =  m 2 et a1 =  2 . (7.5)
m m m
x2k − x2k −
P P P P
m xk m xk
k=1 k=1 k=1 k=1

68
Cas d’un polynôme de dégré quelconque m

Considérons la cas d’un polynôme de dégré quelconque m y = f (x) = a0 + a1 x + . . . +


am xm . On a m + 1 paramètres : a0 , a1 , . . . , am avec n > m + 1. Le système (7.2) prend la
forme :  m m m
m m−1
P P P


 a m x k + am−1 x k + . . . + ma 0 = yk ,

 k=1 k=1 k=1




 m m m m
m+1
 P P m
P P
a x + a x + . . . + a x = xk yk ,

m m−1 0 k

 k k

 k=1 k=1 k=1 k=1




m m m m
a
P
x m+2
+ a
P
x m+1
+ . . . + a
P
x 2
=
P
x2k yk , (7.6)
 m k m−1 k 0 k
k=1 k=1 k=1 k=1










 ...




 m m m m
x2m + a x2m−1 + . . . + a xm = xm y ,
 P P P P
 a

m k m−1 k 0 k k k
k=1 k=1 k=1 k=1

Ce système de m + 1 équations à m + 1 inconnues admet toujours une solution unique,


car son déterminant est différent de zéro.
Pour déterminer les coefficients du système (7.6), il est utile de composer le tableau
auxilliaire ci-dessous :
k xk x2k x3k ... x2m
k yk xk yk x2k yk ... xm
k yk
1 x1 x21 x31 ... x2m
1 y1 x1 y1 x21 y1 ... xm
1 y1
2 x2 x22 x32 ... x2m
2 y2 x2 y2 x22 y2 ... x2k y2
. .. .. .. ... .. .. .. .. ... ..
. .. .. .. ... .. .. .. .. ... ..
n xn
P x2n x3n ... x2m
n yn xn yn 2
xn y n ... n
xk yn

Dans la dernière ligne, sont portées les sommes des éléments constituant les colonnes
respectives. Ces sommes représentent les coefficients du système (7.6). Le système (7.6)
est d’habitude résolu par la méthode de Gauss.

Exemple 7.1 : A l’aide de la méthode des moindres carrés, choisir une fonction quadra-
tique p(x) = a2 x2 + a1 x + a0 pour les valeurs de x et de y données :

x 7 8 9 10 11 12 13
y 7.4 8.4 9.1 9.4 9.5 9.5 9.4

69
Formons le tableau
k xk x2k x3k x4k yk xk y k x2k yk2
1 7 49 343 2401 7.4 51.8 362.6
2 8 64 512 4196 8.4 67.2 537.6
3 9 81 729 6561 9.1 81.9 737.1
4 19 100 1000 10000 9.4 94 940
5 11 121 1331 14641 9.5 104.5 1149.5
6 12 144 1728 20736 9.5 114 1368
7
P 13 169 2197 28561 9.4 122.2 1588.6
70 728 7840 87096 62.7 635.6 6683.4
D’où on tire le système suivant :

 728a2 + 70a1 + 7a0 = 62.7
7840a2 + 728a1 + 70a0 = 635.6,
87096a2 + 784a1 + 728a0 = 6683.4.

La solution de ce système est a0 = 2.12, a1 = 1.1 et a2 = −0.04. Ainsi la fonction


quadratique cherchée est de la forme

p(x) = −0.04x2 + 1.1x + 2.12.

Cas des fonctions de la forme y = Aecx

Pour simplifier le système (7.2), on prend le lograrithme de la formule y = Aecx qui


lie x et y :
log y = log A + c log ex.
Alors le système (7.2) prend la forme :
 m m
P P
c log e x + m log A = log yk ,

k



 k=1 k=1
(7.7)
 m m m
x2k + log A
 P P P
 c log e xk = xk log yk


k=1 k=1 k=1

Le tableau auxiliaire sera


k xk x2k log yk xk log yk
1 x1 x21 log y1 x1 log y1
2 x2 x22 log y2 x2 log y2
. . . . .
n xn
P x2n log yn xn log yn

Exemple 7.2 : Trouver par la méthode des moindres carrés une fonction exponentielle
S = Aect d’après les données du tableau suivant :
t 0 2 4 6 8 10 12
S 1280 635 324 162 76 43 19

70
On forme le tableau suivant :

k t t2k y = log S ty
1 0 0 3.1072 0
2 2 4 2.8028 5.6056
3 4 16 2.5105 10.0420
4 6 36 2.2095 13.2570
5 8 64 1.8808 15.0464
6 10 100 1.6335 16.3350
7
P 12 144 1.2787 15.3444
42 364 15.4230 75.6304

On obtient le système d’équations :



 42c log e + 7 log A = 15.4230,

364c log e + 42 log A = 75.6304,


c’est à dire c log e = −0.1509, log A = 3.1087. Par conséquent, A = 1284 et c = −0.347.
Ainsi, la fonction exponentielle cherchée sera

S = 1284e−0.347t .

Cas général

De manière plus générale dans l’approximation par la méthode des moindres carrés la
fonction f peut être définie par
m
X
f (x) = ak gk (x) = a0 g0 (x) + a1 g1 (x) + . . . + an gn (x), (7.8)
k=1

où les fonction gk (x) sont des fonctions quelconques et peuvent donc être de nature dif-
∂R
férente. Lorsque le système d’équations = 0 est gros, la résolution se fait numéri-
∂ak
quement. En général, le système d’équations que l’on obtient est défini de la manière
suivante :  m
P


 A a
00 0 + A a
01 1 + A a
02 2 + . . . + A a
0n n = g0 (xi )fi ,

 i=1





 m
 A a + A a + A a + ... + A a = P g1 (xi )fi ,
10 0 11 1 12 2 1n n
i=1 (7.9)






 ...
m


 P
 An0 a0 + An1 a1 + An2 a2 + . . . + Ann an =
 gn (xi )fi ,
i=1
où m
X
Akj = gk (xi )gj (xi ), j = 0, 1, . . . , n et k = 0, 1, 2, . . . , n.
i=1

71
7.3 Exercices
Exercice 7.1 : Les résultats d’une expérience est donné dans le tableau suivant :

x 1 2 4 6
y 10 5 2 1

1. De ce tableau, utiliser la formule d’interpolation de Lagrange pour déterminer la valeur


de y pour x = 3.
2. Utiliser aussi la formule d’interpolation de Lagrange pour déterminer la valeur de x
pour y = 1.5.
3. Construire un polynôme d’approximation de dégré 2 par la méthode des moindres carrés

y = a0 + a1 x + a2 x 2 . (7.10)

4. Construire par la méthode des moindres carrés une fonction d’approximation de la


forme
a1
y = a0 + . (7.11)
x
5. Des formules (7.10) et (7.11) quelle est la plus bonne approximation ? Justifier votre
reponse en calculant le reste. A partir de la bonne formule déterminer les valeurs des
inconnues des deux premières questions.

Exercice 7.2 : Trouver la fonction puissance S = Atq .

t 1 2 3 4 5
S 7.1 15.2 48.1 96.3 150.1

Exercice 7.3 : Trouver la fonction exponentielle S = Aect .

t 2.2 2.7 3.5 4.1


S 67 60 53 50

72
Chapitre 8

Résolution numérique des équations


linéaires

8.1 Position du problème


Un certain nombre de problèmes scientifique s’exprime sous forme de systèmes d’équa-
tions à plusieurs inconnues. De même un certain nombre de méthodes de calcul scientifique
se transforme à la résolution des systèmes d’équations linéaires. Nous pouvons citer :
- la méthode d’approximation par les moindres carrés
- l’approximation spline
- la méthode des différences finies pour les équations différentielles à valeurs aux limites
et pour les équations aux dérivées partielles, formulation matricielle de la méthode des
éléments finis, les systèmes différentiels, etc...
Les systèmes d’ équations sont donc présent en physique, en ingénérie, en mécanique,
en sciences biologique et chimique et dans d’autres domaines de sciences exacte. Ils inter-
viennent également en sciences sociales (économie, politique, sociologie...).
Dans le cas des systèmes linéaires, ces méthodes de résolution peuvent être classées en
deux catégories :
- les méthodes directes qui conduisent à la solution après un certain nombre d’opéra-
tions connu à priori (méthode de déterminant ou Cramer, élimination successive, inversion
des matrices) ;
- les méthodes itératives qui conduisent à la solution par une succession d’amélioration
d’une solution approchée. Le nombre d’itération étant difficile à prévoir et dépendant de
la forme du système (méthode de Jacobi et méthode de Gauss-Seidel).

73
8.2 Calcul matriciel
8.2.1 Quelques définitions de base
– Une matrice est un tableau rectangulaire des nombres réels ou complexes de la
forme :  
a11 · · · · · · a1n
 a21 · · · · · · a3n 
A =  ..
 
.
· · · ..

 . ··· 
am1 · · · · · · amn
Sous forme condensé, on écrit A = (aij ); i = 1, 2, · · · , m; j = 1, 2, · · · , n. m : nombre
de ligne et n : nombre de colonne. On parle alors de matrice m × n. La diagonale
contenant les éléments aii est la diagonale principale. Si n = m la matrice est carrée.
– La transformée d’une matrice m × n notée A = (aij ) est la matrice n × m notée
AT = (aji ). Les colonnes de A sont les lignes de AT et les lignes de A sont les
colonnes de AT .
Une matrice carrée réelle (aij = réelle) est dit symétrique ssi aij = aji c’est-à-dire
AT = A.
Si aij = −aji =⇒ aii = 0, alors AT = −A et la matrice est dite antisymétrique.
– Une matrice carrée (aij ) donc les éléments situés au dessus (ou en dessous) de la
diagonale principale sont nuls est appelée matrice triangulaire.
– On appelle matrice en echelon, une matrice telle que :
1. les coefficients principaux des lignes 1, 2, 3, · · · sont situées dans les colonnes de
numéro strictement croissant (le coefficient principal d’une ligne est le premier
coefficient nul de cette ligne).
2. Si une ligne a tout ses coefficients nuls, il en est de même des lignes suivantes.
– Une matrice carrée (aij ) dont les éléments situés au dessus et en dessous de la
diagonale principale sont tous nuls (aij = 0, i 6= j) est appelé matrice diagonale. Si
les éléments de la diagonale principale sont tous égaux à un nombre C, la matrice
est dite scalaire-. Si C = 1, la matrice est unitaire.
– Pour une matrice carrée m × m, si les coefficients aij sont nuls lorsque |i − j| >
k(k < m), la matrice est dite (2k + 1)−diagonale.
En particulier :
si k = 0 =⇒ matrice diagonale,
si k = 1 =⇒ matrice tri-diagonale,
si k = 2 =⇒ matrice penta-diagonale,

74
8.2.2 Produit de deux matrices et propriétés
a) Définition

Soit A = (aij ) une matrice m × n et B = (bij ) une matrice r × p. Le produit C = AB


est défini si et seulement si r = n. Ce produit est la matrice m × p dont les éléments (cij )
sont défines par :
n
X
cij = aik bkj .
k=1

b) Algorithme

pour j allant de 1 à p
faire
pour i allant de 1 à m
faire
cij ←− 0
pour k allant de 1 à n
faire
cij ←− cij + aik bkj
fin pour
ecrire cij
fin pour
fin pour

Propriétés :

– La multiplication des matrice est associative et distributive par rapport à l’addition,


– La multiplication des matrices n’est pas commutative.
– La transposée d’un produit de matrice est égale au produit des transposées pris dans
l’ordre inverse (AB)T = B T AT .
– En général, on montre que l’ensemble des matrices carrées a une structure d’anneau
non-commutatif, à élément unitaire et avec division de zero.

8.2.3 Calcul des déterminants


a) Définition

Un déterminant d’ordre n est un tableau carré de n × n nombre réel ou complexe


compris entre deux barres verticales.

a11 · · · · · · a1n
a21 · · · · · · a3n
D = .. .
. ··· · · · ..
an1 · · · · · · ann

75
Sa valeur calculable par plusieurs méthodes est un nombre réel ou complexe.

b) Méthode des mineurs et cofateurs

Les mineurs Mij d’un élément aij du déterminant D d’ordre n est le déterminant
d’ordre n−1 obtenu en supprimant la ligne et la colonne de D passant par aij . La quantité
c0ij = (−1)i+j Mij est appelée cofacteur de l’élément aij . La valeur du déterminant est alors
donnée par la formule :
Xn n
X
0
D= aik cik = akj c0kj .
k=1 k=1

Bienque cette méthode soit simple et d’une grande importance sur le plan théorique, elle
est trop longue pour les calculs quand les matrices sont d’ordre supérieur.

c) Méthode de triangularisation ou du pivot


Proposition

Soit A une matrice donc la 1ere colonne n’est pas nulle (c’est-à-dire que la premiére
colonne contient au moins un élément non nul), par yune succession convenable d’opéra-
tion, la matrice A peut être transformé en une matrice donc la premiére colonne a tout ces
éléments non nuls sauf le premier. En procedant ainsi, on obtient une matrice triangulaire.
Pour le faire, on utilise la méthode suivante :
Soit ai1 un élément non nul de la premiére colonne de A, il suffit d’executer les ins-
tructions suivantes.
1. Echanger les lignes L1 et Li (si i 6= 1), le coefficient a11 de la nouvelle matrice est
alors nul.
2. Pour k allant de 2 à n (n : nombre de ligne de la matrice)
faire
ak1
Lk ←− Lk − Li
a11
ak1
la 1ere coordonnée de la nouvelle ligne est alors ak1 − a
a11 11
= 0.
On considére ensuite la matrice partant de la 2eme colonne et de la 2eme ligne,
on procéde alors de la même façon jusqu’à obtenir une matrice triangulaire. Le
déterminant de la matrice est alors égal au produit des éléments de la diagonale
principale.

Exemple :

   
3 4 5 14 3 4
=⇒ (5; 2) − (3; 4) = (0; − ) =⇒
5 2 3 3 0 2

76
Cette méthode est aussi appelée méthode de pivot et le coefficient ai1 est appelé pivot.
Pour des calculs à la main, on choisira de préférence le pivot le plus simple (le meilleur
étant 1 pour éviter les divisions). Si l’on utilise un ordinateur, il est recommandé de choisir
le plus grand pivot en valeur absolue pour diminuer l’influence des erreurs d’arrondies, on
parle alors de pivot maximum.
Il existe une autre variante de la méthode de pivot qui consiste à reduire l’ordre du
déterminant étape par étape pour en former une matrice triangulaire donc les éléments
situés au dessus de la diagonale principale sont tous nuls (matrice triangulaire inférieure).

d) Quelques théorémes sur le calcul des déterminants


Théoréme 1 :

Le déterminant de la transposée d’une matrice est égale au déterminant de la matrice.

Théoréme 2 :

Si tout les éléments d’une colonne (ou d’une ligne) d’un déterminant D sont multiples
d’un même facteur K, alors le nouveau déterminant est Dk = kD.

Théoréme 3 :

Si tout les éléments d’une colonne ou d’une ligne d’un déterminant D sont tous nuls
alors D = 0.

8.2.4 Inversion des matrices


Théoréme :

L’inversion A−1 d’une matrice carrée A existe si et seulement si detA 6= 0. A−1 est
alors unique et défini par :
1
A−1 = C oT ,
detA
où C oT est la transposée de C o = (Cijo ), Cijo étant le cofacteur de (aij ).

8.2.5 Valeurs propres et vecteurs propres


Soit la matrice carrée d’ordre n, A = (aij ) et l’équation vectorielle AX = λX où
λ est un nombre et X un vecteur de n composantes. Toute valeur de λ pour laquelle
l’équation admet une solution X 6= 0 est appelée valeur propre ou valeur caractéristique
de A. La solution correspondante est appelée vecteur propres ou vecteurs caractéristiques.
Un tel problème se rencontre dans de nombreuses applications notamment en physique de
vibrations et en mécanique de structure ou l’on recherche les modes propres de vibrations.
L’ensemble des valeurs propres est appelé spectre de A. Elles sont solutions de l’équation

77
caractéristique |A − λI| = 0. Il existe deux méthodes principales pour déterminer les
valeurs propres.
1. La premiére méthode permet de calculer les valeurs propres réelles, elle repose sur
le principe de décomposition d’une matrice carrée en un produit de deux matrices
triangulaires (l’une supérieur et l’autre inférieur). C’est le principe de décomposition
LU(Lower-Upper).
2. La deuxiéme tout à fait générale permet de déterminer toute les valeurs propres
réelles et imaginaires. Elle donne une expression explicite du polynôme caractéris-
tique en utilisant les relations de Newton relative à un polynôme. Ce polynôme peut
être résolu par les méthodes de résolution des équations algébriques non linéaires
(par la méthode de Newton–Raphson).

8.3 systèmes d’équations linéaires et méthode de Cra-


mer
8.3.1 Définition et cas particulier
On appelle système linéaire de n équations à n inconnues, l’équation matricielle :

AX = B, (8.1)

où A = (aij ), X et b sont des vecteurs colonnes :


   
x1 b1
 x2   b2 
X =  ..  et B =  ..
   

 .   . 
xn bn

– Si le vecteur B = ~0, le système est dit homogéne, sinon il est inhomogéne,


– Le système a la même propriété que sa matrice : système d’echelon, diagonal, dia-
gonale triangulaire.
– Le déterminant de A est le déterminant du système.

8.3.2 Méthode de Cramer


Aussi appelé méthode de déterminant, on l’utilisait le plus fréquemment avant l’ávéne-
ment des ordinateurs. Elle a été découverte en 1950 par la mathématicien Suisse Gabriel
Cramer et elle s’exprime par le théoréme suivant :

Théoréme de Cramer :

Si le déterminant D est non nul, le système (8.1) admet une solution définir par
Xk = DDk où Dk est le déterminant obtenu de D en remplaçant la colonne k par la colonne
des éléments du vecteur B.

78
8.4 Méthode de Gauss ou des éléminations successives
ou de pivot
8.4.1 Méthode d’élémination successive de Gauss
Présentation de la méthode

C’est une méthode utilisée depuis le 19e siécle. Elle a été systématisé par la mathé-
maticien Allemand Gauss en 1809 pour les besoins de la mécanique celeste. Son principe
est le suivant :
Les inconnues sont éliminées successivement en exprimant à partir d’une des équations
une inconnue en fonction des autres puis en substituant dans le reste des équations. On
peut ainsi d’un système de n équations à n équations à un système de n équations à
n − 1 inconnues. Le processus se poursuit jusqu’à l’obtention d’une équation à une seule
inconnue. On trouve alors cette derniére inconnue, et par le processus inverse, les autres
inconnues sont calculées. L’équation qui permet d’exprimer une inconnue en fonction des
autres est appelé équation pivotale.
Pour éviter les erreurs d’arrondies, l’équation pivotale doit être celle qui posséde le
plus grand coefficient de l’inconnue à éliminer. L’idée de cette méthode de Gauss peut
également s’exprimer de la maniére suivante : réduire le système matriciel AX = B en
un système triangulaire supérieur. Le système triangulaire peut alors se résoudre par un
processus inverse c’est-à-dire on trouve d’abord Xn , en suite Xn−1 , ainsi de suite jusqu’à
X1 .

Algorithme

Soit le système : 

 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

..


 .
 a x + a x + ··· + a x = b
n1 1 n2 2 nn n n

Désignons par Li la ligne numéro i.


pour i allant de 2 jusqu’à n
faire l’opération
ai1
Li ←− Li − L1
a11
On obtient le système :


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 0 + a0 x 2 + · · · + a0 x n = b 2

22 2n
..

 .
 0 + a0 x + · · · + a0 x = b

n2 2 nn n n


ai1
a0ij = aij − a1j
a11

79
et
ai1
b0i = bi −b1
a11
On continut le processus en considérant le système constitué des lignes 2 à n et ainsi
de suite jusqu’au système constitué de ligne n − 1 et n. Pour une étape k, c’est-à-dire en
considérant le système constitué des lignes k à n l’algorithme suivant peut être utilisé.
pour i allant de k + 1 à n
faire
aik
bi ←− bi − bk
akk
pour j=k à n
faire
aik
aij ←− aij − akj
akk
fin
fin
On peut ainsi en déduire l’algorithme de triangularisation du système d’équation en
faisant varier k de 1 à n − 1.

8.4.2 Résolution numérique des systèmes triangulaires


Généralement, on obtient un système triangulaire supérieur de la forme :

a11 a12 · · · · · ·
    
a1n x1 b1
 0 a22 · · · · · · a2n   x 2   b2 
 ..    
  x 3   b3 

 0 0 a33 · · · .  =


 . ..   ..   .. 
 .. · · · · · · · · · .  .   . 
0 0 ··· 0 ann xn bn

On résoud le système de la façon suivante :


On trouve d’abord la solution de la derniére équation, en suite on substitut à l’avant
derniére équation et il vient :
bn
xn = ; xn−1 = (bn−1 − an−1,n xn )/an−1,n−1 .
ann
En continuant le processus, la solution d’indice k est donnée par :

xk = (bk − ak,k+1 xk+1 − ak,k+2 xk+2 − · · · − ak,n xn )/ak,k .

ou sous la forme compacte


n
!
1 X
xk = bk − ak,l xl .
ak,k l=k+1

80
8.5 Méthode de Jordan
Elle est analogue à celle de Gauss, sauf qu’ici l’on met aussi égale à 0 les termes qui
se retrouvent au dessus de la diagonale principale.

8.5.1 Méthode de la décomposition triangulaire

Principe

Soit le problème AX = B. On peut de maniére unique décomposé la matrice A en 2


matrices triangulaires dont l’une est triangulaire inférieure avec les éléments quelconques
sur la diagonale et l’autre triangulaire supérieure avec tous les éléments diagonaux égaux
à 1. Soient L et S ces 2 matrices triangulaires. On a donc A = LS et le système devient

SX = L−1 B.

Ce dernier système est un système triangulaire que l’on peut résoudre par le schéma
précédent.

Décomposition de la matrice

On peut écrire L et S sous la forme :


   
l11 0 0 ... 0 1 s12 s13 . . . s1n
 l21 l22 0 . . . 0   0 1 s23 . . . s2n 
   
L =  l31 l32 l33 . . . 0  et S= 0 0 1 . . . s3n
  
 
 .. .. .. . .   .. .. .. .. 
 . . . . 0   . . . . 0 
ln1 ln2 ln3 . . . lnn 0 0 0 ... 1

L’équation LS = A entraîne par identification les éléments suivants :


 
aj1 = lj1 , pour 1 ≤ j ≤ n aj2 = lj1 s12 + lj2 , pour 2 ≤ j ≤ n
a1,j = l11 s1j , pour 2 ≤ j ≤ n a2,j = l21 s1j + l22 s2j , pour 3 ≤ j ≤ n,

aj3 = lj1 s13 + lj2 s23 + lj3 , pour 3 ≤ j ≤ n
a3,j = l31 s1j + l32 s2j + l33 s3j , pour 4 ≤ j ≤ n,

aj,n−1 = lj1 s1,n−1 + lj2 s2,n−1 + . . . + lj,n−2 sn−2,n−1 + lj,n−1 , pour n − 1 ≤ j ≤ n
an−1,j = ln−1,1 s1j + ln−1,2 s2j + . . . + ln−1,n−1 sn−1,j , pour j = n.

Avec ces équations, on obtient les éléments de la premiére colonne de L puis ceux de la
premiére ligne de S ensuite ceux de la deuxiéme colonne de L et ceux de la deuxiéme ligne
de S et ainsi de suite. On obtient alors les éléments suivants qui permettent de calculer

81
les coefficients lij et sij . On a


 lj1 = aj1 ,
s1,j = a1j /l11 ,




lj2 = aj2 − lj1 s2j ,




s2j = (a2j − l21 s1j )/l22 ,




lj3 = (aj3 − l31 s1j − l32 s2j )/l33 ,



 ..


.
 n−2
P


 l j,n−1 = a j,n−1 − ljk sk,n−1 ,
k=1



  n−1

 P



 sn−1,j = an−1,j − ln−1,k skj /ln−1,n−1 ,

 k=1

 n−1
P
 lnn = ann − lnk skn .


k=1

8.6 Méthode par inversion des matrices


Le système matriciel AX = B admet pour solution X = A−1 B. Il s’agit alors de
trouver A−1 et le multiplié par le vecteur B.

8.7 Méthodes itératives


8.7.1 Préliminaires
Les méthodes directes (méthode de déterminant et par élimination sucessive) sont
trés utiles et appropriés pour les systèmes de taille moyenne. Pour de systèmes de grandes
tailles, les méthodes directes sont adéquates car elle demanderait beaucoup d’espace à
la mémoire de l’ordinateur et un temps trés grand. Il faut alors utiliser les méthodes
itératives qui sont trés facile, rapide en calcul et facile à programmer. Cependant, ces
méthodes sont non exactes. Elles sont basées car le principe de calcul de suite infinie,
suite qui faudra troncer à partir d’un certain rang. Ce qui entraînerait des résultats assez
précis, il faut que chacune des équations du système posséde un coefficient trés grand
devant tout les autres.
La résolution se fait alors en exprimant l’inconnu ayant le plus grand coefficient en
fonction des autres inconnus. Deux problèmes importants se posent quand on veut utiliser
les méthodes itératives : Le choix des valeurs initiales et la condition d’arrêt c’est-à-dire
le nombre maximal d’itération necessaire pour obtenir la solution la plus précise. Pour le
choix des valeurs initiales, on donne généralement les valeurs 1 ou 0 à toute les inconnus.
(k)
Pour la condition d’arrêt, on peut arreter le processus d’itération lorsque les itérés xi et
(k+1)
xi obtenus aprés k et k + 1 itérations respective satisfont à une condition de la forme :
(k+1) (k)
|xi − xi | < 

82
où  est un infiniment petit dépendant de la matrice A des éléments aii , bi et des valeurs
initiales de X.

8.7.2 Méthodes de Jacobi et Gauss-seidel


Avec cette méthode on peut résoudre des systèmes non-linéaires (et à fortiori on peut
résoudre les systèmes linéaires). C est une méthode itérative, facile à mettre en uvre et
rapide. Son principe : On devine une solution du système, on exprime l’inconnue xi de la
ligne i en fonction des autres inconnus. On obtient alors :

xi = [bi − ai1 x1 − ai2 x2 − · · · − ai,i−1 xI−1 − ai,i+1 xi+1 + · · · + ain xn ]/aii .

Ceci sugére que les valeurs connues de x1 , x2 , · · · , xi , xi+1 , · · · , xn soient substitués pour
trouver xi . La formule d’itération de Jacobi est alors la suivante :
(k+1) (k) (k) (k) (k)
xi = [bi − ai1 x1 − ai2 x2 − · · · − ai,i−1 xi−1 − ai,i+1 xi+1 + · · · + ain x(k)
n ]/aii , (8.2)

ou sous la forme compact :


n
!
(k+1)
X (k)
xi = bi − aij xj /aii , (8.3)
j=1 ,j6=i

(k)
où xi sont les valeurs des inconnues obtenues aprés k itérations.
(k+1)
Dans la formule de Gauss-Seidel, les valeurs xj pour j ≤ i−1 sont utilisées aussitôt
(k+1)
qu’elles sont déterminées pour calculer xi .
La formule itérative de Gauss-Seidel se met sous la forme
(k+1) (k+1) (k+1) (k+1) (k+1)
xi = [bi −ai1 x1 −ai2 x2 −· · ·−ai,i−1 xi−1 −ai,i+1 xi+1 +· · ·+ain xn(k+1) ]/aii , (8.4)

ou sous la forme compact


i−1 n
!
(k+1)
X (k+1)
X (k)
xi = bi − aij xj − aij xj /aii . (8.5)
j=1 j=i+1

Remarque 8.1 : Les deux méthodes sont importantes car ils existent les systèmes d’équa-
tions pour lesquels la méthode de Jacobi converge tandis que la méthode de Gauss-Seidel
ne converge pas et vis.versa.

83
8.8 Exercices
Exercice 8.1 : Un rayonnement électromagnétique traversant une solution contenant
plusieurs solutés s1 , s2 , s3 , · · · , sn est absorbé selon la loi de Beer suivante : A = ni=1 ki (λ)ci ,
P

où A est appelé absorbance du rayonnment ou de la solution, λ longueur d’onde du rayon-


nement, ci concentration molaire du soluté si , ki est un coefficient dependant de la longueur
d’onde. On se propose de déterminer les concentrations c1 , c2 , c3 , c4 dans une solution
contenant 4 solutés. Pour celà on posséde ainsi :
– On détermine expérimentalement les coefficients ki (λ) pour diverses valeurs de λ
en mesurant l’absorbance d’un rayonnement de longueur d’onde λ par une solution
contenant uniquement le soluté si avec une concentraction connue.
– On mesure l’absorbance A(λ) de ce même rayonnemnt par la solution étudiée.
Les résultats de cette mesure sont donnés dans le tableau suivant :

λ(µm) K1 (λ) K2 (λ) K3 (λ) K4 (λ) A(λ)


13,5 2,2530 0.0771 0.000 0.0612 0.1581
13.0 0.0392 1.7274 0.000 1.236 0.1634
13.4 0.0512 0.0533 3,7980 0,4400 0.3823
14.3 0.0510 0.1025 0.000 0.5205 0.0642

Ecrire un algorithme qui utilise la méthode de pivot pour trouver les concentrations c1 , c2 , c3 .c4 .

Exercice 8.2 : Ecrire un algorithme pour la résolution d’un système d’équations linéaires
par la méthode Jacobi.

Exercice 8.3 : Ecrire un algorithme pour la résolution d’un système d’équations linéaires
par la méthode de Gauss Seidel.

84
Chapitre 9

Intégration numérique des équations


différentielles

Le présent chapitre est destiné à la résolution numérique des équations différentielles


ordinaires. Nous donnerons quelques méthodes numériques de la résolution du problème
de Cauchy pour les équations différentielles ordinaires. On illustrera les propriétés de ces
méthodes et estimera leurs erreurs.

9.1 Généralités

9.2 Quelques premières définitions

Définition 9.1 : Une équation différentielle d’ordre m est une expression de la forme :

f (x, y, y 0 , y 00 , . . . , y (m) ) = 0, (9.1)

où f : U → R, U ouvert de R × (Rn )m+1 . Ici y ne dépend que d’une seule variable


x, on parle d’équation différentielle ordinaire. Lorsqu’il y a plusieurs variables, on parle
d’équation aux dérivées partielles.
On dit qu’une équation est sous la forme normale si elle s’écrit

y 0 = f (x, y), (9.2)

avec f : U → Rn , U ⊂ R × (Rn )n+1 , y 0 = (y10 , y20 , . . . , yn0 ). C’est ce type d’équation que l’on
va traiter dans ce chapitre.

Définition 9.2 : Une solution de (9.2) sur un intervalle I ⊂ R est une fonction dérivable
y : I → Rn telle que
1. ∀x ∈ I, (x, y(x)) ∈ U ;
2. ∀x ∈ I, y 0 = f (x, y(x)).

85
Définition 9.3 1. L’ensemble {(x, y(x)), t ∈ I} est appelé trajectoire de la solution.
2. L’ensemble {y(x), x ∈ I} est appelé orbite de la solution.

Si on écrit = (y1 , y2 , . . . , yn ) et f = (f1 , f2 , . . . , fn ), alors (9.2) est un système différentiel


du premier ordre à n fonctions inconnues y1 , y2 , . . . , yn ) :


 y10 (x) = f1 (x, y1 , y2 , . . . , yn ),




0
 y2 (x) = f2 (x, y1 , y2 , . . . , yn ),



(9.3)
 ..



 .



 y 0 (x) = f (x, y , y , . . . , y ).

n n 1 2 n

9.2.1 Problème de Cauchy

Définition 9.4 (Problème de Cauchy) : Etant donné un point (x0 , y0 ) ∈ U , le pro-


blème de Cauchy consiste à trouver une solution y : I → Rn de (9.2) sur un intervalle I
contenant x0 dans son intérieur, telle que y(x0 ) = y0 .

Souvent, la variable x représente le temps et y = (y1 , y2 , . . . , yn ) est une famille de


paramétres décrivant l’état d’un système matériel donné.

9.3 Résolution du problème de Cauchy à l’aide de la


formule de Taylor
Une des méthodes élémentaires par sa description de résolution du problème de Cauchy
pour les équations différentielles ordinaires est basée sur l’utilisation de la formule de
Taylor. Soit à trouver sur le segment [x0 , x0 + X] la solution de l’équation différentielle
ordinaire du premier ordre
y 0 = f (x, y), (9.4)
qui vérifie la condition initiale y(x0 ) = y0 ; f (x, y) étant une fonction analytique au point
(x0 , y0 ), i.e., qui peut se mettre sous la forme

X
f (x, y) = aij (x − x0 )i (y − y0 )j ,
i,j=0

dans un certain voisinage du point (x0 , y0 ). En différentiant (9.4) par rapport à x, on


obtient
y 00 = fx (x, y) + fy (x, y)y 0 ,

y 000 = fxx (x, y) + 2fxy (x, y)y 0 + fyy (x, y)y 02 + fy (x, y)y 00 , ...

86
En inserant x = x0 , y = y0 dans (9.4) et les relations précédentes, on trouve les valeurs
y 0 (x0 ), y 00 (x0 ), y 000 (x0 ), ...
Alors on peut écrire l’approximation
n
X y (i) (x0 )
y(x) ≈ (x − x0 )i . (9.5)
i=0
i!
Si | x − x0 | est plus grande que le rayon de convergence de la série

X y (i) (x0 )
(x − x0 )i ,
i=0
i!
alors l’erreur de la formule (9.5) ne tendra pas vers zéro quand n → ∞ et la méthode ne
sera pas applicable.
Le plus souvent on procède de la façon suivante. On divise le segment [x0 , x0 + X]
en des segments éléméntaires [xj−1 , xj ], j = 1, 2, . . . , N . On obtiendra successivement les
valeurs approchées y(xj ), j = 1, 2, . . . , N , suivant la règle suivante. Supposons la valeur
(i)
yj déjà trouvée, et calculons au point xj les dérivées yj de la solution de l’équation
différentielle (9.4), passant par le point (xj , yj ), i.e., yj (xj ) = yj . Sur le segment [xj , xj+1 ]
on a
n (i)
X yj
y(x) ≈ zj (x) = (x − xj )i , (9.6)
i=0
i!
et prenons
yj+1 = zj (xj+1 ). (9.7)
Etudions le cas où xj+1 − xj ≡ h. Si jamais la valeur de yj coïncidait avec la solution
exacte y(xj ), alors l’erreur commise en prenant zj (xj+1 ) à la place de yj+1 serait de l’ordre
de O(hn+1 ). Puisque nous introduisons l’erreur en O(h−1 ) sur les segments, alors on peut
s’attendre à avoir
max | yj − y(xj) |= O(hn ),
1≤j≤N

quand on diminue le pas h du réseau.


Exemple 9.1 : Trouver les trois premiers termes de la série de Taylor de la solution du
y−x
problème de Cauchy y 0 = , y(0) = 1.
y+x
Solution : On a
x2
y(x) = y(0) + y 0 (0)x + y 00 (0) .
2
y(0) − 0
L’équation donne directement y 0 (0) = = 1 par la suite,
y(0) + 0
(y 0 − 1)(y + x) − (y 0 + 1)(y − x) 

00
y (x)|x=0 =  = −2.
(y + x)2 
x=0
Alors
y(x) ≈ 1 + x − x2 .

87
9.4 Méthode de Runge-Kutta
Dans le cas particulier où n = 1, la formule (9.6) de la section précédente prend la
forme suivante :
yj+1 = y(xj+1 ),

= yj + yj0 .(xj+1 − xj ),

= yj + hf (xj , yj ), h = xj+1 − xj ,
i.e.,
yj+1 = yj + hf (xj , yj ), h = xj+1 − xj . (9.8)
Cette méthode s’appelle méthode d’Euler.
L’algorithme suivant peut être utiliser :
Données de x0 , y0
y ←− y0 ; x ←− x0
Pour k allant de 1,n
faire
y ←− y + hf (x, y)
x ←− x + kh ou x ←− x + h
fin pour
ecrire (x,y)
On peut construire une autre classe de formules de calcul contenant la méthode d’Eu-
ler. Supposons connue la valeur de y(x) et proposons nous de trouver y(x+h). Considérons
l’égalité : Z h
y(x + h) = y(x) + y 0 (x + t)dt. (9.9)
0

En changeant l’intégrale à droite de cette égalité en hy 0 (x) l’erreur sera de l’ordre de


O(h2 ), i.e.,
y(x + h) = y(x) + hy 0 (x) + O(h2 ).
Puisque y 0 (x) = f (x, y(x)), on obtient

y(x + h) = y(x) + hf (x, y(x)) + O(h2 ).

En ignorant le terme O(h2 ) et en posant x = xj , x + h = xj+1 , nous obtenons le schéma


de calcul d’Euler (9.8). Pour obtenir une formule de calcul plus exacte il faut que la valeur
approchée de l’intégrale à droite de (9.9) soit plus exacte. Utilisant la formule des trapèzes,
nous obtenons
h
y(x + h) = y(x) + (y 0 (x) + y 0 (x + h)) + O(h3 ),
2
autrement dit,
h
y(x + h) = y(x) + (f (x, y(x)) + f (x + h, y(x + h))) + O(h3 ). (9.10)
2
88
La formule de calcul correspondante est
h
yj+1 = yj + (f (xj , yj ) + f (xj+1 , yj+1 )) (9.11)
2
La formule (9.11) s’appelle formule de calcul d’Adams du second ordre de précision.
Dans certain cas, quand f est linéaire suivant y, cette équation peut être résolue par
rapport à yj+1 . Généralement, cette équation ne peut pas être résolue par rapport à yj+1 ,
et c’est pourquoi il nous faut continuer la transformation de l’algorithme. Changeons
y(x + h) figurant à droite de (9.10) en une quantité

y ∗ = y(x + h) + O(h2 ). (9.12)

Alors, le second terme à droite de (9.10) devient


h h
(f (x + h, y ∗ ) − f (x + h, y(x + h))) = fy (x + h, ȳ)(y ∗ − y(x + h)),
2 2
où ȳ se trouve entre y ∗ et y(x + h). Ainsi à l’aide de (9.12) nous obtenons la relation
h
y(x + h) = y(x) + (f (x, y(x)) + f (x + h, y ∗ )) + O(h3 ).
2
La condition (9.12) vérifie le résultat du calcul par la formule d’Euler

y ∗ = y(x) + hf (x, y(x)).

Ces dernières relations définissent une paire de schéma de calcul



yj+1 = yj + hf (xj , yj ),
(9.13)
h ∗
yj+1 = yj + 2
(f (xj , yj ) + f (xj+1 , yj+1 )).

Remarque 9.1 : La formule (9.13) est équivalente à (9.11) et s’appelle aussi formule de
calcul d’Adams.

Pour des valeurs très petites de h, nous pouvons résoudre (9.11) par la méthode d’itéra-
tion :
k+1 h k
yj+1 = yj + [f (xj , yj ) + f (xj+1 , yj+1 )]. (9.14)
2
0
Si yj+1 est calculé par la formule d’Euler :
0
yj+1 = yj + hf (xj , yj ),
1
alors yj+1 obtenue au premier pas de l’itération coïncide avec yj+1 , obtenue par la formule
(9.13) :
0
yj+1 = yj + hf (xj , yj ),

1 h 0
yj+1 = yj + [f (xj , yj ) + f (xj+1 , yj+1 )].
2
89
2
Par la suite, on trouve yj+1 , et ainsi de suite.
Construisons une autre paire de formule de calcul avec une erreur de même ordre
sur le pas. Donnons l’approximation de l’intégrale à droite de (9.9) par la formule des
rectangles :  
0 h
y(x + h) = y(x) + hy x + + O(h3 ),
2
ou encore, ce qui revient au même,
  
h h
y(x + h) = y(x) + hf x + , y x + + O(h3 ).
2 2

Si  
∗ h
y =y x+ + O(h2 ),
2
alors comme dans le cas précédent, on aura
 
h ∗
y(x + h) = y(x) + hf x + , y + O(h3 ).
2

En qualité de y ∗ on peut prendre le résultat obtenu par la formule d’Euler avec comme
h
pas :
2
h
y ∗ = y(x) + f (x, y(x)).
2
A ces relations correspond la paire de schéma de calcul suivant :
h
yj+ 1 = yj + f (xj , yj ),
2 2
  (9.15)
h
yj+1 = yj + f xj + , yj+ 1 .
2 2

Les méthodes obtenues (formule de calcul d’Euler (9.8), la formule de calcul d’Adams
(9.11) ou (9.13) et la formule de calcul (9.15) se rapportent à la famille des méthodes de
Runge-Kutta. Nous entendrons par formule de calcul de Runge-Kutta, la formule (9.15).

Exemple 9.2 : Trouver par la méthode d’Euler les quatre premières valeurs de la fonction
y(x), solution du problème de Cauchy
y−x
y0 = , y(0) = 1,
y+x
en prenant pour pas h = 0.1.
Solution : Nous cherchons les dites valeurs suivant la formule :

yj+1 = yj + hf (xj , yj ), h = xj+1 − xj = 0.1

90
y−x
Puisque h = 0.1, alors xj = x0 + jh = 0.1j. D’autre part f (x, y) = . Alors
y+x
y0 = y(0) = 1, y1 = y0 + hf (x0 , y0 ) = 1 + 0.1f (0.1) = 1.1,

1.1 − 0.1
y2 = y1 + hf (x1 , y1 ) = 1.1 + 0.1f (0.1, 1.1) = 1.1 + 0.1 = 1.183,
1.1 + 0.1
1.183 − 0.2
y3 = y2 + hf (x2 , y2 ) = 1.183 + 0.1f (0.2, 1.183) = 1.183 + 0.1 = 1.254,
1.183 + 0.2
1.254 − 0.3
y4 = y3 + hf (x3 , y3 ) = 1.254 + 0.1f (0.3, 1.254) = 1.254 + 0.1 = 1.315.
1.254 + 0.3
Ainsi,

y(0) = 1, y(0.1) = 1.1, y(0.2) = 1.183, y(0.3) = 1.254, y(0.4) = 1.315.

9.5 Méthode des approximations successives


L’une des méthodes de résolution numérique du problème de Cauchy pour les équa-
tions différéntielles est la méthode de Picard encore appelée méthode des approximations
successives. Soit à résoudre le problème de Cauchy suivant :

y 0 = f (x, y), y(x0 ) = y0 . (9.16)

En intégrant les deux membres de (9.16) sur un segment d’extrémité x0 et x, nous obtenons
Z x
y(x) = y(x0 ) + f (t, y(t))dt. (9.17)
x0

Supposons
 que dans un certain voisinage du point (x0 , y0 ) la fonction f (x, y) est continue
 ∂f 
et que  ∂y  ≤ K, i.e., que la dérivée partielle du premier ordre de f par rapport à y est

bornée dans le dit voisinage. Alors, dans un certain voisinage du point x0 le, probleme
de Cauchy (9.16) possède une et une seule solution. Cette solution est équivalente à la
solution de l’équation (9.17) (c’est une équation intégrale car l’inconnue y se trouve sous
le signe intégrale). En effet, si ϕ(x) est une solution du problème de Cauchy (9.16), i.e.,
ϕ0 (x) = f (x, ϕ(x)) et ϕ(x0 ) = y0 , alors
Z x Z x
0
ϕ (t)dt = f (t, ϕ(t))dt.
x0 x0

Mais, Z x
ϕ0 (t)dt = ϕ(x) − ϕ(x0 ) = ϕ(x) − y0 ,
x0
et par suite Z x
ϕ(x) = y0 + f (t, ϕ(t))dt,
x0

91
ce qui revient à dire que y = ϕ(x) est une solution de (9.17).
Rx
Soit maintenant y = ϕ(x) une solution de (9.17), i.e., ϕ(x) = y0 + x0 f (t, ϕ(t))dt. Alors
Rx
y(x0 ) = ϕ(x0 ) = y0 . En dérivant membre à membre l’égalité ϕ(x) = y0 + x0 f (t, ϕ(t))dt
par rapport à x, on aura ϕ0 (x) = f (x, ϕ(x)) et ϕ(x0 ) = y0 . Par conséquent, y = ϕ(x) est
une solution du problème de Cauchy (9.16).
pour obtenir la suite des approximations du problème de Cauchy (9.16), donnons à
l’inconnue y dans (9.17) une valeur connue y0 , nous obtenons la première approximation :
Z x
y1 = y0 + f (t, y0 )dt.
x0

En remplaçant dans (9.17) l’inconnue y par y1 , nous obtenons la deuxième approximation :


Z x
y2 = y0 + f (t, y1 (t))dt.
x0

Ainsi de suite, nous obtenons la suite de fonctions {yn (x)} définie par
Z x
yn (x) = y0 + f (t, yn−1 (t))dt, n = 2, 3, . . .
x0

appelée suite des approximations successives du problème de Cauchy (9.16).


Ainsi Z x
y(x) ≈ yn (x) = y0 + f (t, yn−1 (t))dt.
x0

En théorie des équations différentielles ordinaires, les approximations successives {yn (x)}
converge vers la solution y(x) du problème de Cauchy dans un voisinage |x − x0 | ≤ a du
point x0 . On montre aussi que l’erreur de la méthode est estimée par

M (Kc)n
|y(x) − yn (x)| ≤ ,
Kn!
où  
b
|f (x, y)| ≤ M, |y − y0 | < b ≤ pm∞, c = min a, .
M
Exemple 9.3 : Donner les deux premières approximations de la solution du problème de
Cauchy y 0 = x + y 2 , y(0) = 1.

Solution : Pour cet exemple, f (x, y) = x + y 2 , x0 = 0, y0 = y(0) = 1. Alors


Rx Rx 1
y1 (x) = = y0 + x0
f (t, y0 )dt = 1 +(t + 1) = 1 + x + x2 ,
0
2
Rx Rx
y2 (x) = y0 + x0 f (t, y1 (t))dt = 1 + 0 [t + (1 + t + t2 /2)]dt,

3 2 1 1
= 1 + x + x2 + x3 + x4 + x5 .
2 3 4 20

92
9.6 Exercices
Exercice 9.1 : Trouver par la méthode d’Euler les valeurs de y(x) (trois), solution du
problème de Cauchy y 0 = 1 + x + y 2 , y(0) = 1, en prenant h = 0.1.

Exercice 9.2 : Trouver par la méthode d’Euler quatre valeurs de y, solution du problème
de Cauchy y 0 = x2 + y 2 , y(0) = 0, en prenant h = 0.1.

Exercice 9.3 : Trouver par la méthode d’Euler quatre valeurs de y, solution du problème
y
de Cauchy y 0 = + y 2 , y(2) = 4, en prenant h = 0.1.
x
Exercice 9.4 : Trouver par la méthode d’Euler quatres valeurs de y, solution du problème
(x + y)(1 − xy)
de Cauchy y 0 = , y(0) = 1 sur [0, 1], en prenant h = 0.2.
x + 2y

Exercice 9.5 : Résoudre par la méthode de Runge Kutta le problème de Cauchy x2 y 0 −


xy = 1, y(1) = 0 sur [1, 2] avec h = 0.2.

Exercice 9.6 : Résoudre par la méthode de Runge Kutta le problème de Cauchy 4y 0 =


y 2 + 4x2 , y(0) = 1 sur [0, 1] avec h = 0.1.

Exercice 9.7 : Résoudre par la méthode de Runge Kutta le problème de Cauchy y 0 =


x 1
+ y, y(0) = 1 sur [0, 1] avec h = 0.1.
y 2

Exercice 9.8 : Calculer par la méthode d’Adams y(0.5), où y(x) est la solution du pro-
blème de Cauchy y 0 = x + y, y(0) = 1 en prenant h = 0.1.

Exercice 9.9 : Trouver les trois premières approximations de la solution du problème de


Cauchy y 0 = x2 + y 2 , y(0) = 0.

Exercice 9.10 : Trouver la solution approchée du problème de Cauchy y 0 = x − y, y(0) =


1, x ≥ 0.

Exercice 9.11 : Ecrire un algorithme pour la méthode de Runge-Kutta d’ordre 2.

Exercice 9.12 : Estimez la trajectoire d’une planète en orbite circulaire autour d’une
étoile, par la méthode d’Euler, en utilisant differents pas d’intégration. Comparez à la
solution exacte.

Exercice 9.13 : Ecrire un algorithme pour la méthode d’Adams.

Exercice 9.14 : Ecrire un algorithme pour la méthode des approximations successives.

93
Bibliographie

[1] S. Guerre-Delabrière, M. Postel, Méthodes d’approximation : Equations différen-


tielles, Applications Scilab, niveau L3, ellipses, 2003.
[2] E. Kengne, Calcul Scientifique, Université de Dschang, 2001.
[3] P. Woafo, Cours de Calcul Numérique, Université de Yaoundé I, 2006.
[4] N. Piskounov, Calcul différentiel et intégrale, Tome II, 9e édition, Editions Mir 2,
Pervi Rijski péréoulok, Moscou, I-110, GSR, URSS.
[5] S. Bénazeth, M. Boniface, C. Demarquilly, V. Lasserre, M. Lemdani, I. Nicolis, Bio-
mathématiques : Analyse, Algèbre, Probabilités, Statistiques, Cours+exos, Masson,
Paris, 2001.
[6] P. Danko, A. Popov, T. Kogevnikova, Exercices et problèmes des mathématiques
supérieures, première partie, Deuxième édition révisée et complétée, Editions MIR,
MOSCOU.
[7] P. Faure, J. D. Astier, B. Bouchon, Analyse et Algèbre, Tome 1, Nathan ;
[8] R. Couty, J. Ezra, Analyse, Troisième édition, Armand Colin.
[9] P. Doukhan, J. C. Sifre, Cours d’analyse : Analyse réelle et intégration, Dunod.
[10] D. Degrave, C. Degrave, H. Muller, Précis de mathématiques, Analyse 1, Bréal.
[11] N. Noutchegueme, G. Nguetseng, F. Wamon, Exercices d’analyse avec rappel de
cours, Collection Aser.

94

Vous aimerez peut-être aussi