Vous êtes sur la page 1sur 74

CALCUL NUMERIQUE Ir Eric KAUND

PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

CONTENU D’APPRENTISSAGE

INTRODUCTION GENERALE AU CALCUL SCIENTIFIQUE

Chapitre Premier : ANALYSE D’ERREURS

Chapitre Deuxième : RESOLUTION DES SYSTEMES D’EQUATIONS LINEAIRES

Chapitre Troisième : RESOLUTION DES EQUATIONS ET SYSTEMES NON


LINEAIRES

Chapitre Quatrième : L’INTERPOLATION DES FONCTIONS

Chapitre cinquième : MEILLEURE APPROXIMATION AU SENS DE MOINDRES


CARRES ORDINAIRES

Chapitre Sixième : LA QUADRATURE

Page 1 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

OBJECTIFS DU COURS
Le but du cours de calcul numérique est d'étudier des méthodes numériques pour la
résolution des modèles mathématiques utilisés dans les sciences de l'ingénieur.
A la fin du cours, l'étudiant devrait être capable:
 de comprendre les notions de base d'analyse numérique
 de faire un bon choix de méthodes numériques pour résoudre un problème donné.
 de savoir calculer une solution approchée d'une équation et d'un système d'équations
non linéaires.
 de savoir calculer une solution approchée d'un système d'équations linéaires par les
méthodes directes et itératives.
 d'interpoler une suite de points du plan.
 d'approcher numériquement les dérivées d'une fonction donnée.
 d'approcher numériquement le calcul d'une intégrale définie.
Une méthode numérique présente des bénéfices aussi bien que des inconvénients par rapport
à une solution analytique.
 Les avantages tiennent au fait :
 qu’une solution numérique peut être obtenue aussi lorsqu’aucune solution
analytique n’est disponible,
 que la décomposition d’une méthode numérique en une longue série
d’opérations arithmétiques élémentaires s’avère être facilement gérable par un
ordinateur,
 qu’une solution analytique, même si elle est disponible, requiert une
évaluation numérique, qui en pratique, revient à une reformulation du
problème original, cette fois sous forme explicite. Cette formule analytique
peut bien être pire conditionnée que la formulation originale, implicite.
A son détriment, il faut mentionner que l’analyse et l’étude d’une solution numérique sont
typiquement plus coûteuses.

Page 2 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

INTRODUCTION GENERALE AU CALCUL SCIENTIFIQUE


On peut définir le CALCUL SCIENTIFIQUE comme la discipline qui permet de reproduire
sur un ordinateur un phénomène ou un processus décrit par un modèle mathématique.

L’ordinateur est aujourd’hui un outil incontournable pour simuler et modéliser des systèmes
complexes, mais il faut encore savoir exprimer nos problèmes (physiques, économiques,
biologiques. . .) en langage formalisé des mathématiques pures sous la forme d’équations
mathématiques (différentielles, intégrales. . .). Nous sommes habitués à résoudre les
problèmes de façon analytique, alors que l’ordinateur ne travaille que sur des suites de
nombres. On verra qu’il existe souvent plusieurs approches pour résoudre un même
problème, ce qui conduit à des algorithmes différents. Un des objectifs de ce cours est de
fournir des bases rigoureuses pour développer quelques algorithmes utiles dans la résolution
de problèmes en mathématique, économie, physique. . .
Un algorithme, pour être utile, doit satisfaire un certain nombre de conditions. Il doit être :
rapide : le nombre d’opérations de calcul pour arriver au résultat escompté doit être aussi
réduit que possible ;
Précis : l’algorithme doit savoir contenir les effets des erreurs qui sont inhérentes à tout
calcul numérique (ces erreurs peuvent être dues à la modélisation, aux données, à la
représentation sur ordinateur ou encore à la troncature) ;
Souple : l’algorithme doit être facilement transposable à des problèmes différents.

Page 3 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Le choix et l’optimisation des algorithmes numériques mis en pratique sont absolument


cruciaux tant pour les calculs de type industriel souvent très répétitifs et devant donc
pouvoir être exécutés en un temps très court, que pour les calculs de référence pour lesquels
la seule limite est la patience de celui qui les fait. Par exemple, en fluidodynamique, en
laissant tourner une station de travail pendant quelques jours, les numériciens résolvent des
systèmes frisant le milliard d’inconnues. L’expérience montre qu’entre une approche
numérique standard et une approche soigneusement réfléchie et optimisée un gain de temps
de calcul d’un facteur 100, voire davantage, est souvent observé. Il est clair qu’on peut
passer ainsi, grâce à cet effort, d’un calcul totalement déraisonnable à un calcul parfaitement
banal : tout l’enjeu de l’analyse numérique est là ! C’est dire l’importance pour tous
scientifique de bien connaître ces méthodes, leurs avantages et leurs limites.

Page 4 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Chapitre Premier :
ANALYSE D’ERREURS
I.1. INTRODUCTION
 Chaque analyse numérique doit se confronter avec une certaine dose d’erreurs.
 Qu’est-ce qu’une erreur ?
 D’où viennent les erreurs ?
 Quelles conséquences ont-elles ?
 Comment analyser leurs effets ?
I.2 NOMBRE APPROCHE
Un nombre approché 𝑿 ̂ est un nombre légèrement différent du nombre exact X et qui
dans le calcul remplace ce dernier.
̂ <𝑿,𝑿
Si l’on sait que 𝑿 ̂ est dit valeur approchée du nombre 𝑿 par défaut ;
̂ > 𝑿 , est une valeur approchée par excès.
si 𝑿
Soit 𝑿̂ < 𝑿 . Le nombre est une valeur approchée par défaut, alors que le nombre
̂ = 𝟏. 𝟒𝟐 est une valeur approchée par excès.
𝑿
̂ est une valeur approchée de 𝑿 on note 𝑿
Si 𝑿 ̂≈𝑿

I.3 ERREUR ABSOLUE


Définition On appelle erreur absolue 𝜹𝑿 d’un nombre approché 𝑿 ̂ la valeur absolue de la
différence entre le nombre exact 𝑿 correspondant et le nombre approché donné 𝛿𝑋 =
|𝑋̂ − 𝑋|.
̂
Définition L’écart relatif d’un nombre approché 𝑿 ̂ est le rapport 𝜌𝑋 = 𝑋−𝑋.
𝑋
̂ = 𝑿(𝟏 + 𝜌𝑋 ).
Cette relation peut aussi être écrite sous la forme 𝑿
I.4 ERREUR RELATIVE
Définition : L’erreur relative 𝜀𝑋 d’un nombre approché 𝑿 ̂ est la valeur absolue de l’écart
relatif, c’est-à-dire le rapport de l’erreur absolue de ce nombre et du module du nombre
̂ −𝑿
𝑿 𝛿
𝑋
exact correspondant (si 𝑋 ≠ 0) 𝜀𝑋 = |𝜌𝑋 | = | | = |𝑋| .
𝑋
L’erreur relative fournit une information plus pertinente sur la grandeur réelle de l’erreur.
Cependant, elle n’est définie que pour 𝑿 ≠ 𝟎.

Définition : La borne supérieure d’erreur relative 𝜇 d’un nombre approché 𝑿 ̂ donné est un
nombre quelconque supérieur ou égal à l’erreur relative de ce nombre 𝜀𝑋 = |𝜌𝑋 | ≤ 𝜇.

Page 5 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

I.5 SOURCES D’ERREURS


I.5.1 ERREURS DE MODELISATION
Les erreurs commises dans les problèmes mathématiques peuvent être en principe classées
en cinq catégories. Les deux premiers types d’erreur sont regroupés sous le nom d’erreurs
de modélisation tandis que les trois derniers sont appelés erreurs numériques.
 Erreurs de modèle

Ces erreurs sont dues au fait que les modèles mathématiques sont plus ou moins idéalisés,
ce qui donne lieu à plusieurs erreurs. Un exemple est l’erreur du modèle du pendule qui ne
tient pas en considération la force de friction.
 Erreurs de mesure

Ces erreurs sont dues à la présence dans le modèle mathématique de paramètres numériques
dont les valeurs ne peuvent être observées ou déterminées qu’approximativement suite à des
mesures expérimentales. Telles sont toutes les constantes physiques, comme, par exemple,
la longueur dans le modèle du pendule.
I.5.2 ERREURS NUMERIQUES
Erreurs d’approximation ou de troncature : ces sont les erreurs associées aux processus
infinis en analyse mathématique (par exemple les séries numériques).

Erreurs d’arrondi : ce sont les erreurs associées au système de numération. Elles sont dues
au fait qu’un ordinateur ne peut prendre en considération qu’un nombre fini de chiffres.
Erreurs de propagation et génération : ces sont les erreurs qui apparaissent dans le résultat
d’une opération comme conséquence des erreurs des opérandes.
Dans ce qui suit nous allons nous intéresser aux deux derniers types d’erreur.
I.6 REGLES DE CALCUL D’ERREURS
Propriétés fondamentales de l’opérateur accroissement
Etudions l’accroissement d’une fonction y = f(x) lorsqu’il y a accroissement de la variable
x.

Page 6 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Cas d’une fonction à une variable

Y=f(x)

Y+Dy

Dy

X DX X+DX

∆𝑦 = 𝑓(𝑥 + ∆𝑥) − 𝑓(𝑥)

Cas d’une fonction à deux variables

∆𝑦 = 𝑓 (𝑢 + ∆𝑢, 𝑣 + ∆𝑣 ) − 𝑓(𝑢, 𝑣)

En généralisant avec une fonction à plusieurs variables :

∆𝑦 = 𝑓 (𝑥 + ∆𝑥, 𝑢 + ∆𝑢, 𝑣 + ∆𝑣, … . 𝑧 + ∆𝑧) − 𝑓(𝑥, 𝑢, 𝑣, … 𝑧)

Cas d’une somme

𝑦 = 𝑓 (𝑢, 𝑣 ) = 𝑢 + 𝑣

∆𝑦 = 𝑓 (𝑢 + ∆𝑢, 𝑣 + ∆𝑣 ) − 𝑓 (𝑢, 𝑣 ) = (𝑢 + ∆𝑢) + (𝑣 + ∆𝑣 ) − (𝑢 + 𝑣 ) = ∆𝑢 + ∆𝑣

Cas d’une différence

𝑦 = 𝑓 (𝑢, 𝑣 ) = 𝑢 − 𝑣

∆𝑦 = 𝑓 (𝑢 + ∆𝑢, 𝑣 + ∆𝑣 ) − 𝑓 (𝑢, 𝑣 ) = [(𝑢 + ∆𝑢) − (𝑣 + ∆𝑣 )] − (𝑢 − 𝑣 ) = ∆𝑢 − ∆𝑣

Cas d’un produit

𝑦 = 𝑓(𝑢, 𝑣 ) = 𝑢. 𝑣

∆𝑦 = 𝑓 (𝑢 + ∆𝑢, 𝑣 + ∆𝑣 ) − 𝑓(𝑢, 𝑣 ) = (𝑢 + ∆𝑢). (𝑣 + ∆𝑣 ) − (𝑢. 𝑣 ) = 𝑣∆𝑢 + 𝑢∆𝑣

Cas d’un quotient


𝑢
𝑦 = 𝑓(𝑢, 𝑣 ) =
𝑣
Page 7 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

𝑢 + ∆𝑢 𝑢 𝑣∆𝑢 − 𝑢∆𝑣
∆𝑦 = 𝑓 (𝑢 + ∆𝑢, 𝑣 + ∆𝑣 ) − 𝑓 (𝑢, 𝑣 ) = ( )+( )=
𝑣 + ∆𝑣 𝑣 𝑣²
Cas d’une puissance

𝑦 = 𝑓 (𝑢 ) = 𝑢 𝑛 𝑛 ∈ 𝑁

 n=2 → ∆𝑦 = ∆𝑢² = ∆(𝑢. 𝑢) = 𝑢∆𝑢 + 𝑢∆𝑢 = 2𝑢∆𝑢


 n=3→ ∆𝑦 = ∆𝑢3 = ∆(𝑢². 𝑢) = 𝑢²∆𝑢 + 𝑢∆𝑢² = 𝑢²∆𝑢 + 𝑢(2𝑢∆𝑢) = 3𝑢²∆𝑢

En généralisant ∆𝑦 = 𝑛𝑢 𝑛−1 ∆𝑢
I.7 Notation décimale d’un nombre approché
Tout nombre a, dans un système décimal, peut être représenté par :

𝑎 = 𝛼𝑚 10𝑚 + 𝛼𝑚−1 10𝑚−1 + 𝛼𝑚−2 10𝑚−2 + ⋯ + 𝛼𝑚−𝑛 10𝑚−𝑛 + ⋯

𝛼𝑖 : Chiffres du nombre a

Ex1 : 3,14 = 3. 100 + 1. 10−1 + 4. 10−2

Ex2 : 32 = 3. 101 + 2. 100

Ex3 : 451 = 4. 102 + 5. 101 + 1. 100

Page 8 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Chapitre Deuxième:
RESOLUTION DES EQUATIONS LINEAIRES
II. 1. POSITION DU PROBLEME
Considérons le système linéaire suivant de n équations à n inconnues :

Ce système s’écrit sous la forme :

Où i représente le numéro de ligne et j le numéro de colonne.


Une matrice est dite triangulaire si 𝑎𝑖𝑗 = 0 pour j i ou pour i j.

Page 9 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Une matrice bande est une matrice dont tous les éléments sont nuls sauf sur une bande
autour de la diagonale principale. Ces matrices se rencontrent dans la résolution d'équations
aux dérivées partielles par la méthode des différences finies ou dans la méthode des
éléments finis.
La résolution du système précédent peut s’effectuer par deux méthodes :
 la méthode directe (dite méthode du pivot),
 la méthode itérative.
La méthode du pivot est commode pour les systèmes denses d’ordre supérieur, ainsi que
pour les matrices bandes même d’ordre élevé. La méthode itérative est mieux adaptée aux
autres matrices d’ordre élevé et comportant de nombreux éléments nuls.
II.2. METHODE DU PIVOT
II.2.1. Méthode de GAUSS-JORDAN

II.2.1.1. Description de la méthode


C’est la méthode la plus utilisée. Pour la présenter, nous allons prendre l’exemple d’un
système de 4 équations à 4 inconnues :

∆𝑗
La méthode classique de Cramer qui repose sur les déterminants, donne : 𝑋𝑗 = , où est

le déterminant de la matrice, et ∆𝑗 celui déduit de en y remplaçant la j ème colonne par la
colonne second membre. Pour résoudre le système, cette méthode nécessite n4 opérations si
n est le rang de la matrice.
Dans la méthode du pivot, on choisit successivement chaque ligne comme ligne pivot ; le
pivot étant le 1er élément non nul de la ligne.
Ainsi, on divise la ligne n° 1 du système par 𝑎11 .
Page 10 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

On annule le 1er terme de chacun des autres lignes : à la 2ème ligne, on retranche la 1ère
multipliée par 𝑎21 , à la 3ème ligne, on retranche la 1ère multipliée par 𝑎31 , à la 4ème ligne, on
retranche la 1ère multipliée par 𝑎41 . Le système devient :

La 2ème ligne est considérée maintenant comme une ligne pivot, et 𝑎′22 comme un élément
pivot. On répète sur cette 2ème ligne les opérations précédentes, et on obtient après division
de cette ligne par 𝑎′22 :

On annule les autres termes de la seconde colonne ; c’est à dire : à la 1ère ligne, on
retranche la seconde multipliée par 𝑎′12 , à la 3ème ligne, on retranche la 2ème multipliée par
𝑎′32 , à la 4ème ligne, on retranche la 2ème multipliée par 𝑎′42 .
On obtient :

On considère ensuite la 3ème ligne comme pivot, puis la 4ème ligne ; ce qui donne :

Page 11 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

D’une manière générale, si on applique cette procédure au système Ax y où A est une
matrice d’ordre n,
1. on remarque qu’à l’issue de la 1ère étape, on obtient la matrice 1 A comportant des 0
et un 1 dans sa 1ère colonne,
2. à l’issue de la 2ème étape, on a une matrice 2 A comportant des 0 et des 1 dans ses 2
premières colonnes, etc.
3. à l’issue de la k-ième étape, on obtient un système de la forme :

Page 12 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

II.2.1.2. Exemple
Soit le système à résoudre :

Page 13 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Page 14 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

II.2.2. Méthode de GAUSS


On diagonalise la matrice A, et on ne fait apparaître les zéros qu’en dessous de la diagonale.
La solution xi du système nécessite 2 étapes :

1. Une triangularisation de la matrice A,

2. Une résolution du système triangulaire :

Pour les pivots nuls ou petits, on est confronté aux mêmes difficultés signalées dans la
méthode précédente de GAUSS-JORDAN.

Page 15 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

II.3 METHODES ITERATIVES


Nous allons décrire ces méthodes brièvement sans passer par des calculs ou des
démonstrations mathématiques complexes, car cela nous éloignera des objectifs du cours.
II.3.1 Méthode de JACOBI
Soit le système suivant de 3 équations à 3 inconnues :

𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 = 𝑦1


{𝑎21 𝑥1 + 𝑎22 𝑥2 + 𝑎23 𝑥3 = 𝑦2
𝑎31 𝑥1 + 𝑎32 𝑥2 + 𝑎33 𝑥3 = 𝑦3

On résout le système de la manière suivante :


𝑦1 − (𝑎12 𝑥2 + 𝑎13 𝑥3 )
𝑥1 =
𝑎11
𝑦2 − (𝑎21 𝑥1 + 𝑎23 𝑥3 )
𝑥2 =
𝑎22
𝑦3 − (𝑎31 𝑥1 + 𝑎32 𝑥2 )
𝑥3 =
{ 𝑎33

On donne aux inconnues les valeurs arbitraires initiales 𝑥1° , 𝑥2° , 𝑥3° .

Si ces valeurs sont portées au second membre de la solution précédente, on obtient :

𝑦1 − (𝑎12 𝑥2° + 𝑎13 𝑥3° )


𝑥11 =
𝑎11
1
𝑦2 − (𝑎21 𝑥1° + 𝑎23 𝑥3° )
𝑥2 =
𝑎22
1
𝑦3 − (𝑎31 𝑥1° + 𝑎32 𝑥2° )
𝑥 =
{ 3 𝑎33
Ce nouvel ensemble porté dans le second membre des équations précédentes donne un
𝑥12 , 𝑥22 , 𝑥32 autre ensemble et ainsi de suite.

Exercices
1. Utiliser la méthode de Gauss pour résoudre les systèmes

Page 16 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Page 17 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

2. Utilisez la méthode de Jacobi

Page 18 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

II.3.2 Méthode de GAUSS-SEIDEL


On reprend le calcul comme précédemment. Pour le système précédent par exemple, on
choisit un ensemble de valeurs 𝑥1° , 𝑥2° , 𝑥3° .

On porte 𝑥2° 𝑒𝑡 𝑥3° dans la 1ère équation et on obtient :


1
𝑦1 − (𝑎12 𝑥2° + 𝑎13 𝑥3° )
𝑥1 =
𝑎11
C’est cette nouvelle valeur de X1, et non pas 𝑥1° , qui est portée dans la 2ème équation du
système, donnant :
1
𝑦2 − (𝑎21 𝑥11 + 𝑎23 𝑥3° )
𝑋2 =
𝑎22
De même dans la 3 , on porte 𝑥1 et 𝑥2 , et non 𝑥1° et 𝑥2° , et on obtient :
eme 1 1

𝑦3 − (𝑎31 𝑥11 + 𝑎23 𝑥21 )


𝑋31 =
𝑎33
Lorsqu’une inconnue est utilisée, c’est automatiquement la plus récente valeur calculée.
Ceci assure une convergence des calculs bien plus rapide que la méthode de JACOBI.
On arrête les calculs lorsque les valeurs successives de x j sont suffisamment voisines.
Pour cela, on peut utiliser,

Pour les systèmes où les matrices sont de rang élevé, il n’est pas commode de faire le test de
convergence sur chaque inconnue xj.
Dans ce cas, on fait le test soit seulement sur certaines inconnues que l'on choisit, soit sur
les quantités suivantes :
Page 19 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

La convergence du procédé ne dépend pas du choix des valeurs initiales xj, mais seulement
des valeurs des coefficients.
On montre que la convergence est assurée si on a, pour chaque valeur de i (c'est-à-dire pour
chaque ligne), la relation
𝑛

|𝑎𝑖𝑖 | ≥ ∑|𝑎𝑖𝑗 |
𝑗=1
𝑗=1
est vérifiée.

Autrement dit, il y a convergence si chaque élément diagonal est supérieur ou égal, en module, à la
somme des modules des autres éléments de sa ligne.
I.4 INVERSIONS DES MATRICES
Selon la méthode de Cramer, une matrice A de rang n n’est inversible que si son
déterminant est différent de zéro. Dans ce cas, le produit de A par la matrice inverse 𝐴−1
donne la matrice unitaire I.
𝐴−1 A A𝐴−1 I où AI A
En appliquant la méthode de Cramer sur la matrice A, on peut déterminer 𝐴−1 .

Exemple :
1 3 3 1 0 0
A = (2 2 0) , I = (0 1 0 )
3 2 6 0 0 1
On obtient en utilisant la méthode de Cramer :
1 −2
2 1
A = ( 2
−1 1/2 −1 )
5 1/3 −7/6 2/3
qui vérifie que : 𝐴−1 . A I
L’algorithme de Gauss-Jordan présenté au début de ce cours (méthode du pivot) opère aussi
le passage de la matrice C A, yà la matrice D I, X où X est la solution du système
linéaire
A.X y ; Soit X 𝐴−1 .y
Après les opérations de l’algorithme de Gauss-Jordan, on obtient :
D A1.C A1.A, I I, 𝐴−1 
Cette méthode, de calcul de l’inverse d’une matrice qui est résumée ci-dessous, permet de
calculer A1 avec un nombre d’opérations nettement inférieur à celui de la méthode de
Cramer.

Page 20 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Page 21 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Chapitre Troisième :
RESOLUTION DES EQUATIONS ET DES SYSTEMES NON LINEAIRES

III.1 METHODES NUMERIQUES


III.1.1 FORMULATION DU PROBLEME

Résoudre une équation non linéaire de la forme :


f (x) = 0
 Il est facile de résoudre une équation de la forme :
ax2 + bx + c = 0.
 Toutefois, les équations polynomiales de degré supérieur sont beaucoup plus
difficiles à résoudre de manière exacte.
 Sert à calculer des valeurs extrêmes d'une fonction :
min 𝑔(𝑥) ⇔ 𝑓 (𝑥) = 𝑔′ (𝑥) = 0
𝑥

III.1.2. METHODE DE LA BISSECTION


Considérons une fonction continue f définie sur un intervalle [a; b] pour lequel la fonction
change de signe : f (a) > 0 et f (b) < 0 ou encore f (a) < 0 et f (b) > 0.

On est donc certain qu'il y a une racine de f entre a et b. Pour approcher de façon précise
cette racine, on peut utiliser l'algorithme suivant :
Algorithme de la bissection

 Etant donné un intervalle [x1; x2] pour lequel f (x) possède un changement de signe
 Etant donné ∈𝑎 , le critère d'arrêt, et N, le nombre maximal d'itérations
𝑋1 +𝑋2
 Poser 𝑋𝑚 =
2
Page 22 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

|𝑋2 −𝑋1 |
 Si <∈𝑎 :
2|𝑋𝑚 |

 convergence atteint
 écrire la racine 𝑋𝑚
 écrire f (𝑋𝑚 ) : arrêt.
 5 écrire 𝑋1 ; 𝑋2 ; 𝑋𝑚 ; f (𝑋1 ); f (𝑋2 ); f (𝑋𝑚 )
 Si f (𝑋1 )× f (𝑋2 ) < 0, alors 𝑋2 = 𝑋𝑚
 Si f (𝑋𝑚 )× f (𝑋2 ) < 0, alors 𝑋1 = 𝑋𝑚
 8 Si le nombre maximal d'itérations N est atteint :
 convergence non atteinte en N itérations : arrêt
 Retour à l'étape 3

EXEMPLE
Soit f (x) = x3 +x 2 - 3x - 3 = 0. Dans l'intervalle [x1 = 1; x2 = 2] il y a une racine car f est
continue et f (1)f (2) = - 4 * - 3 < 0.
On connait les racines pour ce cas : f (x) = (x2- 3)(x + 1) = 0, on a trois racines réels : r1 = -
1; r2 = - √3; r3 = √3
𝑋1 +𝑋2
1) 𝑋𝑚 = = 1.5 et f (𝑋𝑚 ) = -1.875
2

2) Puisque f (𝑋𝑚 )× 𝑓(𝑋2 ) < 0 alors 𝑋1 = 𝑋𝑚 = 1.5 et 𝑋2 = 2


𝑋1 +𝑋2
3) 𝑋𝑚 = = 1.75 et f (𝑋𝑚 ) = 0.17187
2

4) Puisque f (𝑋𝑚 )× 𝑓 (𝑋1 ) = −1: 875 ∗ − 0.17187 < 0 alors 𝑋2 = 𝑋𝑚 = 1.75 et 𝑋1 = 1.5
𝑋1 +𝑋2
5) 𝑋𝑚 = = 1.625 et f (𝑋𝑚 ) = -0.94335
2

6) Puisque f (𝑋𝑚 )× 𝑓(𝑋2 ) < 0 alors la racine se trouve donc dans l'intervalle réduit [x1
= 1.625; x2 = 1.75]
𝑋1 +𝑋2
7) 𝑋𝑚 = = 1.6875 et f (𝑋𝑚 ) = -0.40942
2

8) Puisque f (𝑋𝑚 )× 𝑓(𝑋2 ) < 0 alors la racine se trouve donc dans l'intervalle réduit [x1
= 1.6875; x2 = 1.75]
Ainsi de suite………….

Page 23 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

On voit clairement que l'intervalle devient de plus en plus petit (|𝑋2 − 𝑋1 |)et que l'on se
dirige vers 1.732050 (≃ 𝑟3 = √3).
On voit aussi que la méthode a certain désavantage (lenteur en particulier, et comment on
s'arrête ?) : critères d'arrêts
|𝑋1 −𝑋2 |
1. L'erreur absolue :|𝑟 − 𝑟𝑚 | ≃ < 𝜖𝑎𝑏𝑠
2
|𝑟−𝑟𝑚 | |𝑋1 −𝑋2 |
2. L'erreur relative : |𝑟|
≃ < 𝜖𝑟𝑒𝑙
2|𝑋𝑚 |

3. On peut arrêter l’algorithme si |𝑓(𝑋𝑚 )| <∈𝑓


LES ERREURS
Soit [x1; x2] = [a ,b] l'intervalle de départ de longueur L = b – a. Après une itération on a
𝑋1 +𝑋2 𝐿 𝐿
𝑋𝑚 = et le nouvel intervalle [x1; x2] est de longueur . A l'étape n, la longueur est
2 2 2𝑛

. On sait que r∈[x1; x2] et :


𝐿
|𝑟 − 𝑟𝑚 | ≤ < ∆𝑟
2𝑛
Etant donnée une erreur absolue ∆𝑟 , c'est quelle est la valeur de n (nombre d'itérations) pour
𝐿
avoir |𝑟 − 𝑟𝑚 | ≤ < ∆𝑟 ?
2𝑛
𝐿
ln( )
Rep : 𝑛 > ∆𝑟
ln 2

Exemple numérique :
Dans l'exemple précédent, L = 2.0 - 1.0. Si on veut une erreur absolue plus petite que 0.5
10-2, ce qui revient à assurer 3 chiffres significatifs, il faut au moins :
2−1
ln( )
𝑛> 0.5 10−2 = 7.64
ln2
Donc il nous faut 8 itérations pour assurer la précision fixée.
Page 24 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

III.1.3 LA METHODE DES APPROXIMATIONS SUCCESSIVES


C’est l’une des méthodes les plus importantes utilisées pour la résolution numérique des
équations.
 Soient :
 𝑦 = 𝑓(𝑥) : la fonction de la courbe
 𝑥0 : la racine graphique
 On détermine une équation équivalente à 𝑦 = 𝑓(𝑥) soit 𝑥 = 𝜑(𝑥) : équation
implicite
 On porte 𝑥0 dans le 2e membre, et on obtient les itérations en raisonnant de proche en
proche :
o 𝑥1 = 𝜑(𝑥0 ) : 1ere itération
o 𝑥2 = 𝜑(𝑥1 ) : 2e itération
o 𝑥3 = 𝜑(𝑥2 ) : 3e itération
o 𝑥𝑛 = 𝜑(𝑥𝑛−1 ) : ne itération
Pour bien choisir la fonction équivalente qui donne la solution, on vérifie la condition
suivante : 𝜑′ (𝑥0 ) < 1
Sinon la forme choisie n’est pas la meilleure. On passe à une autre.
Le processus s’arrête lorsque : 𝑥𝑛 = 𝑥𝑛−1

III.1.4 LA METHODE DE NEWTON


Soit une équation à résoudre de la forme :
f (x) = 0
À partir d'une valeur initiale x0 de la solution, on cherche une correction 𝛿𝑋 telle que :
0 = 𝑓 (𝑋0 + 𝛿𝑋 ) ≈ 𝑓(𝑋0 ) + 𝑓′(𝑋0 )𝛿𝑋
On peut alors isoler la correction recherchée :
𝑓(𝑋0 )
𝛿𝑋 = −
𝑓′(𝑋0 )

La correction 𝛿𝑋 est en principe la quantité que l'on doit ajouter à x0 pour annuler la
fonction f (x). Puisque nous avons négligé les termes d'ordre supérieur ou égal à 2 dans le
développement de Taylor, cette correction n'est pas parfaite et l'on pose :
𝑋1 = 𝑋0 + 𝛿𝑋

Page 25 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

INTERPRETATION GEOMETRIQUE DE LA METHODE DE NEWTON


Menons par le point (xn, f(xn)) la tangente à la courbe y = f (x) fournie par
D(x) = f (X 0 ) + f ′(X n )(X − X n )
Si on cherche le point d'intersection de la tangente, D(x) = 0, avec l'axe des x, on retrouve le
point 𝑋 𝑛+1 tel que défini par l'algorithme.

ALGORITHME DE LA METHODE DE NEWTON


 Étant donné ∈𝑎 , un critère d'arrêt
 Etant donné N, le nombre maximal d'itérations
 Etant donné x0, une valeur initiale de la solution
𝑓(𝑋𝑛 )
 Effectuer : 𝑋𝑛+1 = 𝑋𝑛 −
𝑓′ (𝑋𝑛 )
|𝑋𝑛+1 −𝑋𝑛 |
 Si |𝑋𝑛+1 |
<∈𝑎 :

 Convergence atteinte
 Ecrire la solution 𝑋𝑛+1 : arrêt
 Si le nombre maximal d’itération N est atteint
 La convergence non atteinte en N itérations : arrêt
 Retour à l'étape 4

Page 26 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Exemple : e−x − x

On remarque la convergence très rapide de cette méthode.


APPLICATIONS DE LA METHODE ITERATIVE DE NEWTON
Recherche de la valeur grossière

y0  2 E ( m. exp)

E : partie entière de m.exp


Obtention de m

x  2m.x1
1
1   x1  1
Avec x1   ,1 c’est-à-dire 2
2 
Exemples d’application
𝟏
1. Algorithme qui calcule la valeur inverse d’un nombre 𝒚 =
𝒙

1 1
x  x 0
y y
'
1  1 1
f ( x, y )  x  ; f ' ( x, y )  
 x   
y  y
y y2
1 xy n  1
x
yn yn
yn 1  yn  yn 
1 1
y2 yn2

Page 27 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

 xy n  1  2
y n 1  y n  
   
 y n  y n   xy n  1 y n
 y n 
y n 1  y n  xy n2  y n
y n 1  y n 2  xy n  : A lg orithme

2. Algorithme qui calcule la racine carrée d’un nombre

y x
y2  x  y2  x  0

f ' ( x, y )  y 2  x 
'
y  2y
y n2  x 2 y n2  y n2  x
y n 1  yn  
2 yn 2 yn
y n2  x y n2 x 1 1 x
y n 1     yn 
2 yn 2 yn 2y 2 2 yn
1 x 
 y n 1   y  
 : A lg orithme
2
n
 y n 

ETUDE DE CONVERGENCE
On peut associer la méthode de Newton à l'application de la méthode de point fixe sur une
fonction g particulière, en prenant :
f(X)
g(x) = X −
f′ (Xn )

On retrouve les résultats de convergence obtenue pour le point fixe. On peut cependant
revoir les résultats en fonction de f puisque la relation en f et g est maintenant fixée.

′(
(𝑓 ′ (𝑥))2 − 𝑓(𝑥)𝑓 ′′ (𝑥) 𝑓 (𝑥)𝑓 ′′ (𝑥)
𝑔 𝑥) = 1 − =
(𝑓 ′ (𝑥))2 (𝑓 ′ (𝑥))2
Pour une racine r de f on aura donc :
g ′ (r ) = 0
Et on a ainsi la convergence quadratique que l'on recherche.

Page 28 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

CONVERGENCE CUBIQUE ?
Est-ce que la convergence est plus que quadratique ?
(f′ (x)f′′ (x)+f(x)f′′′ (x))(f′ (x))2 −2f(x)f′ (x)(f′′ (x))2
′′ (x)
g =
(f′ (x))4

Et
f′′ (r)
g ′′ (r) =
f′ (r)

A priori on ne peut pas supposer que g ′′ (r) = 0, donc on ne peut pas dire que la méthode
est d'ordre supérieure à 2. Pour ce qui est de l'erreur, étant d'ordre deux on a :
g′′ (r) f′′ (r)
en+1 ≈ en 2 = en 2
2 2f′ (r)

RACINES MULTIPLES
La question en suspend est de savoir ce qui se passe si f ′ (r) = 0. Pour répondre à la
question on revient au développement de Taylor... Soit r une racine de f :
𝑓 ′′ (𝑟) 𝑓 (𝑚)
𝑓 (𝑥) = 𝑓 (𝑟) + 𝑓 ′ (𝑟)(𝑥 − 𝑟) + (𝑥 − 𝑟 ) 2 + ⋯ + (𝑟)(𝑥 − 𝑟)𝑚
2 𝑚!
Si 𝑓 ′ (𝑟) = 𝑓 (𝑟) = 0 alors
𝑓 ′′ (𝑟) 2
𝑓 (𝑚−1) 𝑚−1
𝑓 (𝑚)
𝑓 (𝑥 ) = (𝑥 − 𝑟 ) + ⋯ + (𝑟)(𝑥 − 𝑟) + (𝑟)(𝑥 − 𝑟)𝑚 + ⋯
2 (𝑚 − 1)! 𝑚!
= ( 𝑥 − 𝑟 ) 2 ℎ2 ( 𝑥 )
𝑎𝑣𝑒𝑐 ℎ2 ≠ 0
De manière plus, générale si toutes les dérivées jusqu'à l'ordre m -1 sont nulles pour la
racine r :
𝑓 ′(𝑥) = 𝑓 ′′ (𝑟) = ⋯ = 𝑓 (𝑚−1) (𝑟) = 0 alors

𝑓(𝑚)
𝑓 (𝑥) = (𝑥 − 𝑟)𝑚 ( ( 𝑟 ) + ⋯ ) = ( 𝑥 − 𝑟 ) 𝑚 ℎ𝑚 ( 𝑥 ) ℎ𝑚 ( 𝑟 ) ≠ 0
𝑚!

Effet d'une racine multiples sur Newton

On peut revenir à la convergence de la méthode si f ′ (r) = 0. On sait que


𝑓 (𝑥)𝑓 ′′ (𝑥)
𝑔 ′ (𝑥 ) = 2
(𝑓′(𝑥))
Si on a une racine r de multiplicité m
𝑓 (𝒙) = (𝑥 − 𝑟)𝑚 ℎ(𝑥) ℎ(𝑟) ≠ 0

Page 29 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Alors
ℎ(𝑟)(𝑚(𝑚 − 1)ℎ(𝑟)) 𝑚(𝑚 − 1) 1
𝑔 ′ (𝑟 ) = = = 1 −
(𝑚ℎ(𝑟))2 𝑚 𝑚
Si m ≠ 1 alors g ′ (r) ≠ 0 et on n’a pas de convergence quadratique. La convergence est
1
linéaire avec un taux de convergence g ′ (r) = 1 − .
m

Plus la multiplicité sera grande plus la convergence sera lente car g ′ (r) approchera de 1.

III.1.5 LA METHODE DE LA SECANTE

 La méthode de Newton nécessite le calcul de la dérivée de f (x).


 Si la fonction f (x) est complexe, cette dérivée peut être difficile à évaluer.
𝑓(𝑋𝑛 )−𝑓(𝑋𝑛−1 )
 On remplace 𝑓 ′(𝑋𝑛) par 𝑓 ′ (𝑋𝑛 ) ≃
𝑋𝑛 −𝑋𝑛−1

 Cela revient à utiliser la droite sécante passant par les points (𝑋𝑛 , 𝑓(𝑋𝑛 )) et
(𝑋𝑛−1 , 𝑓(𝑋𝑛−1 )) plutôt que la droite tangente passant par (𝑋𝑛 , 𝑓(𝑋𝑛 )).
ALGORITHME DE LA METHODE DE LA SECANTE
 Etant donné 𝜖𝑎 , un critère d'arrêt
 Etant donné N, le nombre maximal d'itérations
 Etant donné x0 et x1, deux valeurs initiales de la solution
 Effectuer :
𝑓(𝑋𝑛 )(𝑋𝑛 −𝑋𝑛−1 )
𝑋𝑛+1 = 𝑋𝑛 −
(𝑓(𝑋𝑛 )−𝑓(𝑋𝑛−1 ))
|𝑋𝑛+1 −𝑋𝑛 |
 Si |𝑋𝑛+1 |
<∈𝑎 :

 Convergence atteinte
 Ecrire la solution 𝑋𝑛+1 : arrêt
 Si le nombre maximal d'itérations N est atteint :
 convergence non atteinte en N itérations : arrêt
 7 Retour à l'étape 4

Page 30 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Exemple :𝑒 −𝑥 − 𝑥

On voit que

 On converge |𝑒𝑛 | → 0 ! ! !
|𝑒𝑛+1 |
 𝑔′ (𝑟) ≈ |𝑒𝑛 |
→ 0, la convergence est plus que linéaire
|𝑒𝑛+1 |
 Mais si |𝑒²𝑛 |
→ ∞, pas de convergence quadratique ????

CONVERGENCE DE LA METHODE DE LA SECANTE

On ne peut associer cette méthode à un point fixe. On doit plutôt reprendre l'étude de
convergence en partant de la définition de l'itération :
𝑓(𝑥𝑛 )(𝑥𝑛 −𝑥𝑛−1 )
𝑥𝑛+1 = 𝑥𝑛 −
𝑓(𝑥𝑛 )−𝑓(𝑥𝑛−1 )

On voudrait une erreur de la forme 𝑒𝑛+1 ≈ 𝐶𝑒 𝑝 𝑛 . Dans ce cas :


2
𝑒𝑛+1 ≈ 𝐶𝑒 𝑝 𝑛 ≈ 𝐶(𝐶𝑒𝑛−1 𝑝 )𝑝 = 𝐶 𝑝+1 𝑒 𝑝 𝑛−1

On peut démontrer que :


𝑓′′ (𝑟)
𝑒𝑛+1 ≈ 𝑒 𝑒
2𝑓′ (𝑟) 𝑛 𝑛−1

On a :
2 𝑓′′ (𝑟) 𝑓′′ (𝑟)
𝐶 𝑝+1 𝑒 𝑝 𝑛−1 ≈ 𝑒𝑛+1 ≈ 𝑒𝑛−1 𝐶𝑒 𝑝 𝑛−1 ≈ 𝐶𝑒 𝑝+1 𝑛−1
2𝑓′ (𝑟) 2𝑓′ (𝑟)

En résumé quelque soit n on veut


2 𝑓′′ (𝑟)
𝐶 𝑝+1 𝑒 𝑝 𝑛−1 ≈ 𝐶𝑒 𝑝+1 𝑛−1
2𝑓′ (𝑟)

Page 31 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

En simplifiant on a :

On doit alors avoir p2 – p-1 = 0 sinon l'expression à gauche varie en fonction de n. Donc :
1+√5
𝜌= > 1.6
2

Ainsi la méthode de la sécante, dans le cas d'une racine simple avec 𝑓 ′′ (𝑟) ≠ 0, converge
avec :
1+√5
𝑒𝑛 ≈ 𝐶𝑒 𝑝 𝑛−1 𝑎𝑣𝑒𝑐 𝑝 = > 1.6
2

La convergence n'est pas linéaire mais elle n'est pas quadratique. En fait étant plus que
linéaire on la dit superlinéaire.

III.1.6 L’ALGORITHME DE STEFFENSON – AITKEN


EXTRAPOLATION D’AITKEN (𝑋𝑒 )
Rappelons que la méthode point fixe 𝑋𝑛+1 = 𝑔(𝑋𝑛 ) est d'ordre 1.
On a :
𝑒𝑛+2 𝑋𝑛+2 − 𝑟 𝑒𝑛+1 𝑋𝑛+1 − 𝑟
= ≈ 𝑔 ′ (𝑟 ), = ≈ 𝑔 ′ (𝑟 )
𝑒𝑛+1 𝑋𝑛+1 − 𝑟 𝑒𝑛 𝑋𝑛 − 𝑟
𝑋𝑛+2 −𝑟 𝑋𝑛+1 −𝑟
Ce qui donne ≈
𝑋𝑛+1 −𝑟 𝑋𝑛 −𝑟

En isolant r, on trouve :
(𝑋𝑛+1 −𝑋𝑛 )2
𝑟 ≈ 𝑋𝑒 = 𝑋𝑛 −
𝑋𝑛+2 −2𝑋𝑛+1 +𝑋𝑛

Cette approximation de r permet d’obtenir une méthode convergeant à l’ordre 2


STEFFENSON
On peut introduire cette extrapolation dans l'algorithme de point fixe : c'est l'algorithme de
Steffenson
 Etant donné 𝜖𝑎 , un critère d'arrêt sur deux approximations successives
 Etant donné N, le nombre maximal d'itérations
 Etant donné x0, une valeur estimée initiale du point fixe
(𝑦1 −𝑋𝑛 )2
 Effectuer : 𝑦1 = 𝑔(𝑋𝑛 ) , 𝑦2 = 𝑔(𝑦1 ), 𝑋𝑛+1 = 𝑋𝑛 −
𝑦2 −2𝑦1 +𝑋𝑛
|𝑋𝑛+1 −𝑋𝑛 |
 Si |𝑋𝑛+1 |
<∈𝑎 :

Page 32 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

 Convergence atteinte
 Ecrire la solution 𝑋𝑒 : arrêt
 Si le nombre maximal d’itérations N est atteint :
 Convergence non atteinte en N itération : arrêt
 Retour à l’étape 1

III.2 METHODES GRAPHIQUES


Dans la résolution des équations algébriques, il est des équations difficiles à résoudre
numériquement. Dans ce cas de figure, une résolution graphique peut s’avérer très utile. Il
existe plusieurs méthodes de résolution graphique mais dans ce support nous ne nous
intéresserons qu’à la méthode par fractionnement.

Formulation mathématique

𝑦 = 𝑓1(𝑥)
} ⇒ 𝑓1(𝑥) − 𝑓2(𝑥) = 0 : Méthode d’égalité
𝑦 = 𝑓2(𝑥)

Le signe moins (-) indique le fractionnement.

Exemple d’application 1 : équation du second degré 𝑎𝑥² + 𝑏𝑥 + 𝑐


𝑏 𝑐
𝑥² + 𝑥 + = 0 ⟶ 𝑥² + 𝛼𝑥 + 𝛾 = 0 : Forme classique
𝑎 𝑎

𝑏 𝑐
Avec 𝛼 = et 𝛾 =
𝑎 𝑎

𝑥² − (−𝛼𝑥 − 𝛾 ) = 0 : Forme fractionnée

𝑦 = 𝑥² : Parabole carrée

𝑦 = −𝛼𝑥 − 𝛾 : Droite de coefficient angulaire (−𝛼)

Page 33 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Y=x ²

s1 s2

Y= - ax -g

Exemple d’application 2 : équation du troisième degré 𝑎𝑥 3 + 𝑏𝑥² + 𝑐𝑥 + 𝑑 = 0


𝑏 𝑐 𝑑
𝑥 3 + 𝑥² + 𝑥 + = 0
𝑎 𝑎 𝑎

Soit 𝑥 3 + 𝛼𝑥² + 𝛽𝑥 + 𝛾 = 0 : Forme classique

Fractionnement :
𝛼
Poser 𝑥 = 𝑡 − en remplaçant dans la forme classique, on a : 𝑡 3 + 𝜔𝑡 + 𝜑 = 0 soit :
3

𝑡 3 — (𝜔𝑡 − 𝜑) = 0

𝑦 = 𝑡 3 : Parabole cubique

𝑦 = −𝜔𝑡 − 𝜑 : Droite de coefficient angulaire (−𝜔)

Page 34 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Exemple d’application 3 : équation du quatrième degré : 𝑎𝑥 4 + 𝑏𝑥 3 + 𝑐𝑥² + 𝑑𝑥 + 𝑒 = 0

𝑥 4 + 𝜑𝑥 3 + 𝛼𝑥² + 𝛽𝑥 + 𝛾 = 0 : Forme classique


𝜑
Poser 𝑥 = 𝑡 − on obtient :
4

𝑥 4 + 𝛿𝑥² + 𝜃𝑥 + 𝜗 = 0 (𝐼) : Forme sans terme en 𝑥 3

Fractionner la courbe suivant un cercle et une parabole carrée.

𝑦 = 𝑥² (1)

(𝑦 − 𝑣 )2 + (𝑥 − 𝑢)2 − 𝑅 2 = 0 (2)

(1)𝑑𝑎𝑛𝑠 (2): (𝑥 2 − 𝑣 )2 + (𝑥 − 𝑢)2 − 𝑅² = 0

𝑥 4 − 2𝑣𝑥² + 𝑣² + 𝑥² − 2𝑢𝑥 + 𝑢² − 𝑅² = 0

𝑥 4 + (1 − 2𝑣 )𝑥² − 2𝑢𝑥 + (𝑢2 + 𝑣 2 − 𝑅2 = 0 (𝐼𝐼)

Identifier (𝐼) et (𝐼𝐼) :


1−𝛿
1 − 2𝑣 = 𝛿 → 𝑣 = ∶ 𝑜𝑟𝑑𝑜𝑛𝑛é𝑒 𝑑𝑢 𝑐𝑒𝑛𝑡𝑟𝑒
2

𝜃
−2𝑢 = 𝜃 → 𝑢 = − ∶ 𝑎𝑏𝑠𝑐𝑖𝑠𝑠𝑒 𝑑𝑢 𝑐𝑒𝑛𝑡𝑟𝑒
2

1−𝛿 2 𝜃 2
𝑢² + 𝑣² − 𝑅² = 𝜗 → 𝑅 = √( ) + (− ) − 𝜗 : rayon du cercle
2 2

Page 35 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

III.3. RESOLUTION DES SYSTEMES D’EQUATIONS NON LINEAIRES

III.3.1 Introduction
Un problème qui apparait fréquemment dans le calcul numérique est la détermination simultanée de
quelque ou toutes les racines d’un ensemble d’équations non linéaires. Tel problème est généralement
plus compliqué que dans le cas d’une seule équation.

Exemple :

𝑥2 + 𝑦2 = 4
Soit le système de deux équations suivant : { 𝑥
𝑒 +𝑦 =1

Dont la représentation graphique est donnée par la figure ci – dessous :

Pour ce système il est clair qu’il accepte deux solutions distinctes alors que pour d’autre
système une étude plus détaillé sera nécessaire pour déterminer le nombre de solutions. Un
système général de n équations à n inconnus x1, . . . , xn peut se mettre sous la forme
𝑓𝑖(𝑥1,𝑥2,..,𝑥𝑛)=0, i=1,..,n Avec f1,…,fn, sont des fonctions à n variables, ou sous la forme
vectorielles 𝐹(𝑋)=0 Le point de départ pour ce type de problème est la généralisation des
méthodes de résolution d’une équation non-linéaire (n=1) au système d’équations (n>1),
mais par exemple il est difficile ou impossible de généraliser toutes les techniques (méthode
de bissection et sécante), la méthode de Newton, par contre, admet bien la généralisation.

Page 36 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

III.3.2. Méthode de résolution


III.3.2.1 Point fixe (à plusieurs variables)
Nous pouvons adapter la méthode de point fixe utilisé pour la résolution d’une équation
non linéaire à un système d’équations non linéaire :

F(𝑋)=0

𝑓1(𝑥1,𝑥2,..,𝑥𝑛)=0
𝑓2(𝑥1,𝑥2,..,𝑥𝑛)=0

…………………..

(𝑥1,2,..,𝑥𝑛)=0

Par extraction d’une seule variable d’une des équations de façon à obtenir les schémas
suivants :

𝑋=𝐺(𝑋)

𝑥1=𝐺1(𝑥1,𝑥2,..,𝑥𝑛)

𝑥2=𝐺2(𝑥1,𝑥2,..,𝑥𝑛)

…………………..

𝑥𝑛=(𝑥1,𝑥2,..,𝑥𝑛)

Il faut noter qu’il n’est pas obligatoire d’extraire la première variable de la première
équation mais nous avons une multitude de combinaisons possibles. Le choix du schéma
obtenu est régi par la condition de convergence. Ensuite on passe au schéma de récurrence
suivant :

Pour améliorer la convergence, on remarque qu’il est possible d’obtenir une autre
configuration basé sur l’utilisation des nouvelles valeurs de xi lorsqu’on calcule xj dans le
cas ou j>i c’est-à-dire :
Page 37 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Solution

On met le système précédant sous la forme suivante :

Page 38 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

III.3.3 Méthode de Newton – Raphson


La méthode de Newton pour un système d’équation non linéaire consiste à généraliser la
méthode vue pour une seule équation et en prenant en considération l’effet dimensionnel.
Soit le système d’équation suivant :

𝑓1 (𝑥, 𝑦) = 0
{
𝑓2 (𝑥, 𝑦) = 0

A partir d’un couple de valeurs approchées (x1,y1) d’une solution du système, on peut
déterminer deux accroissements h et k à donner à x1 et y1 de manière à ce que :

Les nouvelles valeurs de x et y notées (x2,y2) sont donné par :

𝑥2 = 𝑥1 + ℎ
{
𝑦2 = 𝑦1 + ℎ

Le calcul est alors relancé avec le nouveau couple (x2,y2) afin d’approximer le couple (x3,y3)
et le processus sera répéter jusqu’à ce que hi et ki deviennent inférieures à une valeur e que
l’on se donne (selon la précision voulue pour le calcul).

Exemple : Soit le système suivant dont les solutions sont représentées sur la figure ci -
dessous :

Page 39 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

𝑥 2 + 𝑦2 = 2
{ 2
𝑥 − 𝑦2 = 1

Page 40 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Chapitre Quatrième :
INTERPOLATION DES FONCTIONS
Approcher une fonction f consiste à la remplacer par une autre fonction  dont la forme est
plus simple et dont on peut se servir à la place de f. On verra dans le prochain chapitre
qu’on utilise fréquemment cette stratégie en intégration numérique quand, au lieu de
𝑏 𝑏
calculer ∫𝑎 𝑓 (𝑥)𝑑𝑥 on calcule de manière exacte ∫𝑎 (𝑥)𝑑𝑥, où  est une fonction simple à
intégrer (par exemple polynomiale). Dans d’autres contextes, la fonction f peut n’être
connue que par les valeurs qu’elle prend en quelques points particuliers. Dans ce cas, on
cherche à construire une fonction continue ' représentant une loi empirique qui se cacherait
derrière les données.
IV.1. INTERPOLATION POLYNOMIALE
Soit y f (x) une fonction. Désignons par x h une valeur fixée de l’accroissement de
l’argument ou (de la variable indépendante) x.
Alors l’expression :

y f (x) f (x h) f (x)


f (x x) f (x).

s’appelle différence première de la fonction f ou de y en x.


De façon analogue, on définit les différences d’ordres supérieurs.
Différence seconde ²

²f (x)  (f (x)) f (x h) f (x)f (x h) f (x)
f (x h) hf (x h)f (x h) f (x)
²f(x) f (x 2h) 2 f (x h) f (x)
f(x) f (x h) f (x) (3.1.1)
²f(x) f (x h) f(x) f(x h) 2f(x h) f (x)
3f (x) ²f(x)f(x 2h) 2 f (x h) f (x)
f(x+2h) – 2f(x+h) +f(x)
=f(x+3h)-f(x+2h) – 2f(x+2h)-f(x+h) +f(x+h)-f(x)
=f(x+3h) – 3f(x+2h) + 3f(x+h) – f(x)
 f(x) = f(x+3h) – 3f(x+2h) + 3 f(x+h) – f(x)
3

Exemple: Soit P(x)=x3et prenons x=h=1


P(x) =x3= (x+1)3 – x3=(x+1 – x)(x+1)² + x(x+1) + x²

x² + 2 x + 1 + x² + x + x = 3 x² + 3 x + 1
²P(x) =  P( x+1) - P(x+1) - P(x)=3(x+1)² + 3(x+1) + 1 - 3x² + 3x +1
=3(x+1)² - x² + 3(x+1) – x + 2 – 1 = 3(x+1 – x)(x+1+x) + 3(x+1 – 1)
= 3(2x+1) + 3 = 6x + 6
 P(x) = (²P(x)) =²P(x+1) - ²P(x)
3

=6(x+1) + 6 - (6x+6)
=6x+6+6 – 6x – 6 = 6
 P(x)=( 3P(x))= 3P(x+1) - 3P(x) = 6 – 6 = 0
4

Page 41 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

nP(x)=0 pour tout n > 3 ou pour tout n 4




En appliquant cette relation n fois (par récurrence sur n ) on trouve que :

L’utilisation de la formule du binôme de newton conduit à l’écriture ci-après

Ainsi la formule ci – dessus permet d’exprimer les valeurs successives de la fonction f (x)
par ses différences de divers ordres.
Page 42 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Considérons maintenant l’identité.


 = (1+) – 1
Appliquons une fois de plus le binôme de Newton, pour obtenir :

La formule ci – dessus exprime la différence d’ordre n de la fonction f(x) par les valeurs
successives de cette fonction f (x), f (x x), f (x 2x)........ f (x nx).
Remarque.

IV.2 POSITION DU PROBLEME D’INTERPOLATION


Le problème d’interpolation le plus simple consiste en ce qui suit. On donne sur le segment
a,b(n 1) points 𝑥0 , 𝑥1 , 𝑥2 , … … … … … . . , 𝑥𝑛 qui s’appellent points d’interpolation et les
valeurs correspondantes d’une certaine fonction y f (x) :
y f (x) ; 𝑦1 = 𝑓(𝑥1 ) ; ; 𝑦2 = 𝑓(𝑥2 ) ;………………… ; ; 𝑦𝑛 = 𝑓(𝑥𝑛 )

Soit à former la fonction F(x) (fonction d’interpolation) qui appartient à une certaine classe
de fonctions et qui prend aux points d’interpolation les mêmes valeurs que f (x) c'est-à-dire
une fonction y F(x) telle que :
𝐹(𝑥0 ) = 𝑦0 ; 𝐹(𝑥1) = 𝑦1 ; 𝐹(𝑥2) = 𝑦2 ; … … … … … … . ; 𝐹(𝑥𝑛 ) = 𝑦𝑛
Géométriquement, cela signifie qu’il faut trouver une courbe d’équation y F(x) et du type
donné passant par le système des points
𝑀0 (𝑥0 , 𝑦0 ), 𝑀1 (𝑥1 , 𝑦1 ), 𝑀2 (𝑥2 , 𝑦2 ),
Le problème ainsi posé sous forme générale peut avoir un nombre infini de solution ou n’en
avoir pas du tout. Toutefois il a une et une seule solution :
Si l’on cherche non pas une fonction arbitraire F(x) mais bien un polynôme Pn(x) de degré
inférieur ou égal à n et tel que :
𝑃𝑛 (𝑥0 ) = 𝑦0 ; 𝑃𝑛 (𝑥1 ) = 𝑦1 ; 𝑃𝑛 (𝑥2 ) = 𝑦2 ; … … … . ; 𝑃𝑛 (𝑥𝑛 ) = 𝑦𝑛
IV.3 PREMIÈRE FORMULE D’INTERPOLATION DE NEWTON.
La première formule d’interpolation nous aide à interpoler en haut du tableau c'est-à dire
dans le voisinage de la valeur initiale 𝑥0 .
Soit 𝑦𝑖 = 𝑓(𝑥𝑖 ) les valeurs données de la fonction y f (x) pour des valeurs équidistantes
𝑥𝑖 = 𝑥0 + 𝑖ℎ (i 0,1,2,......, n) de la variable indépendante x où h est constant et est le pas
d’interpolation.
On se propose de choisir un polynôme P n (x) tel que

1. Degré (𝑃𝑛 (𝑥)) ≤ 𝑛


2. 𝑃𝑛 (𝑥𝑖 ) = 𝑦𝑖 (𝑖 = 0,1,2, … … . , 𝑛)

𝑃𝑛 (𝑥𝑖 ) = 𝑦𝑖 𝑝𝑜𝑢𝑟 (𝑖 = 0,1,2,3 … … … 𝑛) ⇔ ∆𝑃𝑛 (𝑥𝑖 ) = ∆𝑦𝑖 𝑝𝑜𝑢𝑟 𝑖 = 0,1,2,3, … … … . . , 𝑛

𝑃𝑛 (𝑥0 ) = 𝑦0 ⟺ ∆𝑦0 = ∆𝑃𝑛 (𝑥0 ) ⟺ ∆2 𝑃𝑛 (𝑥0 ) = ∆2 𝑦0 ⟺ ⋯ ⟺ ∆𝑚 𝑃𝑛 (𝑥0 ) = ∆𝑚 𝑦0

Page 43 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Les conditions (1 et 2) ci – dessus sont équivalentes à ce que ∆𝑚 𝑃𝑛 (𝑥0 ) = ∆𝑚 𝑦0 pour


𝑚 = 0,1,2,3 … … . . , 𝑛

Recherchons d’après Newton, le polynôme sous la forme :

𝑃𝑛 (𝑥) = 𝑎0 + 𝑎1 (𝑥 − 𝑥0 ) + 𝑎2 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) + 𝑎3 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 ) +


𝑎4 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )(𝑥 − 𝑥3 ) + +𝑎𝑛 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )(𝑥 − 𝑥3 ) … . (𝑥 −
𝑥𝑛−1 )

Il faut noter que :

(𝑥 − 𝑥0 )(𝑥 − 𝑥1 ) = (𝑥 − 𝑥0 )𝑥 − (𝑥0 + ℎ) = (𝑥 − 𝑥0 )(𝑥 − 𝑥0 − ℎ) = (𝑥 − 𝑥0 )2

(𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 ) = (𝑥 − 𝑥0 )𝑥 − (𝑥0 + ℎ)𝑥 − (𝑥0 − 2ℎ)


= (𝑥 − 𝑥0 )(𝑥 − 𝑥0 − ℎ)(𝑥 − 𝑥0 − 2ℎ) = (𝑥 − 𝑥0 )3

……………………………………………………………………………………………………………
…………

(𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 ) … . (𝑥 − 𝑥𝑛−1 )


= (𝑥 − 𝑥0 )(𝑥 − 𝑥0 − ℎ)(𝑥 − 𝑥0 − 2ℎ) … . . [𝑥 − 𝑥0 − (𝑛 − 1)ℎ]
= (𝑥 − 𝑥0 )[𝑛]

D’où :

𝑃𝑛 (𝑥) = 𝑎0 + 𝑎1 (𝑥 − 𝑥0 )[1] + 𝑎2 (𝑥 − 𝑥0 )[2] + 𝑎3 (𝑥 − 𝑥0 )[3] + ⋯ + 𝑎𝑛−1 (𝑥 − 𝑥0 )[𝑛−1] +


𝑎𝑛 (𝑥 − 𝑥0 )[𝑛]

Constatons d’abord que :


degré(𝑃𝑛 (𝑥)) ≤ 𝑛

Il nous reste à déterminer les coefficients 𝑎𝑖 (i 0, 1, 2,3,...., n);

Posons dans l’expression ci – haut = 𝑥0 , nous avons :

𝑃𝑛 (𝑥0 ) = 𝑎0

Or 𝑃𝑛 (𝑥0 ) = 𝑦0 par hypothèse, donc :

𝑦0 = 𝑃𝑛 (𝑥0 ) = 𝑎0

Calculons la différence 1ère de Pn (x) :

Page 44 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Ainsi donc, de proche en proche, on trouve que :

Portons les valeurs des coefficients 𝑎𝑖 dans l’expression de 𝑃𝑛 (𝑥), on aboutit au polynôme :

Ceci est la première formule d’interpolation de Newton.

IV.4 DEUXIÈME FORMULE D’INTERPOLATION DE NEWTON.


La première formule de Newton est pratiquement incommode pour l’interpolation de la
fonction
y f (x) dans la partie finale du tableau des différences, c'est-à-dire elle ne convient pas pour
interpoler y f (x) pour des valeurs de x voisines de l’extrémité droite 𝑥𝑛 de l’intervalle
d’interpolation.
Dans ce cas on recourt à la deuxième formule d’interpolation que nous allons déduire ci-
après.
Soit un système des valeurs de la fonction

𝑦𝑖 = 𝑓(𝑥𝑖 ) (𝑖 = 0,1,2,3 … … … , 𝑛)

Pour des valeurs équidistantes de l’argument

𝑥𝑖 = 𝑥0 + 𝑖ℎ

Construisons le polynôme d’interpolation de la forme suivante :

𝑃𝑛 (𝑥) = 𝑎0 + 𝑎1 (𝑥 − 𝑥𝑛 ) + 𝑎2 (𝑥 − 𝑥𝑛 )(𝑥 − 𝑥𝑛−1 ) + 𝑎3 (𝑥 − 𝑥𝑛 )(𝑥 − 𝑥𝑛−1 )(𝑥 − 𝑥𝑛−2 )


+⋯

… … . +𝑎𝑛 (𝑥 − 𝑥𝑛 )(𝑥 − 𝑥𝑛−1 )(𝑥 − 𝑥𝑛−2 )(𝑥 − 𝑥𝑛−3 ) … … … (𝑥 − 𝑥1 )

Page 45 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Il faut noter que :

𝑥𝑖+1 = 𝑥𝑖 + ℎ 𝑝𝑜𝑢𝑟 (𝑖 = 0,1,2,3 … . . 𝑛)

(𝑥 − 𝑥𝑛 )(𝑥 − 𝑥𝑛−1 ) = (𝑥 − 𝑥𝑛−1 )[(𝑥 − (𝑥𝑛−1 + ℎ)] = (𝑥 − 𝑥𝑛−1 )(𝑥 − 𝑥𝑛−1 − ℎ)


= (𝑥 − 𝑥𝑛−1 )[2]

(𝑥 − 𝑥𝑛 )(𝑥 − 𝑥𝑛−1 )(𝑥 − 𝑥𝑛−2 ) = (𝑥 − 𝑥𝑛−2 )[𝑥 − (𝑥𝑛−2 + ℎ)][𝑥 − (𝑥𝑛−2 + 2ℎ)]
= (𝑥 − 𝑥𝑛−2 )(𝑥 − 𝑥𝑛−2 − ℎ)(𝑥 − 𝑥𝑛−2 − 2ℎ) = (𝑥 − 𝑥𝑛−2 )[3]

…………………..…………………..…………………..…………………..…………………
..

(𝑥 − 𝑥𝑛 )(𝑥 − 𝑥𝑛−1 )(𝑥 − 𝑥𝑛−2 ) … … . (𝑥 − 𝑥1 ) = (𝑥 − 𝑥1 )[𝑛]

D’où :

𝑃𝑛 (𝑥0 ) = 𝑎0 + 𝑎1 (𝑥 − 𝑥𝑛 )[1] + 𝑎2 (𝑥 − 𝑥𝑛−1 )[2] + 𝑎3 (𝑥 − 𝑥𝑛−2 )[3] + ⋯


+ 𝑎𝑛−1 (𝑥 − 𝑥2 )[𝑛−1] + 𝑎𝑛 (𝑥 − 𝑥1 )[𝑛]

IV.5 FORMULE D’INTERPOLATION DE LAGRANGE


Supposons que n+1 valeurs distinctes de l’argument 𝑥: 𝑥0 , 𝑥1 , 𝑥2 , … … , 𝑥𝑛 données sur le
[𝑎, 𝑏], on connaisse les valeurs correspondantes de la fonction 𝑦 = 𝑓 (𝑥), 𝑖. 𝑒.

𝑓 (𝑥0 ) = 𝑦0 , 𝑓 (𝑥1 ) = 𝑦1 … . . , 𝑓 (𝑥𝑛 ) = 𝑦𝑛

On demande de construire le polynôme 𝐿𝑛 (𝑥) tel que degré (𝐿𝑛 (𝑥)) ≤ 𝑛 et tel que

𝐿𝑛 (𝑥𝑖 ) = 𝑦𝑖 (𝑖 = 0,1,2,3 … … 𝑛)

Nous allons résoudre ce problème en deux phases.

1ère Phase : Préalable. Résolvons d’abord le problème ci – après :

1 𝑠𝑖 𝑖 = 𝑗
Construire le polynôme 𝑝𝑖 (𝑥) tel que 𝑃𝑖 (𝑥𝑗 ) = 𝛿𝑖𝑗 = {
0 𝑠𝑖 𝑖 ≠ 𝑗

(𝑆𝑦𝑚𝑏𝑜𝑙𝑒 𝑑𝑒 𝐾𝑅𝑂𝑁𝐸𝐶𝐾𝐸𝑅)

𝑝𝑖 (𝑥) = 𝑐𝑖 (𝑥 − 𝑥0 )(𝑥 − 𝑥1 )(𝑥 − 𝑥2 )(𝑥 − 𝑥4 ) … … . . (𝑥 − 𝑥𝑖−1 )(𝑥 − 𝑥𝑖+1 ) … . (𝑥 − 𝑥𝑛 )

(𝐼𝑙 𝑦𝑎 𝑛 𝑓𝑎𝑐𝑡𝑒𝑢𝑟𝑠)

𝑑𝑒𝑔𝑟é(𝑝𝑖 (𝑥)) ≤ 𝑛 ; (𝑖 = 0,1,2,3, … … , 𝑛)

Dans 𝑝𝑖 (𝑥) nous avons n facteurs tels que pour chaque i le binôme 𝑥 − 𝑥𝑖 n’est pas un
facteur dans l’expression de 𝑝𝑖 (𝑥).

Page 46 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Page 47 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Chapitre Cinquième :
MEILLEURE APPROXIMATION AU SENS DE MOINDRES CARRES
ORDINAIRES
V.1 INTRODUCTION
Les sciences exactes sont fondées sur la notion de relations répétables, qui peut s’énoncer
ainsi: dans les mêmes conditions, les mêmes causes produisent les mêmes effets. Notant
alors x la mesure des causes, et y celle des effets, la liaison entre y et x s’écrit suivant la
relation fonctionnelle y = f c (x): à une valeur donnée de x correspond une valeur bien
déterminée de y.
Or, pour de nombreux phénomènes (notamment industriels), une étude exhaustive de tous
les facteurs est impossible, à cause de leur grand nombre ou de leur complexité. Il en résulte
que la reproductibilité des conditions, d’une expérience à une autre, ne peut être garantie.
Partant de cette constatation, la statistique va permettre d’étendre la notion de relation
fonctionnelle répétable, à celle de corrélation où la relation entre x et y est entachée d’une
certaine dispersion due à la variabilité des conditions d’expérience: on écrira y=f(x)+ε, où ε
est une variable aléatoire.

V.2 METHODE ET BUT


 2 variables numériques (quantitatives)
 Identifier la nature des variables : indépendante x et dépendante y.
 Décrire la relation entre les variables :
 graphiquement
 en utilisant une équation
 Utiliser l’équation pour prévoir une valeur yi à partir d’une valeur xi.
 Etablir le degré de fiabilité de l’estimation (relation probabiliste seulement)

La relation entre deux variables peut être :


 déterministe (Ceci ne nous concerne pas ici)
 probabiliste (C’est ce dont on va parler)

Relation déterministe: La valeur de la variable y peut être précisément prédite à partir de la


valeur de la variable x.
Exemples:
 Prix d’une maison et taxe due.
 Vitesse d’un corps en chute libre et temps.

Relation probabiliste: La valeur d’une variable y ne peut pas être précisément prédite à
partir de la valeur de la variable x à cause d’autres facteurs.

Exemples:
1. Consommation en eau et une population

x = nombre d’habitants
Page 48 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

y = eau consommée
2. Nombre d’heures passées à réviser un examen et la note obtenue.
x = heures passées à réviser
y = note obtenue
Régression possible avec une relation probabiliste.
V.3 COEFFICIENT DE CORRELATION
Le coefficient de corrélation r est une mesure du degré de corrélation linéaire. En pratique
on essaye d’obtenir une estimation (r) à partir d’un échantillon représentatif de la
population.
n

 x  x  y  y 
i 1
i i

Évidemment cette somme dépend de n. On va donc diviser par (n-1). Au fait, pourquoi (n-1)
et pas simplement n?

 ( x  x )( y  y )
i i
Cov( x, y )  i 1
aussi appelée s xy
n 1
Cov(x,y) est la covariance. Elle est utilisée dans de nombreuses méthodes multivariées.
Il y a encore un problème… La covariance dépend fortement des unités de x et de y. Alors
que faire...?
Pour éviter ce problème on va diviser la covariance par l’écart type de x et l’écart type de y.

Coefficient de corrélation de Bravais-Pearson


Cov ( x, y ) s xy
r 
sx s y sx s y

 x i  x  yi  y 
r i 1

 x  x  y  y
2 2
i i

Page 49 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Un exemple...

Numéro Masse Long. li xi  x  xi  x 2  yi  y   yi  y 2 ( xi  x )( yi  y )


de mi yi
l'essai i x
i

1 2 42.0 -4.0 16.0 -9.3 86.9 37.28


2 4 48.4 -2.0 4.0 -2.9 8.5 5.84
3 6 51.3 0.0 0.0 0.0 0.0 0
4 8 56.3 2.0 4.0 5.0 24.8 9.96
5 10 58.6 4.0 16.0 7.3 53.0 29.12

n=5 X 6 Y  51.   0.   4   0   173   82.2


32 0 0 .0 .2
n

 x  x  y  y 
i i
82,2
r i 1
  0,987
 x  x    y  y  173,2  40
2 2
i i

Balance à ressort

65,0

60,0

55,0
Longueur (cm)

50,0

45,0

40,0

35,0

30,0
0 2 4 6 8 10 12
Masse (kg)

Page 50 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

V.4 ANALYSE DE REGRESSION


V.4.1 LA REGRESSION
Une technique statistique pour analyser les relations qui existent parmi les variables.

Modèle de régression linéaire simple.

Equation linéaire décrivant la relation entre une simple variable indépendante x et


une variable dépendante y
Estimer l’équation linéaire qui décrit le mieux la relation entre une variable
dépendante (y) et une variable indépendante (x).
Exemple
 Un échantillon aléatoire de 15 appartements vendus à Dijon.
 Variables (pour chaque appartement):
 prix de vente (kF) et taille (m2).

Taille (m2) Prix (kF)


20,0 225,2
70,4 725,9
20,5 296,0
etc etc

 La relation linéaire apparaît positive mais elle n’est pas parfaite (non déterministe).
Il y a un élément dû au hasard.
 Modèle probabiliste, avec un terme d’erreur aléatoire qui va compter pour toutes les
variables qui ne sont pas dans le modèle. (emplacement, présence de jardins...)

Page 51 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

V.4.2 RELATION LINEAIRE


• La droite qui s’ajuste le mieux aux données (best fit) est trouvée par la méthode aux
moindres carrés. La méthode minimise la somme des carrés des distances verticales | entre
les points et la droite.

yi  axi  b   i

yi : variable dép endante


xi : variable indep endante
b : intercep t
a : p ente
 i : erreur aléatoire
a et b sont les coefficients de la régression

Page 52 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Il faut minimiser  i
 i  yi  b  axi
Plusieurs possibilités :
1. min a,b i  i
2. min a,b i i2
Le critère 2 correspond à la méthode aux moindres carrés.
Si l' on a n observations : (x1 ,y1 ), (x2 ,y 2 ),..., (xn ,y n )
et l' équation suivante liant les yi aux xi : yi  b  axi   i , i  1,...., n
la somme des carrés des écarts à la droite est :
n n
D      ( yi  b  axi ) 2
i
2

i 1 i 1

D doit être le plus petit possible... alors...?

... dérivées partielles et on les pose égales à zéro.


n
D   ( yi  b  axi ) 2
i 1

D n
 2 ( yi  b  axi )
b i 1

D n
 2 xi ( yi  b  axi )
a i 1

Les valeurs estimées de a et de b sont données par :


n

 y
i 1
i  b  axi   0
n

 x y
i 1
i i  b  axi   0

ou bien...

Page 53 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

n n

y
i 1
i  nb  a  x i  0
i 1
n n n

x y
i 1
i i  b xi  a  xi2  0
i 1 i 1

C' est - à - dire...


n n

y
i 1
i  nb  a  xi
i 1
n n n

x y
i 1
i i  b xi  a  xi2
i 1 i 1

D' autre part :


x1  ...  xn n
x y1  ...  yn n
y
x  i et y  i
n i 1 n n i 1 n

 x  y 
 xi yi  n
i i
 x  x  y  y   s
a  i i xy

 xi 2
 x  x  s 2 2

 i
x

2 i
x
n

b
 yi  a  xi  y  ax
n n

La droite de régression passe par ( x; y )


Ne nous énervons pas!!

En fait, ce n’est pas sorcier du tout…

Voyons plutôt un exemple.

Cas d’un ressort subissant un allongement sous l’effet d’un poids.


Numéro de l'essai ‘X’ Masse ‘Y’ Longueur mi2 mili
i mi li

1 2 42.0 4.0 84.0


2 4 48.4 16.0 193.6
3 6 51.3 36.0 307.8
4 8 56.3 64.0 450.4
5 10 58.6 100.0 586.0

n=5
m i  30 l i  256,5 m2
i  220 m l
i i  1622
Page 54 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

 m  l  30  256,5
 mili 
n
i i
1622 
5
a   2,055
 
 mi2  n i
2
900
m 220 
5

b
 li  a  mi  256,5  2,055  30  38,99
n n 5 5

Balance à ressort

65,0

60,0
y = 2.055x + 38.99
55,0
Longueur (cm)

50,0

45,0

40,0

35,0

30,0
0 5 10 15
Masse (kg)

On accepte l’hypothèse nulle H : b=0


0

yi  axi   i
 i  yi  axi
D    i   ( yi  axi ) 2
2

En dérivant p ar rap p ort à a :


D
 2 xi ( yi  axi )
a i

 x (y
i
i i  axi )  0

x y  a  xi
2
i i 0
i i

La valeur de a qui satisfait l' équation est :


x y i i a: pente de la droite,
a i pas d’ordonnée à l’origine
x
2
i
i

Page 55 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

V.4.3 RELATION POLYNOMIALE


Y s’exprime comme polynôme d’une seconde variable X
y  a  bx  cx 2  ...  Hx n
Exemple : la hauteur h de chute d' un corps est une fonction quadratique du temps t :
1
h  h0  v0t  gt 2
2
On tire comme précédement :
n n n

 yi  na  b xi  c xi2
i 1 i 1 i 1
n n n n

 xi yi  a xi  b xi2  c xi3
i 1 i 1 i 1 i 1
a, b, c

n n n n

 xi2 yi  a xi2  b xi3  c xi4


i 1 i 1 i 1 i 1

Ajustement polynômial par moindres carrés


Ou sous forme matricielle...
 n  x2  x 3  a    y 
2

  x  x  x  b     xy 
 4  
  x  x  x  c    x 2 y 
2 3

 
et pour un polynômede degré n...
 n 1
  x0 x
1
... x  a    x 0 y 
    
  x1 x
2
... x
n
 b    x1 y 
     
 ... ... ... ...  ...  ... 
 x n 1 2  n 1     x ( n 1) y 
 x ...  x
n
  
h 

Même principe pour les sommes de fonctions trigonométriques


y  a sin x  b cos x
V.4.4 RELATION EXPONENTIELLE
La fonction exponentielle est très courante en sciences

y  aebx
Par exemple la décroissance d’un élément radioactif...
210
Pb(t ) 210Pb0  e t
Si les constantes a et b sont inconnues, on espère pouvoir les estimer à partir de x et y.
Malheureusement l’approche directe fournit des équations insolubles.

Alors… comment faire?

Page 56 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Très facile! On transforme l’équation non linéaire en une équation linéaire. Linéarisation en
prenant le logarithme:

ln y  ln a  bx
ln y devient linéaire en x
Chapitre Sixième :
LA QUADRATURE

VI.1. LA DERIVATION APPROCHEE


VI.1.1 POSITION DU PROBLEME
 Pourquoi doit-on recourir à la dérivation approchée ?
Deux raisons majeures peuvent être évoquées :
i. Il arrive souvent que pour résoudre des problèmes pratiques, il faille calculer les dérivées
d’ordres imposés d’une fonction y f xdonnée par un tableau.
ii. Il se peut également que l’expression analytique compliquée de cette fonction rende difficile
sa dérivation immédiate.
 Les formules de dérivation approchée se déduisent en remplaçant la donnée f xsur le
segment concerné a, bpar une fonction d’interpolation Px(le plus souvent un
polynôme) et en posant ensuite
𝑓(𝑥) = 𝑃′(𝑥)

Pour 𝑎 ≤ 𝑥 ≤ 𝑏

Les dérives d’ordre supérieur de la fonction s’obtiennent d’une façon analogue si l’on connaît
l’erreur Rxf xPxde la fonction d’interpolation Px, l’erreur de la dérivée Pxest
donnée par la formule rxf xPxRxc-à-d l’erreur de la dérivée d’une fonction
d’interpolation est égale à la dérivée de l’erreur de cette fonction.
Il convient de noter que dans le cas général, la dérivation approchée est une opération moins précise
que l’interpolation. En effet, le voisinage des données y f xet Y Pxsur le segment a ,
bne garantit pas la proximité de leurs dérivées respectives f xet Pxsur ce segment, c à d un
faible écart des coefficient angulaires des tangentes aux courbes considérées y f xet Y Px,
les valeurs de l’argument x étant les mêmes.
VI.1.2 FORMULES DE DERIVATION APPROCHEE BASEES SUR LA PREMIERE FORMULE
D’INTERPOLATION DE NEWTON
Soit la fonction y f xdonnée aux points équidistants xi i =0,1,2,…n, du segment a,bpar de
valeurs yi f (xi) .
Pour chercher sur a,bles dérivées yf x, y’f ‘x, etc.…, remplaçons approximativement
la fonction y f xpar le polynôme d’interpolation de Newton établi pour un système de points
𝑥0 , 𝑥1 , 𝑥2 (𝑘 ≤ 𝑛).

Page 57 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

q(q  1) 2 q(q  1)(q  2) 3 q(q  1)(q  2)(q  3) 4


y ( x)  y 0
 q y 
0 2!  y 0

3!  y 0

3!  y0  ....
x  x0
q eth  x i 1
 xi (i  0,1,2..............)
h

q(q  1) 2 q(q  1)(q  2) 3 q(q  1)(q  2)(q  3) 4


y ( x) 
0
y0 2! 
 q y y 0

3!  y 0

3!  y0  ....
dy dy dq 1 dy 1 dy
  où y ' ( x) 
dx dq dx h dq h dq
 2
3 q  6q  2 3
3 2
4 q  18 q  22q  6 4 
1 2q  1 2
y ' ( x)   y 
h 0 2  0
y 6  y0  24  y0  ....
 
 2
3 q  6q  2 3
3 2
2 q  18 q  11q  3 4 
1 2q  1 2
y ' ( x)   y   y0 
2  0  y0
y    ....
h 0 6 12
 
Quand la nécessité se présente, on procède de même pour calculer les dérivées de la
fonction d’un ordre quelconque.
Pour calculer des dérivées en un point fixé, il faut prendre pour la valeur tabulée la plus
proche de l’argument. Quelques fois il faut chercher les dérivées de aux points tabulaires
principaux.
Dans ce cas les formules de dérivation numériques deviennent bien plus simples. Toute
valeur tabulée pouvant être considérée comme initiale, posons ; alors on a :
Exemple 1
i. Chercher y50de la fonction y log x donnée par le tableau ci-après
Valeurs de la fonction y log x

x y=log x y ²y 3y


50 1.6990 0.0414 - 0.0036 0.0005
55 1.7404 0.0378 - 0.0031
60 1.7782
65 1.8129

ii. Calculer y’(52)

Exemple 2
La distance y f parcourue par un point en mouvement rectiligne pendant le temps t est donnée
par le tableau ci-après.

i Temps ti en secondes Distance yi=y(ti) en cm


0 0.00 0.0000
1 0.01 1.519
2 0.02 6.031
3 0.03 13.397

Page 58 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

4 0.04 23.396
5 0.05 35.721
6 0.06 50.000
7 0.07 65.798
8 0.08 82.635
9 0.09 100.000

𝑑𝑦
Utiliser les différences jusqu’à l’ordre 5 y compris pour trouver la valeur 𝑉 = et l’accélération
𝑑𝑡
𝑑2 𝑦
𝐴= 𝑑𝑡 2

A approchées du point mobile aux instants t = 0 ; 0.01 ; 0.02 ; 0.03 ; 0.04.


Exemple 1
'
(i ) y (50)  ? avec x 0
 50 q0 h5

y ( x )  1  y 1 3 
'
1 2
0
h 0

2  y 0
  y
3 0

y (50)  1 0,0414  1 (0,0036)  1 (0,0005)


'

5 2 3 
 0,2(0,0414  0,0018  0,0002)

 0,2(0,0434)  0,0087
'
(ii ) y (52)  ? avec x 0
 50 q  0,4 h5

 3 q  6q  2 3 
2
'
1 2q  1 2 
y ( x0 )    y 0 
h 2  y 0

3  y 0 
 
 2 
y (50)  1 0,0414  2(0,4)  1 (0,0036)  3 (0,4)  6(0,4)  2 (0,0005)
'

5 2 3 

 0,0084

Page 59 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Exemple 2

t0 q0 h  0,01

y ( x )  h  y
1 1 2 1 3 1 4 1 5 
   y   y   y
'
 y 
0 0 2 0 3 0 4 0 5 0

' 1  1 1 1 1 
V  y( ) 1,5190  ( 2,9930 )  ( 0,1390)  ( 0, 0820)  (0,0040)
0 0,01  2 3 4 5 
 100(0,5190  1,4965  0,0463  0,0205  0,0008)

 100(0,0041)  0,4100

y ( x )  h  y   y
1 11 4 5 5 
   y
''

2 3
0 2 0 0 12
y 0 6 0

 
A y ( x )  (0,01)
'' 1 11 5
2,9930  (0,1390)  12 (0,0820)  6 (0,0040)
 
0 2

 10.000(2.9930  0,1390  0,0752  0,0033)

 10.000(3,0601)  30.601

D ' une façon générale


'

y ( x)  dy' ( x)  dy' ( x) . dq  12 . y
' d ( x)
dx dq dx h dq
1 2 6 q 2  18q  11 2 
( x)  2  y  (q  1)  y  
''
 ...
3
y h 
y
12 
0 0 0

Page 60 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

 t  0,01 h  0,01

y ( x )  1  y 
'
1 1 1 1
  2 y  3 y   4 y  5 y 
0
h 0 2 0 3 0 4 0 5 0

1  
4,5120  2,8540   0,2210    0,0860   0,0210 
' 1 1 1 1
V  y (0,01)  
0,01  2 3 4 5 
 1004,5120  1,4270  0,0737  0,0215  0,0042 
'

 1003,0370   303,70
'

y ( x )  h  y   y
1 11 4 5 5 
   y
''

2 3
0 2 0 0 12
y 0 6 0

 
2,8540  0,2210   12 0,0860  6 0,0210
'' 1 11 5
A y (0,01) 
 0,01
2

 100002,8540  0,2210  0,0788  0,0175


'

 100002,9787   29,787
'

Page 61 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Page 62 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

VI.1.3 FORMULES DE DERIVATION APPROCHEE BASEES SUR LA FORMULE DE


STIRLING
Les formules de dérivation numérique basée sur les formules d’interpolation de Newton
présentent un inconvénient, celui de n’utiliser que les valeurs unilatérales da la fonction
pour > quant à la 1ere formule de Newton et pour x < 0 x pour ce qui est de la deuxième
formule de Newton. Les formules de dérivation symétriques qui tiennent compte des valeurs
de la fonction donnée y aussi bien pour x > 0 x que pour x < 0 x sont relativement exactes.
Ces formules s’appellent en général formules de dérivation par différences centrales.
Nous allons déduire l’une de ces formules en partant de la formule d’interpolation de
Stirling.

Page 63 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

VI. 2 INTEGRATION APPROCHEE (NUMERIQUE) DES FONCTIONS.


GENERALITES
Nous développons ci-après quelques méthodes qui permettent de calculer, sur un intervalle

b
fini [a,b], l’intégrale définie a
f ( x)dx d’une fonction f continue donnée. Ces méthodes
sont particulièrement utiles dans le cas où les primitives de f ne sont pas des fonctions
élémentaires ou sont trop difficiles à calculer. C’est le cas par exemple pour les intégrales
sin x
 
b 2 b

0
e x dx et 0
dx .
x

Nous distinguerons deux optiques :

 La fonction à intégrer est remplacée par une fonction interpolante ou par une fonction
d’approximation ;
 l’intégrale est approchée par une somme pondérée de valeurs prises par la fonction en
des points situés dans un voisinage de [a,b].

Page 64 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

A. Formule des trapèzes


On subdivise l’intervalle [a,b] en sous- intervalles {[xi-1,xi] , i = 1,2,…, n; x0 = a; xn = b} sur
lesquels la fonction f est remplacée par le segment de droite qui joint les points (xi-1 ,
f(xi-1)) et (xi , f(xi)).

Cette procédure revient à remplacer, sur [a,b], f par une fonction d’interpolation linéaire par
morceaux. D’un point de vue géométrique, on assimile l’aire comprise entre le graphe de f
et l’axe des x à la somme des aires de n trapèzes.

Considérons que la division en sous-intervalle est uniforme et posons :


ba
xi = a + ih où h et f(xi) = fi ; i = 0, 1, 2, …, n.
n


x i 1
Sur l’intervalle [xi , xi+1] l’aire xi
f ( x)dx est remplacée par h( fi + fi+1 )/2 , aire du
trapèze correspondant.

En additionnant les aires des n trapèzes, on obtient la formule des trapèzes :

h

b

a
f ( x)dx  ( f 0  2 f1  2 f 2    2 f n 1  f n )
2

On peut montrer que l’erreur commise est proportionnelle à h2 (si la fonction f est
deux fois continûment dérivable).

On dit que la méthode des trapèzes est d’ordre 2.

La formule est « exacte » pour les fonctions f de degré  1.

Page 65 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Formule des trapèzes améliorée


La formule des trapèzes peut être améliorée en procédant comme suit, on développe f(x)
en série de Taylor au voisinage de x0 :
1
f ( x)  f ( x0 )  ( x  x0 ) f ( x0 )  ( x  x0 )2 f ( x0 )  ... en intégrant de x0 à x1, on obtient :
2!
2
h h3
x0  f ( x0 )  ...
x1
f ( x ) dx  hf ( x0 )  f ( x0 )  comme :
2! 3!
h2
f1  f ( x1 )  f 0  hf ( x0 )  f ( x0 )  ... en multipliant par h/2 , on a :
2!

h2 h h3
f ( x0 )  ( f1  f 0 )  f ( x0 )  ... et l’intégrale devient :
2! 2 4

h h3 h3 h h3
 f ( x0 )]  [ f ( x0 )]  ...  ( f0  f1 )  f ( x0 )  ...
x1

x0
f ( x)dx  hf ( x0 )  [ ( f1  f 0 ) 
2 4 3! 2 12
l’intégrale totale vaut :

h h2 n 1
  hf ( xk )
xn

x0
f ( x)dx  [ f0  2 f1  2 f 2  ...  2 f n 1  f n ] 
2 12 k  0
xn b
Comme le dernier terme est une approximation de  x0  a
f ( x)dx en le remplaçant par
f (b)  f (a) , on obtient la formule des trapèzes améliorée :

h h2
 [ f 0  2 f1  2 f 2  ...  2 f n 1  f n ]  [ f (b)  f (a)]
b

a
f ( x)dx 
2 12

L’erreur commise est proportionnelle à h4, et cette méthode est donc d’ordre 4. Cette
formule montre également que la formule des trapèzes est bien d’ordre 2 et que son
erreur est donnée par :

h2
E (h)   (b  a) f   ,   [a,b].
12

B. Formule de Simpson
Développons à présent une méthode d’ordre 4 qui équivaut à remplacer la fonction à
intégrer par des paraboles définies sur des sous-intervalles comprenant trois abscisses
d’intégration successives.

Page 66 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Approximation parabolique par morceaux

On suppose que l’intervalle [a,b] est partagé en n sous-intervalles égaux :

[xi-1, xi] ,tels que xi = a + ih , avec h = (b-a)/n .

On groupe les points par trois, n doit donc être pair a = x0, x1, x2 | x2, x3, x4 | … |xn-2, xn-
1 xn = b.

Et on remplace, sur chaque intervalle [xi-1, xi+1], la fonction f par une parabole.

Pour l’intervalle [x0, x2], la courbe représentée par f(x) est approchée par la parabole
d’équation :

( x  x1 )( x  x2 ) ( x  x0 )( x  x2 ) ( x  x0 )( x  x1 )
p( x)  f 0  f1  f2
( x0  x1 )( x0  x2 ) ( x1  x0 )( x1  x2 ) ( x2  x0 )( x2  x1 )
( x  x1 )( x  x2 ) ( x  x0 )( x  x2 ) ( x  x0 )( x  x1 )
 f0  f1  f2
2h 2
h 2
2h 2

h
 f ( x)dx  x p( x)dx 
x2 x2
et l’intégrale est alors approchée par : x0
[ f 0  4 f1  f 2 ]
0
3

Page 67 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

En répétant ce procédé pour les n (pair !) sous-intervalles, on a finalement la

h

b
Formule de Simpson : a
f ( x)dx  [ f 0  4 f1  2 f 2  4 f3  ...  2 f n  2  4 f n 1  f n ]
3

Cette formule est exacte pour les polynômes f(x) de degré  3.

Formule de Simpson améliorée


Tout comme pour la méthode des trapèzes, on peut obtenir une formule de Simpson
améliorée :

h h4
 [ f (b)  f (a)]
b

a
f ( x)dx  [ f0  4 f1  2 f 2  4 f3  ...  2 f n  2  4 f n 1  f n ] 
3 180

L’erreur de cette formule est de l’ordre de h6

La méthode de Simpson est donc d’ordre 4 et son erreur est donnée par :

h4
E ( h)   (b  a) f ( 4 ) ( ) ,   [a,b].
180

C. Méthode de Romberg (1955)

Désignons la somme des aires des n trapèzes de la méthode des trapèzes par S0(n).
Lorsque n   , la suite S0(n) converge en général assez lentement vers la valeur
exacte de l’intégrale. La méthode de Romberg permet d’accélérer considérablement la
convergence.

L’idée est la suivante :

Selon la formule des trapèzes améliorée, S0(n) est liée à la valeur exacte de l’intégrale
par une relation de la forme :

b ba
S0 (n)   a f ( x)dx  Ch 2  O(h4 ) , h  où la constante C ne dépend pas de h.
n

Si on double le nombre d’intervalles on a :

b h2 ba
S 0 ( 2n )   a f ( x)dx  C  O(h 4 ) , h 
4 n

Par élimination de l’inconnue C on obtient :

Page 68 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

b 4 S 0 ( 2n )  S 0 ( n )
 a f ( x)dx  3
 O( h 4 )

On est donc passé d’une précision en h2 (formule des trapèzes) à une précision en h4.

Introduisons une nouvelle suite :

4S0 (2n)  S0 (n)


S1 (2n)  , n  1,2,4,8,...
3

Cette suite converge plus vite vers la valeur de l’intégrale que la suite S0(n) (si C  0).

On voit aisément que S1(2n) est égale à l’approximation fournie par la méthode de
Simpson pour une subdivision de [a,b] en 2n intervalles égaux.

On a, en particulier :

ba ab
S1 (2)  [ f (a)  4 f ( )  f (b)]
6 2

Il en résulte donc que :

b ba
S1 (n)   a f ( x)dx  C * h4  O(h6 ) , h 
n
Où C* est une constante indépendante de h.

En procédant comme ci-dessus, c’est-à-dire en doublant le nombre de sous-intervalles et


en éliminant l’inconnue C* on trouve :

b 16S1 (2n)  S1 (n)


 a f ( x)dx  15
 O( h6 )

On est ainsi passé d’une précision en h4 à une précision en h6, la suite

16S1 (2n)  S1 (n)


S2 (2n)  , n  2,4,8,...
15

converge donc en général plus vite vers la valeur exacte de l’intégrale.

Cette démarche se généralise (pour une fonction suffisamment dérivable) et donne

l’algorithme de Romberg :

Pour n = 1, 2, 4, 8, … calculer :

Page 69 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

h ba
S0 (n)  [ f 0  2 f1  2 f 2  ...  2 f n 1  f1 ] , h 
2 n

Pour n = 2m-1, 2m, 2m+1, … ; m = 1, 2, 3, …

Calculer :

4m Sm 1 (2n)  Sm 1 (n)
S m ( 2 n) 
4m  1

Remarque : pour obtenir une précision élevée en utilisant peu de termes de la suite
S0 (n) il suffit de prendre des valeurs de n plus grandes en respectant toutefois leur
progression géométrique, par exemple en choisissant n = 100, 200, 400, 800, 1600,
3200.
D. Intégration de Gauss-Legendre

Si on applique la méthode des coefficients indéterminés sans imposer, a priori, la


position des points d’intégration ( les xi ), on dispose de 2n + 2 grandeurs ajustables
pour construire une formule d’intégration.

Ces grandeurs sont les n+1 abscisses xi et les n+1 poids d’intégration wi.

On peut donc, en principe, en n’utilisant que n+1 points d’intégration, obtenir des
formules d’intégration numériques qui exactes pour les polynômes de degré 2n + 1.
Formule à deux points

Etablissons la formule de Gauss-Legendre à deux points d’intégration :


1
1
f ( x)dx  G2(f) = w0f(x0) + w1f(x1) exacte pour les polynômes de degré  3.

La formule d’intégration sera exacte pour toute cubique f(x) = a3x3 + a2x2 + a1x +a0
si elle est exacte pour les quatre fonctions 1, x, x2, x3 ; ( linéarité + additivité ).

Les conditions sur x0, x1, w0 et w1 sont donc :


1
1
1dx = 2 = w0 +w1
1
1
xdx = 0 = w0x0+w1x1
1 2
1
x 2 dx 
3
 w0 x02  w1 x12
1 3
1 x dx  0  w0 x0  w1 x1
3 3

Page 70 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

La résolution de ce système d’équations non linéaire fournit, sans trop de difficultés :

w0 = w1 = 1 et -x0 = x1 = 1 / 3

Et la règle de Gauss-Legendre à deux points s’énonce comme suit :


1
si f(x) est continue sur [-1, +1], alors  1
f ( x)dx  G2(f) = f(-1/3) + f(1/3)

Cette formule est exacte pour tout polynôme de degré 3 et, si f  C4[-1,+1], on a :

1 f ( 4 ) ( )
1 f ( x)dx  f(-1/3) + f(1/3) + avec   [-1,+1].
135

Formule à n points

La règle d’intégration de Gauss-Legendre à N points est exacte pour tout polynôme


de degré inférieur ou égal à 2N – 1 et s’écrit :

GN(f) = wN,1 f(xN,1) + wN,2 f(xN,2) + … + wN,N f(xN,N)

Les abscisses et les poids d’intégration ont été tabulés et sont disponibles dans la
littérature (cf. Handbook of Mathematical Functions, Abramowitz and Stegun (1968),
pp.916 et seq. : A.S.) et dans divers logiciels de calcul numérique.
E. Intégration multidimensionnelle

Les formules d’intégration de fonctions d’une variable peuvent se généraliser au cas des
fonctions de plusieurs variables.
n

 f ( x)dx   wi f ( xi ) , on peut faire correspondre une


b
A une formule du type a
i 1

formule
n m

  f ( x, y)dxdy   wi w j f ( xi , y j ) qui permet d’intégrer de manière approchée, une


d b

c a
i 1 j 1

fonction continue de deux variables. sur le rectangle [a,b][c,d].

Les poids et abscisses sont les mêmes que pour l’intégration de fonctions d’une
variable.

Ils sont définis sur les intervalles [a,b] et [c,d].

Page 71 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

La généralisation à un nombre plus élevé de dimensions est immédiate mais elle ne


fournit pas la méthode la plus efficace et la moins coûteuse en temps de calcul
(d’ailleurs, à deux dimensions non plus !).

TABLE DES MATIERES


CONTENU D’APPRENTISSAGE .................................................................................................................................... 1
OBJECTIFS DU COURS ................................................................................................................................................... 2
INTRODUCTION GENERALE AU CALCUL SCIENTIFIQUE ..................................................................................... 3
Chapitre Premier : ............................................................................................................................................................... 5
ANALYSE D’ERREURS .................................................................................................................................................. 5
I.1. INTRODUCTION ................................................................................................................................................... 5
I.2 NOMBRE APPROCHE ............................................................................................................................................ 5
I.3 ERREUR ABSOLUE ............................................................................................................................................... 5
I.4 ERREUR RELATIVE .............................................................................................................................................. 5
I.5 SOURCES D’ERREURS ......................................................................................................................................... 6
I.5.1 ERREURS DE MODELISATION .................................................................................................................... 6
I.5.2 ERREURS NUMERIQUES .............................................................................................................................. 6
I.6 REGLES DE CALCUL D’ERREURS ..................................................................................................................... 6
Propriétés fondamentales de l’opérateur accroissement ........................................................................................... 6
I.7 Notation décimale d’un nombre approché ........................................................................................................... 8
Chapitre Deuxième: ............................................................................................................................................................ 9
RESOLUTION DES EQUATIONS LINEAIRES ............................................................................................................. 9
II. 1. POSITION DU PROBLEME ................................................................................................................................ 9
II.2. METHODE DU PIVOT ....................................................................................................................................... 10
II.2.1. Méthode de GAUSS-JORDAN ....................................................................................................................... 10
II.2.2. Méthode de GAUSS ....................................................................................................................................... 15
II.3 METHODES ITERATIVES.................................................................................................................................. 16
II.3.1 Méthode de JACOBI ....................................................................................................................................... 16
II.3.2 Méthode de GAUSS-SEIDEL ......................................................................................................................... 19
Chapitre Troisième : ......................................................................................................................................................... 22
RESOLUTION DES EQUATIONS ET DES SYSTEMES NON LINEAIRES .............................................................. 22
III.1 METHODES NUMERIQUES ............................................................................................................................. 22
III.1.1 FORMULATION DU PROBLEME ............................................................................................................... 22
III.1.2. METHODE DE LA BISSECTION ................................................................................................................ 22
III.1.3 LA METHODE DES APPROXIMATIONS SUCCESSIVES .......................................................................... 25
III.1.4 LA METHODE DE NEWTON ...................................................................................................................... 25
III.1.5 LA METHODE DE LA SECANTE ................................................................................................................ 30

Page 72 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

III.1.6 L’ALGORITHME DE STEFFENSON – AITKEN ......................................................................................... 32


III.2 METHODES GRAPHIQUES .............................................................................................................................. 33
III.3. RESOLUTION DES SYSTEMES D’EQUATIONS NON LINEAIRES ........................................................... 36
III.3.1 Introduction ................................................................................................................................................... 36
III.3.2. Méthode de résolution .................................................................................................................................. 37
Chapitre Quatrième :......................................................................................................................................................... 41
INTERPOLATION DES FONCTIONS ........................................................................................................................... 41
IV.1. INTERPOLATION POLYNOMIALE ............................................................................................................... 41
IV.2 POSITION DU PROBLEME D’INTERPOLATION .......................................................................................... 43
IV.3 PREMIÈRE FORMULE D’INTERPOLATION DE NEWTON. ........................................................................ 43
IV.4 DEUXIÈME FORMULE D’INTERPOLATION DE NEWTON. ....................................................................... 45
IV.5 FORMULE D’INTERPOLATION DE LAGRANGE ......................................................................................... 46
Chapitre Cinquième : ........................................................................................................................................................ 48
MEILLEURE APPROXIMATION AU SENS DE MOINDRES CARRES ORDINAIRES ........................................... 48
V.1 INTRODUCTION ................................................................................................................................................. 48
V.2 METHODE ET BUT .............................................................................................................................................. 48
V.3 COEFFICIENT DE CORRELATION .................................................................................................................... 49
V.4 ANALYSE DE REGRESSION ................................................................................................................................ 51
V.4.1 LA REGRESSION ........................................................................................................................................... 51
V.4.2 RELATION LINEAIRE ................................................................................................................................... 52
V.4.3 RELATION POLYNOMIALE .......................................................................................................................... 56
V.4.4 RELATION EXPONENTIELLE ...................................................................................................................... 56
Chapitre Sixième : ............................................................................................................................................................ 57
LA QUADRATURE ........................................................................................................................................................ 57
VI.1. LA DERIVATION APPROCHEE ...................................................................................................................... 57
VI.1.1 POSITION DU PROBLEME ....................................................................................................................... 57
VI.1.2 FORMULES DE DERIVATION APPROCHEE BASEES SUR LA PREMIERE FORMULE
D’INTERPOLATION DE NEWTON ..................................................................................................................... 57
VI.1.3 FORMULES DE DERIVATION APPROCHEE BASEES SUR LA FORMULE DE STIRLING ............. 63
VI. 2 INTEGRATION APPROCHEE (NUMERIQUE) DES FONCTIONS. ............................................................. 64
GENERALITES ...................................................................................................................................................... 64
A. Formule des trapèzes ...................................................................................................................................... 65
B. Formule de Simpson ........................................................................................................................................ 66
C. Méthode de Romberg (1955) ........................................................................................................................... 68
D. Intégration de Gauss-Legendre ....................................................................................................................... 70
E. Intégration multidimensionnelle...................................................................................................................... 71

Page 73 sur 74
CALCUL NUMERIQUE Ir Eric KAUND
PREPARATOIRE/ISTA/2014 – 2015 E_mail : kaunderick@gmail.com

Page 74 sur 74

Vous aimerez peut-être aussi