Académique Documents
Professionnel Documents
Culture Documents
HOUARI BOUMEDIENNE(1)
DÉPARTEMENT D’ANALYSE
LAADJ Toufik(2)
Pour
(1)
USTHB : Bab Ezzouar Alger, Algérie.
(2)
Page Web : http://perso.usthb.dz/˜tlaadj/
Table des matières
1 Analyse d’erreurs 1
2 Interpolation polynomiale 3
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Existence et unicité du polynôme d’interpolation . . . . . . . . . . . . . . . . . . 4
2.3 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.4 Interpolation de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.1 Différences divisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4.2 Formule d’interpolation de Newton . . . . . . . . . . . . . . . . . . . . . 9
2.5 Erreur d’interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5.1 Formule d’erreur d’interpolation . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.2 Erreur pour le cas des points d’interpolation équidistants . . . . . . . . . 11
3 Dérivation numérique 13
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Dérivée première . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.1 Formules à deux points . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.2 Formules à trois points . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Dérivées d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.4 Erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
i
Table des matières
4 Intégration numérique 19
4.1 Formules de Newton-Cotes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.1.1 Méthode des rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.1.2 Méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.3 Méthode de Simpson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Bibliographie 33
ii
Description du Cours
Objectif du Cours
L’objectif de ces notes de cours est de présenter certaines des méthodes numériques les plus
importantes et fondamentales qui sont utilisés dans les calculs pratiques de valeurs numériques
des grandeurs mathématiques, y compris les fonctions, les dérivées, les intégrales, les solu-
tions des équations algébriques, les solutions des systèmes linéaires, les solutions des équations
différentielles, etc.
Contenu du Cours
• Analyse d’erreurs
• Interpolation polynomiale
• Dérivation numérique
• Intégration numérique
iii
Description du Cours
Résultats d’apprentissage
À la fin du cours, l’étudiant doit avoir une bonne compréhension des méthodes numériques
courantes et comment elles sont utilisées pour obtenir des solutions approximatives aux problèmes
mathématiques autrement insolubles.
En particulier, l’étudiant doit être capable de :
iv
C
h a pi
tr
e 1
Analyse d’erreurs
L’analyse numérique est une branche des mathématiques appliquées s’intéressant aux méthodes
permettant de résoudre, par des calculs numériques, des problèmes d’analyse mathématique.
Erreur absolue
Ea (x∗ ) = |x − x∗ | . (1.1)
Erreur relative
1
1. Analyse d’erreurs
Il est très fréquent d’avoir à évaluer des polynômes de degré élevé en analyse numérique. Il
est donc important de pouvoir les évaluer rapidement et de la façon la plus stable possible du
point de vue de l’arithmétique flottante. C’est ce que permet l’algorithme de Horner appelé
aussi algorithme de multiplication imbriquée. Pour évaluer un polynôme de la forme
p (x) = a0 + a1 x + a2 x2 + a3 x3 + · · · + an xn
Exemple 1
Soit le polynôme p (x) = 2 + 4x + 5x2 + 3x3 qui nécessite 6 multiplications et 3 additions.
En suivant le mode de regroupement suivant l’algorithme de Horner, on obtient p (x) = 2 +
x (4 + x (5 + 3x)) qui nécessite seulement 3 multiplications et 3 additions. On réduit donc le
nombre d’opérations nécessaires.
2
C
h a pi
tr
e 2
Interpolation polynomiale
2.1 Introduction
L’interpolation polynomiale est l’une des méthodes d’approximation d’une fonction ou d’un
ensemble de données par un polynôme. En d’autres termes, étant donné un ensemble de n + 1
points {(xi , yi ) , i = 0, · · · , n} (obtenu, par exemple, à la suite d’une expérience), on cherche un
polynôme p qui passe par tous ces points, c’est-à-dire p (xi ) = yi , i = 0, · · · , n, et éventuellement
vérifie d’autres conditions, de degré si possible le plus bas.
y
p(x)
(x2 , y2 ) (xn , yn )
yi (xi , yi )
(x1 , y1 )
(x0 , y0 )
(xn−1 , yn−1 )
xi x
Les abscisses xi sont appelés noeuds d’interpolation tandis que les couples (xi , yi ) sont appelés
points d’interpolation, ou points de collocation.
3
2.2. Existence et unicité du polynôme d’interpolation
pn (xi ) = yi , i = 0, · · · , n? (2.1)
pn (xi ) = yi , i = 0, · · · , n.
On se donne n + 1 points (x0 , y0 ) , · · · , (xn , yn ), avec les xi distincts deux à deux. Le polynôme
d’interpolation sous la forme de Lagrange est une combinaison linéaire
n
X
L (x) = y0 `0 (x) + y1 `1 (x) + · · · + yn `n (x) = yi `i (x)
i=0
où i = 0, · · · , n. Noter comment, étant donné l’hypothèse initiale qu’il n’y a pas de deux xj
identiques, alors lorsque i 6= j, xi − xj 6= 0, cette expression est toujours bien définie.
Exemple 2
x − x1 x − x0
Pour n = 1 le polynôme de Lagrange s’écrit p1 (x) = y0 + y1 .
x0 − x1 x1 − x0
4
2.3. Interpolation de Lagrange
y
y1 (x1 , y1 )
)
(x
p1
1
x)
` 1(
(x0 , y0 )
y0 `0 (
x)
x0 x1 x
C’est l’équation de la droite qui passe par les points (x0 , y0 ) et (x1 , y1 ).
Exemple 3
(x − x1 ) (x − x2 ) (x − x0 ) (x − x2 ) (x − x0 ) (x − x1 )
p2 (x) = y0 + y1 + y2 .
(x0 − x1 ) (x0 − x2 ) (x1 − x0 ) (x1 − x2 ) (x2 − x0 ) (x2 − x1 )
y
y2 (x2 , y2 )
p2 (x)
y1 (x1 , y1 )
`2 (x)
1
(x0 , y0 )
y0 `0 (x)
x0 x1 x2 x
`1 (x)
C’est l’équation de parabole qui passe par les points (x0 , y0 ) , (x1 , y1 ) et (x2 , y2 ).
Exemple 4
5
2.3. Interpolation de Lagrange
y
5 (4, 5)
où
(x − x1 ) (x − x2 ) (x − x3 ) 4
`0 (x) =
(x0 − x1 ) (x0 − x2 ) (x0 − x3 ) p3
−1 (1, 3)
= (x − 1) (x − 3) (x − 4) , 3
12
(x − x0 ) (x − x2 ) (x − x3 )
`1 (x) =
(x1 − x0 ) (x1 − x2 ) (x1 − x3 ) 2
1
= x (x − 3) (x − 4) ,
6 `1 `2
1 (0, 1)
(x − x0 ) (x − x1 ) (x − x2 ) `3
`3 (x) =
(x3 − x0 ) (x3 − x1 ) (x3 − x2 ) `0
1
= x (x − 1) (x − 3) . 1 2 (3, 0) 4 x
12
Donc
−1
p3 (x) = 12
(x − 1) (x − 3) (x − 4) + 12 x (x − 3) (x − 4) + 5
12
x (x − 1) (x − 3)
= 56 x3 − 29 x2 + 17
3
x + 1.
Exemple 5
(x − x1 ) (x − x2 ) (x − x0 ) (x − x2 ) (x − x0 ) (x − x1 )
p2 (x) = f (x0 ) + f (x1 ) + f (x2 )
(x0 − x1 ) (x0 − x2 ) (x1 − x0 ) (x1 − x2 ) (x2 − x0 ) (x2 − x1 )
x (x − 1) (x + 1) (x − 1) (x + 1) x
= e−1 + +e
2 −1 2
e 1 e 1
= −1+ x2 + − x+1
2 2e 2 2e
6
2.4. Interpolation de Newton
f (x) = ex
p2 (x)
1
e
−1 1 x
L’interpolation de Newton est une méthode ne diffère de l’interpolation lagrangienne que par
la façon dont le polynôme est calculé, le polynôme d’interpolation qui en résulte est le même.
Pour cette raison on parle aussi plutôt de la forme de Newton du polynôme de Lagrange.
7
2.4. Interpolation de Newton
Pour expliciter le processus récursif, les différences divisées peuvent être calculées en les dis-
posant de la manière suivante dans un tableau.
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] · · · f [x0 , x1 , · · · , xn ]
x0 f (x0 )
x1 f (x1 ) f [x0 , x1 ]
x2 f (x2 ) f [x1 , x2 ] f [x0 , x1 , x2 ]
x3 f (x3 ) f [x2 , x3 ] f [x1 , x2 , x3 ] f [x0 , x1 , x2 , x3 ]
.. .. .. .. .. ..
. . . . . .
xn f (xn ) f [xn−1 , xn ] f [xn−2 , xn−1 , xn ] f [xn−3 , xn−2 , xn−1 , xn ] · · · f [x0 , x1 , · · · , xn ]
Pour obtenir par exemple f [x0 , x1 , x2 ], il suffit de soustraire les 2 termes adjacents f [x1 , x2 ] −
f [x0 , x1 ] et de diviser le résultat par (x2 − x0 ).
8
2.4. Interpolation de Newton
+ · · · + f [x0 , x1 , · · · , xn ] (x − x0 ) (x − x1 ) · · · (x − xn−1 ) ,
ou bien
n
X i−1
Y
pn (x) = f [x0 , x1 , · · · , xi ] (x − xj ) , (2.2)
i=0 j=0
Exemple 6
Déterminons p3 le polynôme d’interpolation de la fonction f qui passe par les points (−1, −2),
(0, −1), (1, 0) et (2, 3). La table de différences divisées pour ces points est
Table de différences divisées
xi f (xi ) f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ]
−1 −2
0 −1 1
1 0 1 0
1
2 3 3 1 3
Suivant la formule de Newton, le polynôme interpolant les points (−1, −2), (0, −1), (1, 0) et
(2, 3) est
1 1 2
p3 (x) = −2 + 1 × (x + 1) + 0 × (x + 1) (x − 0) + (x + 1) (x − 0) (x − 1) = x3 + x − 1.
3 3 3
9
2.5. Erreur d’interpolation
0 −1 1
(3, 2)
1 0 1 0
2 3 3 1 1 p4 (x)
3
3 2 −1 −2 −1 − 31
(1, 0)
x
Ce polynôme de degré 4 est alors
(0, −1)
1
p4 (x) = p3 (x) − (x + 1) (x − 0) (x − 1) (x − 2)
3
1 4 1 (−1, −2)
= − x + x3 + x2 − 1.
3 3
qui est tout simplement le polynôme de degré 3 déjà calculé auquel on a ajouté une correction
de degré 4.
10
2.5. Erreur d’interpolation
f (n+1) (ξx )
En (x) = f (x) − pn (x) = (x − x0 ) (x − x1 ) · · · (x − xn ) .
(n + 1)!
Mn+1
|En (x)| ≤ |(x − x0 ) (x − x1 ) · · · (x − xn )| où Mn+1 = max f (n+1) (x) .
(n + 1)! x∈[a,b]
Exemple 7
Soit f (x) = ex à interpoler aux points 0, 14 , 21 , 43 et 1. Calculons l’erreur d’approximation en
x = 13 .
Cinq points d’interpolation donnent n = 4. Donc f (n+1) (x) = f (5) (x) = ex . Il existe alors une
valeur ξ ∈ ]0, 1[ telle que
1
1
eξ 1 1 1 1 1 1 3 1 eξ 320
e 3 − p4 3
= − 0 − − − − 1 =
5! 3 3 4 3 2 3 4 3
5! 125
ξ 1
320 e 320 e
≤ 5 max = 5 = 0.0000291.
12 ξ∈[0,1] 5! 12 5!
Lorsque les points d’interpolation sont équidistants, une majoration de |En (x)| un peu plus
fine conduit au résultat suivant.
Corollaire 7 (Points d’interpolation équidistants)
Soient x0 , x1 , · · · , xn ∈ [a, b] , n + 1 points équidistants (ou équirépartis) avec xi = a + ih, i =
b−a
0, 1, · · · , n où h = n
. On suppose que f ∈ C n+1 ([a, b]). L’erreur d’interpolation pour tout
x ∈ [a, b] est estimée par
hn+1
|En (x)| ≤ max f (n+1) (x) .
4 (n + 1) x∈[a,b]
11
2.5. Erreur d’interpolation
f
p10 3
p14
2
−5 −4 −3 −2 −1 1 2 3 4 5 x
−1
12
C
h a pi
tr
e 3
Dérivation numérique
3.1 Introduction
Cette formule se simplifie notablement dans le cas de points équidistants (h1 = h2 = h) pour
donner
f (x + h) − f (x − h)
Formule centrée - points équidistants f 0 (x) ' . (3.3)
2h
Les trois formules ci-dessus de différences sont visualisées sur la figure suivante.
13
3.2. Dérivée première
y
f
f (x + h)
Progressive
f (x) Centrée
f (x − h) Régressive
Dérivée exacte
x−h x x+h x
Exemple 9
Pour illustrer les trois formules, considérons les données suivantes
3
f (x2 )−f (x1 ) −3 3
• Progressive f 0 (2) ' x2 −x1
= 2
3−2
= − 32 .
7
0 f (x1 )−f (x0 ) 3−
• Régressive f (2) ' x1 −x0
= 2−1
2 = − 12 . 2
3 7
f (x2 )−f (x0 ) −
• Centrée f 0 (2) ' x2 −x0
= 2 2
3−1
= −1. 1
1 2 3 4 x
1 3 1
Les données ont été calculé pour la fonction f (x) = − 12 x + 12
x + 72 .
On a f 0 (x) = − 14 x2 + 1
12
et f 0 (2) = − 11
12
.
14
3.3. Dérivées d’ordre supérieur
Exemple 10
1 3 1 7
Considérons la fonction f (x) = − 12 x + 12
x + 2
de l’exemple précédent pour les données
3
−f (4)+4f (3)−3f (2) +6−9
• Progressive à trois points f 0 (2) ' 2
= 2
2
= − 34 .
7
3f (2)−4f (1)+f (0) 9−14+
• Régressive à trois points f 0 (2) ' 2
= 2
2 = − 34 .
f (x0 ) p2 (x)
x0 x1 x2 x
Pour les différences à deux points, on estime la dérivée par la pente du segment de droite
joignant les deux points. Dans le cas des différences à trois points, on détermine le polynôme
d’interpolation de degré 2 dont la pente en x0 , en x1 et en x2 donne respectivement les différences
progressive, centrée et régressive.
Les formules de dérivées d’ordre supérieur, peuvent être trouvées à partir des dérivées du
polynôme de Lagrange ou en utilisant les formules de Taylor. Par exemple, pour la dérivée
15
3.4. Erreur
seconde
f (x + 2h) − 2f (x + h) + f (x)
• Formule de différence progressive f 00 (x) ' .
h2
f (x − 2h) − 2f (x − h) + f (x)
• Formule de différence régressive f 00 (x) ' .
h2
f (x − h) − 2f (x) + f (x + h)
• Formule de différence centrée f 00 (x) ' .
h2
Exemple 11
Considérons la fonction f (x) = x3 . Estimons la valeur de f 00 (1) avec h = 0.1.
f (1+0.2)−2f (1+0.1)+f (1) (1.2)3 −2×(1.1)3 +13
• Progressive f 00 (1) ' (0.1)2
= (0.1)2
= 6.6.
3.4 Erreur
0 0
E (h) = fexacte (x) − fapproximative (x) .
On dit que la formule de dérivation est d’ordre n, s’il existe une constante C dépendant de f
telle que
|E (h)| ≤ C hn ,
et on écrira fréquemment de façon abrégée |E (h)| ∼ O (hn ). La constante C est dite le facteur
de convergence de la méthode.
Soient hk > hk+1 > 0. On définit l’ordre numérique par la formule suivante.
Pour le calcul théorique de l’erreur commise lorsque on remplace f 0 (x) par l’une des formules
d’approximation ci-dessus, on revient au développement de Taylor effectué lors du calcul des
formules de dérivation.
16
3.4. Erreur
f (x + h) − f (x)
• Erreur dans la formule progressive |E (x)| = f 0 (x) − ≤ C h.
h
f (x) − f (x − h)
• Erreur dans la formule régressive |E (x)| = f 0 (x) − ≤ C h.
h
f (x + h) − f (x − h)
• Erreur dans la formule centrée |E (x)| = f 0 (x) − ≤ C h2 .
2h
Exemple 12
Considérons la fonction f (x) = x2 + x + sin x. Pour x = 0, le tableau suivant permet de voir
l’évolution des dérivées numériques en fonction de h et de comparer les résultats des 3 formules
de différences. On a f 0 (x) = 2x + 1 + cos x et donc f 0 (0) = 2.
h prog. Eprog (h) ordre reg. Ereg (h) ordre cent. Ecent (h) ordre
0.5 2.4588 -0.4588 0.9373 1.4588 0.5411 1.0554 1.9588 0.0411 1.9865
0.25 2.2396 -0.2396 0.9691 1.7396 0.2603 1.0290 1.9896 0.0103 1.9966
0.125 2.1224 -0.1224 0.9847 1.8724 0.1276 1.0148 1.9974 0.0026 1.9991
0.0625 2.0618 -0.0618 0.9924 1.9368 0.0631 1.0074 1.9993 0.0006 1.9997
0.0312 2.0310 -0.0310 1.9686 0.0314 1.9998 0.0001
Exemple 13
Reprenons la fonction de l’exemple 12, f (x) = x2 + x + sin x et x = 0.
h prog. 3pts Eprog (h) ordre reg. 3pts Ereg (h) ordre
17
3.4. Erreur
Exemple 14
Considérons la fonction f (x) = e2x et calculons des dérivées numériques secondes à x = 0 pour
différentes valeurs de h en utilisant les 3 formules de différences.
On a f 00 (x) = 4e2x et donc f 00 (0) = 4.
h prog. Eprog (h) ordre reg. Ereg (h) ordre cent. Ecent (h) ordre
0.5 11.8100 -7.8100 1.5146 1.5983 2.4017 0.6572 4.3446 -0.3446 2.0361
0.25 6.7334 -2.7334 1.2330 2.4771 1.5229 0.8102 4.0840 -0.0840 2.0090
0.125 5.1629 -1.1629 1.1107 3.1315 0.8685 0.9001 4.0209 -0.0209 2.0022
0.0625 4.5385 -0.5385 1.0539 3.5346 0.4654 0.9488 4.0052 -0.0052 2.0001
0.0312 4.2589 -0.2589 3.7592 0.2408 4.0013 -0.0013
18
C
h a pi
tr
e 4
Intégration numérique
Dans ce chapitre, nous allons présenter différentes manières d’approximer l’intégrale d’une
fonction bornée f définie sur un intervalle [a, b],
Z b
f (x) dx.
a
Dans la méthode des rectangles, on remplace la fonction à intégrer f par une fonction constante
par morceaux g (x) sur chaque intervalle élémentaire [xi−1 , xi ], soit par
19
4.1. Formules de Newton-Cotes
x0 x1 x2 x3 x4 x5 x6 x
soit par
x0 x1 x2 x3 x4 x5 x6 x
soit par
20
4.1. Formules de Newton-Cotes
x0 x1 x2 x3 x4 x5 x6 x
b−a
Si la subdivision est régulière de longueur (pas) h = ,
n
xi = a + ih, i = 0, · · · , n,
b n
• avec point
Z X
xi−1 +xi
f (x) dx ' h f 2
= h f x 1 + f x 3 + · · · + f xn− 1 .
2 2 2
au milieu a i=1
Les méthodes des rectangles à gauche et à droite sont des méthodes d’ordre 0. Lorsque la
dérivée première de f est bornée par une constante M , l’erreur est donnée par
b n
b−a
Z X
• à gauche f (x) dx − h f (xi−1 ) ≤ h sup |f 0 (x)| ,
a i=1
2 x∈[a,b]
Z b n
X b−a
• à droite f (x) dx − h f (xi ) ≤ h sup |f 0 (x)| .
a i=1
2 x∈[a,b]
La méthode des rectangles avec point au milieu est une méthode d’ordre 1. L’erreur dans cette
méthode si f ∈ C 2 ([a, b]), est donnée par l’expression
b n
b−a 2
Z X xi−1 +xi
f (x) dx − h f 2
≤ h sup |f 00 (x)| .
a i=1
24 x∈[a,b]
Exemple 15 Z π
2
Évaluons numériquement pour n = 3 l’intégrale sin xdx dont la valeur exacte est I (f ) = 1.
0
b−a
On a a = 0, b = π2 , n = 3, h = , xi = a + ih , 0 ≤ i ≤ n et f (x) = sin x.
n
21
4.1. Formules de Newton-Cotes
π
−0
Donc h = 2
3
= π6 , xi = i π6 , 0 ≤ i ≤ 3. Alors on a le tableau suivant :
i 0 1 2 3 i 1 2 3
π π π xi−1 +xi π π 5π
xi 0 6 3 2 2 12 4 12
√ √ √ √ √ √
1 3
f xi−12+xi 6− 2 2 6+ 2
f (xi ) = sin xi 0 2 2
1 4 2 4
y y y
π
12
π
6
π
4
π
3
5π π
2
x π
12
π
6
π
4
π
3
5π π
2
x π
12
π
6
π
4
π
3
5π π
2
x
12 12 12
Rg Rd Rm
Dans la méthode des trapèzes, la fonction f est remplacée sur chaque intervalle [xi−1 , xi ] par la
droite joignant les points (xi−1 , f (xi−1 )) et (xi , f (xi )), soit
22
4.1. Formules de Newton-Cotes
La méthode s’écrit Z b n
X f (xi−1 ) + f (xi )
f (x) dx ' (xi − xi−1 ) .
a i=1
2
y
x0 x1 x2 x3 x4 x5 x6 x
b−a
Lorsque la subdivision est régulière de longueur (pas) h = ,
n
xi = a + ih, i = 0, · · · , n,
on a !
Z b n n−1
X f (xi−1 ) + f (xi ) h X
f (x) dx ' h = f (a) + 2 f (xi ) + f (b) .
a i=1
2 2 i=1
La méthode des trapèzes est une méthode d’ordre 1. L’erreur dans la méthode des trapèzes si
f ∈ C 2 ([a, b]), est donnée par l’expression
Z b n
X f (xi−1 ) + f (xi ) b−a 2
f (x) dx − h ≤ h sup |f 00 (x)| .
a i=1
2 12 x∈[a,b]
Exemple 16
Soit f (x) = x2 sur [a, b] = [0, 1], on prend n = 3 subdivisions.
b−a 1 i
Donc a = 0, b = 1, n = 3, h = = , xi = a + ih = , 0 ≤ i ≤ 3.
n 3 3
Alors on a le tableau suivant :
y
i 0 1 2 3
1 2
xi 0 3 3
1
1 4
f (xi ) = x2i 0 9 9
1
1 2 1 x
3 3
23
4.1. Formules de Newton-Cotes
xi = a + ih, i = 0, · · · , n,
La méthode de Simpson est une méthode d’ordre 4. Si f ∈ C 4 ([a, b]), l’erreur commise est
donnée par l’expression
b
b−a 4
Z
f (x) dx − S (f ) ≤ h sup f (4) (x) .
a 180 x∈[a,b]
Exemple 17
On reprend le calcul de l’exemple précédent. Pour la fonction f (x) = x2 dans l’intervalle [0, 1],
on prend n = 4 subdivisions, on a
1
f (0) + 4f 14 + 2f 24 + 4f 43 + f (1)
4
S4 (f ) =
3 Z 1
1 1 4 9 1
= 0+4 +2 +4 +1 = = x2 dx.
12 16 16 16 3 0
24
C
h a pi
tr
e 5
Résolution d’équations non linéaires
5.1 Introduction
Dans ce chapitre, nous présenterons les méthodes d’approximation des solutions d’équations
algébriques non linéaires. Nous nous limiterons au cas de la recherche des racines d’une seule
équation d’une variable.
Soit f : [a, b] ⊂ R → R une fonction continue sur [a, b]. Nous serons intéressés à trouver des
points x pour lesquels
f (x) = 0.
Introduisons dès maintenant la terminologie qui nous sera utile pour traiter ce problème.
Définition 8
Une valeur de x solution de f (x) = 0 est appelée une racine ou un zéro de la fonction f (x)
et est notée r.
Il n’y a vraiment pas beaucoup d’outils généraux pour savoir à l’avance si le problème de
recherche de racines peut être résolu. Pour nos besoins, le problème le plus important sera
d’obtenir des informations sur l’existence ou non d’une racine, et si une racine existe, il sera
25
5.1. Introduction
alors important de tenter d’estimer un intervalle auquel appartient cette racine. Pour localiser
une telle racine, en général, deux méthodes se présentent.
Méthode graphique
L’une de nos premières tentatives pour résoudre les problèmes de recherche de racines peut être
d’essayer de tracer le graphe de la fonction.
Parfois, il arrive que f se décompose en deux fonctions f1 et f2 simples à étudier, telles que
f = f1 − f2 , et on cherche les points d’intersection des graphes de f1 et f2 , dont les abscisses
sont exactement les racines de f .
Exemple 18
1
La fonction f définie par f (x) = Log x − , x ∈ ]0, +∞[ a une racine unique dans l’intervalle
x
3 1
2
, 2 . En effet, posons f1 (x) = Log x et f2 (x) = . Alors f (x) = 0 équivalent à f1 (x) = f2 (x)
3 x
et d’après le graphe ci-contre il existe α ∈ 2 , 2 telle que f1 (α) = f2 (α).
y
1
f2 (x) =
x
f1 (x) = Log x
1
1 1.5 α 2 3 4 5 x
−1
Ce qui est parfois plus facile, c’est de vérifier que la fonction f est continue, auquel cas il suffit
de trouver un point a dans lequel f (a) > 0, et un point b, dans lequel f (b) < 0. La continuité
garantira alors, grâce au théorème des valeurs intermédiaires, qu’il existe un point c entre a et
b pour lequel f (c) = 0.
26
5.2. Méthode de dichotomie (ou de bissection)
Exemple 19
Considérons le polynôme p défini par
p(x) = x4 − x3 − x2 + 7x − 10.
Selon le théorème des valeurs intermédiaires pour les fonctions continues et d’apres le tableau
suivant
x −4 −3 −2 −1 0 1 2 3 4
Soit f une fonction continue sur l’intervalle [a, b] telle que f a des signes opposés aux extrémités
a et b, c’est-à-dire f (a) f (b) < 0.
y y
ou
b a
a c x c b x
Il existe au moins une racine r dans l’intervalle [a, b] telle que f (r) = 0. Si de plus f est
strictement monotone dans l’intervalle [a, b], alors r est unique.
La méthode de dichotomie, aussi appelée méthode de bisection, consiste à diviser l’intervalle
a+b
[a, b] en deux sous-intervalles, c = 2
.
Cela génère deux sous-intervalles, [a, c] et [c, b], de mêmes longueurs. Nous voulons conserver le
sous-intervalle qui est garanti pour contenir une racine. Bien sûr, dans le cas rare où f (c) = 0,
nous avons terminé. Sinon, on vérifie si f (a) f (c) < 0. Si oui, on garde le sous-intervalle gauche
[a, c]. Si f (a) f (c) > 0, on garde le sous-intervalle droit [c, b]. Cette procédure se répète jusqu’à
ce que le critère d’arrêt soit satisfait : on fixe un petit paramètre ε > 0 et on s’arrête quand
27
5.2. Méthode de dichotomie (ou de bissection)
|f (c)| < ε. Pour simplifier la notation, nous désignons les intervalles successifs par [a0 , b0 ],
[a1 , b1 ],· · · . Les deux premières itérations de la méthode de dichotomie sont représentées sur la
figure ci-dessous.
y y
c0 b0 c1 b1= c0
a0 x a1 x
=
a0
Théorème 9
Si [an , bn ] est l’intervalle obtenu dans la n-ième itération de la méthode de dichotomie, alors
les limites lim an et lim bn existent, et
n→+∞ n→+∞
an +bn
De plus, si cn = 2
alors
|r − cn | ≤ 2−(n+1) (b0 − a0 ) .
Remarque 10
Pour garantir que l’erreur |r − cn | < ε, pour une tolérance ε donnée, il suffit d’effectuer kmin
itérations, où kmin est le plus petit entier tel que
Log b−a
ε
kmin > − 1.
Log 2
Exemple 20
Soit à résoudre par la méthode de dichotomie f (x) = x3 + x2 − 3x − 3 dans l’intervale [a0 , b0 ] =
[1, 2]. On a
f (1) f (2) = −4 × 3 = −12 < 0.
1+2
On a alors c0 = 2
= 1.5 et f (1.5) = −1.875. L’intervalle [1.5, 2] possède encore un change-
ment de signe, ce qui n’est pas le cas pour l’intervalle [1, 1.5].
Le nouvel intervalle de travail est donc [1.5, 2], dont le milieu est
1.5 + 2
c1 = = 1.75.
2
28
5.3. Méthode de Newton
0 1 1.5 2 -4 -1.875 3
1 1.5 1.75 2 -1.875 0.171875 3 0.25
2 1.5 1.625 1.75 -1.875 -0.943359 0.171875 0.125
3 1.625 1.6875 1.75 -0.943359 -0.409423 0.171875 0.0625
4 1.6875 1.71875 1.75 -0.409423 -0.124786 0.171875 0.03125
5 1.71875 1.734375 1.75 -0.124786 0.022029 0.171875 0.015625
6 1.71875 1.726563 1.734375 -0.124786 -0.051755 0.022029 0.007812
7 1.726563 1.730469 1.734375 -0.051755 -0.049572 0.022029 0.003906
La méthode de Newton est une méthode de recherche de racine relativement simple, pratique
et largement utilisée.
En général, la méthode de Newton (également connue sous le nom de méthode de Newton-
Raphson) pour trouver une racine est donnée par
f (xn )
xn+1 = xn − avec x0 une estimation initiale.
f 0 (xn )
Exemple 21
On cherche à résoudre l’équation f (x) = e−x − x = 0. Pour utiliser la méthode de Newton,
calculons la dérivée de cette fonction, qui est f 0 (x) = −e−x − 1. L’algorithme se résume à
f (xn ) e−xn − xn
xn+1 = xn − = x n − .
f 0 (xn ) −e−xn − 1
29
5.3. Méthode de Newton
n xn |xn − xn−1 |
0 0.0000000
1 0.5000000 0.5000 × 100
2 0.5663110 0.6631 × 10−1
3 0.5671432 0.8322 × 10−3
4 0.5671433 0.1 × 10−6
On remarque la convergence très rapide de cette méthode. On note également que le nombre de
chiffres significatifs double à chaque itération. Ce phénomène est caractéristique de la méthode
de Newton.
Soit x0 l’estimation initiale de la solution de f (x) = 0 et soit l (x) la droite tangente à f (x) en
x0 qui a pour équation
y = f (x0 ) + f 0 (x0 ) (x − x0 ) ,
ce qui donne
f (x0 )
x 1 = x0 − .
f 0 (x0 )
On reprend ensuite le même raisonnement à partir de x1 et ainsi de suite. Deux exemples
d’itérations de la méthode sont illustrés dans la figure ci-dessous.
30
5.3. Méthode de Newton
x0 x1 x2 r x
Il est facile de voir que la méthode de Newton ne converge pas toujours. Nous démontrons un
tel cas dans la figure ci-dessous. Nous considérons ici la fonction f (x) = Arctg x et montrons
ce qui se passe si nous partons d’un point qui est un point fixe de la méthode de Newton, itéré
deux fois. Dans ce cas, x0 = 1.3917 est un tel point.
y
x1 , x3 , x5 , · · · r x0 , x2 , x4 , · · · x
31
5.3. Méthode de Newton
Théorème 11
Soit f ∈ C 2 ([a, b]). Supposons que f vérifiant
1) f (a) f (b) < 0.
2) f 0 (x) 6= 0 pour tout x ∈ [a, b]. (strictement monotone)
3) f 00 (x) 6= 0 pour tout x ∈ [a, b]. (convexe ou bien concave)
Alors
a) f admet une racine unique r ∈ [a, b].
b) la suite (xn )n converge vers r pour chaque x0 ∈ [a, b] vérifiant f (x0 ) f 00 (x0 ) > 0. De plus,
cette convergence est quadratique telle que
en+1 1 f 00 (r)
lim = .
n→+∞ e2
n 2 f 0 (r)
32
Références
[1] Abdellah Lamanii, Analyse numérique 1. Université de Hassan 1 Maroc, septembre 2018.
[3] André Fortin, Analyse numérique pour ingénieurs. Presses internationales Polytechnique,
Canada 2011.
[4] Donatien N’Dri et Steven Dufour, Recueil d’exercices, Exercices pour les cours de
calcul scientifique pour ingénieurs MTH2210B. EP de Montréal, novembre 2018.
[7] Gloria Faccanoni, M33 Analyse numérique. Recueil d’exercices corrigés et aide-mémoire.
Université de Toulon, août 2015.
[9] Karima Mebarki, Analyse Numérique, Cours deuxième année licence mathématiques.
UAM Béjaia 2014.
[10] Luc Jolivet et Rabah Labbas, Analyse et analyse numérique, rappel de cours et exer-
cices corrigés. Lavoisier, 2005.
[11] Mohammed Boussaid, Méthodes numériques de base. UMO Bouira, mai 2018.
[12] Nassima Khaldi, Notes de Cours et exercices corrigés d’Analyse numérique I. UST Oran
33
Bibliographie
2018/2019.
[13] Souad El Bernoussi, Saı̈d El Hajji et Awatef Sayah, Analyse Numérique I, Notes
de Cours. Université Mohammed V Agdal, 2005-2006.
[14] Thomas Briffard, MAT-2910: Analyse numérique pour ingénieurs. GIREF, Université
Laval, janvier 2020.
34