Vous êtes sur la page 1sur 9

Chapitre 1

Résolution numérique des équations non


linéaires

L’objet essentiel de ce chapitre est l’approximation des racines d’une fonction réelle d’une
variable réelle, c’est-à-dire la résolution approchée du problème suivant :

Étant donné f : I =]a, b[−→ R, trouver α ∈ R tel que f (α) = 0.

Les méthodes pour approcher une racine α de f sont en général itératives : elles consistent à
construire une suite {xk } telle que
lim xk = α
k→+∞

1.1 Méthodes classiques


Définition 1.1.1 On dit qu’une suite {xk } construite par une méthode numérique converge vers
α avec un ordre au moins p (p ≥ 1) si

|xk+1 − α|
∃C > 0 : ≤ C, ∀k ≥ k0 .
|xk − α|p

où k0 ≥ 0 est un entier.


On dit qu’une suite {xk } construite par une méthode numérique converge vers α à l’ordre p
si ∃ C > 0 vérifiant :
|xk+1 − α|
lim = C.
k−→+∞ |xk − α|p

Remarquer que si p est égal à 1, il est nécessaire que C < 1 pour que xk converge vers α
avec un ordre au moins égale à 1. On appelle alors la constante C facteur de convergence de la
méthode.
La convergence des méthodes itératives pour la détermination des racines d’une équation non
linéaire dépend en général du choix de la donnée initiale x0 . Le plus souvent, on ne sait établir
que des résultats de convergence locale, c’est-à-dire valables seulement pour un x0 appartenant à
un certain voisinage de la racine α. Les méthodes qui convergent vers α pour tout choix de x0 ∈ I
sont dites globalement convergentes vers α.
Chapitre 1. Résolution numérique des équations non linéaires 2

1.1.1 Méthode de dichotomie (ou bissection)


On se place dans le cas où la fonction :
f : [a, b] −→ R
vérifie les hypothèses :
— f est continue sur [a, b].
— f est strictement monotone sur [a, b].
— f (a) · f (b) < 0
ce qui assure l’éxistence et l’unicité de la racine α.
La méthode classique de dichotomie est une méthode de localisation des racines d’une équation
f (x) = 0 basée sur le théorème des valeurs intermédiaires : si f est continue sur [a, b] et f (a)·f (b) <
0, alors il existe α ∈]a, b[ tel que f (α) = 0. L’idée est donc de partir d’un intervalle [a, b] vérifiant
la propriété f (a) · f (b) < 0, de le scinder en deux intervalles [a, c] et [c, b] avec c = a+b 2
, et de
tester les bornes des nouveaux intervalles (on calcule f (a) · f (c) et f (c) · f (b) pour en trouver un
(au moins) qui vérifie encore la propriété, c’est-à-dire f (a) · f (c) < 0 ou f (c) · f (b) < 0. On itère
ensuite ce procédé un certain nombre de fois dépendant de la précision que l’on recherche sur la
solution. On obtient l’algorithme suivant :

On suppose que f est continue dans [a, b] et que f (a) · f (b) < 0
— on pose c = a+b 2
— — si f (c) = 0 alors α = c
— si f (a) · f (c) < 0 on remplace b = c
— sinon on remplace a = c ;
— on continue cette opération jusqu’ à ce qu’on trouve α avec la précision demandée.

Cet algorithme construit une suite d’intervalles emboı̂tés contenant la solution α. À chaque
passage dans la boucle nous devons calculer une évaluation de f . La méthode de dichotomie est
simple mais elle ne garantit pas une réduction monotone de l’erreur d’une itération à l’autre :
tout ce dont on est assuré, c’est que la longueur de l’intervalle de recherche est divisée par deux à
chaque étape. Il est par exemple frappant que la méthode ne converge pas en une seule itération
quand f est lineaire (a moins que le zero de f ne soit le milieu de l’intervalle de recherche initial).
La lente convergence de la méthode de dichotomie suggère de n’utiliser cet algorithme que
pour s’approcher de la racine. En effet, après quelques itérations de dichotomie, on obtient une
approximation raisonnable de α qu’on peut utiliser comme point de départ pour une méthode
d’ordre supérieur qui fournira alors une convergence rapide vers la solution avec une précision
donnée.
Comme conclusion, la méthode de dichotomie a l’avantage d’exiger peu d’hypothèses sur
la fonction. Elle sert parfois de moyen de calcul d’une initialisation pour les algorithmes des
autres méthodes. L’inconvénient majeur de cette méthode est la lenteur de convergence de son
algorithme.

1.1.2 Méthode de Newton


La seule information utilisée par la méthode de dichotomie est le signe de la fonction f aux
extrémités des sous-intervalles. Dans le cas où f est différentiable, on peut construire une méthode
plus efficace en exploitant les valeurs de f et de ses dérivées.
Chapitre 1. Résolution numérique des équations non linéaires 3

On suppose maintenant que la fonction f vérifie les hypothèses suivantes :


1. f est continue sur [a, b].
2. f est strictement monotone sur [a, b].
3. f (a) · f (b) < 0
4. f est dérivable sur [a, b] et f 0 (x) 6= 0 sur [a, b].
5. f est deux fois dérivable sur [a, b]
Les trois premières hypothèses garantissent l’existence et l’unicité d’une racine α de l’équation
f (x) = 0.
La méthode de Newton est l’une des méthodes les plus utilisées pour la résolution numérique
des équations non linéaires. Cette méthode possède également une belle interpretation géomé-
trique. L’idée principale de la méthode de Newton est de dire qu’au voisinage de la racine α la
courbe représentative de la fonction peut être confondue avec la tangente en un point x0 proche
de α. Cela revient à confondre f avec son développement limité à l’ordre 1 en x0 :
f (x) ' f (x0 ) + f 0 (x0 )(x − x0 ) quand x −→ x0
La solution de l’équation f (x) = 0 peut donc être approchée par la résolution de :
f (x0 ) + f 0 (x0 )(x − x0 ) = 0
dont la solution est :
f (x0 )
x1 = x0 −
f 0 (x0 )
x1 est une première approximation de α. En réitérant le procédé ci-dessus, on construit la
suite définie par : 
 x0 fixé proche α
f (xn )
xn+1 = xn −

f 0 (xn )
appelée suite des itérés de l’algorithme de Newton.
Supposons que l’on connaisse une valeur xn proche de α. Pour calculer xn+1 nous prenons
l’intersection de l’axe (Ox) avec la droite tangente au graphe de f passant par le point (xn , f (xn ))
comme cela est indiqué sur le graphe suivant :

Fig. 1.1 – Les premières itérations obtenues avec la méthode de Newton


Chapitre 1. Résolution numérique des équations non linéaires 4

Théorème 1.1.1 Sous les hypothèses 1, 2, . . . ,5 et pour x0 choisi suffisamment proche de l’unique
racine α la suite des itérés de Newton converge vers α.

On admettra ce théorème dont l’idée de démonstration repose sur le fait que la fonction f (x) − α
vérifie toutes les hypothèses du point fixe (que nous allons étudier plus tard dans ce chapitre)
dans un voisinage de α .

Mise en garde
Même si la fonction f vérifie toutes les hypothèses 1, . . . ,5 sur un intervalle [a, b], il se peut
que pour certains choix de l’initialisation x0 ∈ [a, b] on ait, à une itération n, xn 6∈ [a, b]. Dans
ce cas, on n’est plus assuré de la convergence de la suite xn vers la racine cherchée.

Exemple :
Considérons l’équation
f (x) = 0
avec
f (x) = x3 − 4.53x2 + 6.0291x − 2.218093
f , fonction polynôme est continue et dérivable sur [1, 2] et on peut vérifier une à une les hypothèses
d’application de la méthode de Newton. Partant de x0 = 1.1, la méthode de la tangente donne
une valeur x1 proche de 2, et une valeur x3 n’appartenant plus à l’intervalle [1, 2].

Fig. 1.2 – Les premières itérations obtenues avec la méthode de Newton avec x0 = 1.1

alors que la suite des itérés converge vers la racine cherchée en partant de la valeur initiale
x0 = 1.15.
Chapitre 1. Résolution numérique des équations non linéaires 5

Fig. 1.3 – Les premières itérations obtenues avec la méthode de Newton avec x0 = 1.15

Le résultat suivant permet d’obtenir un choix de x0 assurant la convergence de la méthode :


Théorème 1.1.2 Si f vérifie les hypothèses 1, . . . , 5, si de plus f 00 (x) ne s’annule pas et garde
un signe constant sur [a, b], alors : en choisissant x0 ∈ [a, b] tel que f (x0 ) et f 00 (x0 ) soient de
même signe, la suite des itérés de la méthode de Newton converge vers la racine cherchée.
Mais cela suppose que f 00 (x) ne s’annule pas sur [a, b] ce qui n’est pas le cas de l’exemple précédent.

1.1.3 Méthode de la sécante


La méthode de Newton possède de grands avantages, mais elle nécessite le calcul de la dérivée
de f (x). Si la fonction f (x) est complexe, cette dérivée peut être difficile à évaluer et peut résulter
en une expression très complexe. On contourne cette difficulté en remplaçant f 0 (xn ) par :
f (xn ) − f (xn−1 )
f 0 (xn ) =
xn − xn−1
 
Cela revient à utiliser la droite sécante pasant
 par les points xn , f (xn ) et xn−1 , f (xn−1 ) au lieu
de la droite tangente passant par xn , f (xn ) . Ce choix est représenté dans la figure suivante :

Fig. 1.4 – Interpretation géométrique de la méthode de la sécante


Chapitre 1. Résolution numérique des équations non linéaires 6

Remarques : Plusieurs questions s’imposent au sujet de cet algorithme :


— La dérivée de f (x) n’apparait plus dans cet algorithme.
— Il faut fournir au départ deux valeurs initiales. C’est ce qu’on appelle un algorithme de
deux pas.
— On choisit les valeurs initiales les plus proche possible des raçines.
— L’analyse de l’algorithme est plus délicate que celle de la méthode de Newton.
Pour un éxposé plus complet et une étude profonde de cette méthode, on peut voir le livre suivant :
Elementary Numerical Analysis, An Algorithmic Approach, McGraw-Hill,1980.

1.2 Méthode des approximations successives (ou du point


fixe)
Parmi les méthodes de résolution de l’équation

f (x) = 0

la méthode dite des approximations successives (ou du point fixe) est la plus importante. Son
principe est basé sur la construction d’une suite itérative approchant de plus en plus la racine
exacte, son premier élément (appelé initialisation) pouvant être n’importe quel point de l’intervalle
de travail [a, b]. La méthode du point fixe s’applique à des équations de la forme :

ϕ(x) = x

Définition 1.2.1 Soit ϕ : [a, b] −→ R une fonction. Un point fixe de ϕ est une valeur de x qui
reste invariante pour cette fonction, c’est-à-dire toute solution de : ϕ(x) = x est un point fixe de
la fonction ϕ.

Proposition 1.2.1 f : [a, b] −→ R une fonction. Soit g : [a, b] −→ R la fonction définie par
g(x) = f (x) + x, alors α est une racine de f si et seulement si α est un point fixe de g. De
même, α est une racine de f si et seulement si α est un point fixe de la fonction h définie par
h(x) = x − f (x).

Conséquence : La recherche des zéros est équivalente à la recherche des points fixes.
Exemples :
— α est une racine de f (x) = sin x − x si et seulement si α est un point fixe de la fonction
g(x) = sin x.
— α est une de f (x) = 3x5 − 2x4 + 2 si et seulement si α est un point fixe de la fonction
h(x) = −3x5 + 2x4 + x − 2.
−x
— L’équation 10x − e−x = 0 est équivalente à :x = e10
On se place dans le cas où la fonction

ϕ : [a, b] −→ R

vérifie les hypothèses :


1. ϕ est continue et dérivable sur [a, b]
Chapitre 1. Résolution numérique des équations non linéaires 7

2. ϕ prend ses valeurs dans [a, b]


3. ∃M ∈]0, 1[: ∀x ∈ [a, b] |ϕ0 (x)| ≤ M
On dira que ϕ est une contraction stricte.

Théorème 1.2.1 (du point fixe) Lorsque ϕ vérifie les trois hypothèses précédente, il existe une
unique racine c de l’équation ϕ(x) = x, appelée point fixe de ϕ.

Preuve :
Considérons en effet la fonction définie par :

g(x) = ϕ(x) − x

qui est strictement décroissante puisque

g 0 (x) = ϕ0 (x) − 1 < 0

grâce à l’hyposthèse (3) Alors, d’après l’hypothèse (2) on a :



g(a) = ϕ(a) − a ≥ 0
g(b) = ϕ(b) − b ≤ 0

Le théorème des valeurs intermédiaires donne alors l’existence d’un unique point appartenant à
[a, b] tel que
g(c) = 0

Algorithme et estimation d’erreur


On construit la suite des itérés (algorithme) de la manière suivante :
— On fixe un point x0 quelconque de [a, b],
— puis on définit : 

 x1 = ϕ(x0 )
 x2 = ϕ(x1 )

..


 .
 x
n+1 = ϕ(xn )

Montrons par réccurence le résultat suivant :

∀n ≥ 0 |xn − c| ≤ M n |x0 − c| ≤ M n |b − a|

En effet, la propriété est évidemment vérifiée pour n = 0 et si on la suppose vérifiée à n − 1 donné,


le théorème des accroissements finis implique l’éxistence d’un ζ ∈]a, b[ tel que :

|xn − c| = |ϕ(xn−1 ) − ϕ(c)|


= |ϕ0 (ζ) xn−1 − c |
≤ M |xn−1 − c|
≤ M · M n−1 |x0 − c|
≤ M n |x0 − c|
≤ M n |b − a|
Chapitre 1. Résolution numérique des équations non linéaires 8

Ainsi, la suite (xn ) converge vers c puisque, M ∈]0, 1[ on a

lim M n = 0
n→∞

Remarque : Pour avoir une valeur approchée de c avec une précision , il suffit de prendre la
valeur de xn0 où l’entier n0 est tel que :

ln() − ln(|b − a|)


M n0 |b − a| ≤  ⇐⇒ n0 ≥
ln(M )

Théorème 1.2.2 Si une suite {xk } est définie par x0 et xk+1 = ϕ(xk ) converge vers c = ϕ(c) et
si ϕ est suffisament dérivable au voisinage de c alors l’ordre de convergence de la suite (xk ) est
le plus petit entier p tel que :

ϕ0 (c) = · · · = ϕ(p−1) (c) = 0 et ϕ(p) (c) 6= 0.

De plus on a :
|xk+1 − c| 1
lim p
= |ϕ(p) (c)|.
k−→+∞ |xk − c| p!
Preuve :
On introduit un développement de Taylor au voisinage de c de la fonction ϕ à l’ordre p, en
utilisant le fait évidemment que |xk − c| tend vers 0.

xk+1 = ϕ(xk )

(xk −c)2 00 (xk −c)p (p)


= ϕ(c) + (xk − c)ϕ0 (c) + 2!
ϕ (c) + ··· + p!
ϕ (ζk ) (ζk compris entre c et xk ).

(xk −c)p (p)


= c+ p!
ϕ (ζk )

d’où :
(xk − c)p (p)
xk+1 − c = ϕ (ζk )
p!
et donc
|xk+1 − c| ϕ(p) (ζk )
=
|xk − c|p p!
et puisque |ζk − c| ≤ |xk − c| et lim xk = c alors :
k−→+∞

|xk+1 − c| ϕ(p) (c)


lim = | |
k−→+∞ |xk − c|p p!

Exercice de synthèse
On considère l’équation f (x) = 0, avec
π
f (x) = cos x − x exp(x), x ∈ [0, ]
2
Chapitre 1. Résolution numérique des équations non linéaires 9

1. Etudier les variations de f et montrer que cette équation admet une unique solution s dans
[0, π2 ].
2. Vérifier que la méthode de Newton est applicable pour trouver une valeur approchée de s.
En étudiant le signe de f 00 , indiquer un bon choix de x0 .
3. On met l’équation f (x) = 0 sous la forme
cos x
x= x
e
(a) Montrer que les hypothèses d’application de la méthode du point fixe ne sont pas
vérifiées sur l’intervalle [0, π2 ]
sin x cos(x)
(b) Montrer qu’elles le sont sur l’intervalle [0.45, 0.6], on donne − exp(x) − exp(x) vaut rés-
pectivement −0.8515 et −0.7628 sur 0.45 et 0.6.
(c) Combien de termes devrait-on calculer par la méthode du point fixe pour trouver une
valeur approchée de s à 10−6 près ?
Solution
1◦ ) f est est indéfiniment dérivable et on a :
f 0 (x) = − sin(x) − exp(x) − x ∗ exp(x)
Sur [0, π2 ], on a − sin(x) ≤ 0, − x exp(x) ≤ 0, et − exp(x) < 0, donc f 0 (x) < 0.
f (0) = 1 et on calcule une valeur approché de f ( π2 ) ' −7.56. f est continue et décroı̂t strictement
de 1 à f ( π2 ' −7.56). L’équation f (x) = 0 admet donc une solution unique.
2◦ ) D’après la première question, les hypothèses de 1 à 5 d’application de la méthode de
Newton sont vérifiés sur l’intervalle [0, π2 ] ; On calcule f 00
f 00 (x) = − cos(x) − 2 ∗ exp(x) − x ∗ exp(x)
On a f 00 (x) < 0 sur [0, π2 ] et on choisit l’initialisation x0 telle que f (x0 ) soit lui aussi négatif, par
exemple x0 = π2 .
3◦ ) Pour la méthode du point fixe, on utilise l’équivalence :
cos x
cos x − x exp(x) = 0 ⇐⇒ x = x
e
cos x 0
(a) On définit donc ϕ(x) = ex et on calcule ϕ (x) :
sin x cos(x)
ϕ0 (x) = − −
exp(x) exp(x)
Comme ϕ0 (0) = −1 l’hypothèse 3 pour pouvoir appliquer la méthode du point fixe n’est
pas vérifié.
(b) On calcule ϕ00 :
2 sin(x)
ϕ00 (x) = >0
exp(x)
Donc, sur l’intervalle [0.45, 0.6], ϕ0 est croissante, ϕ0 (0.45) ' −0.8515 et ϕ0 (0.6) ' −0.7628.
On a donc
M = max |ϕ0 (x)| = |ϕ0 (0.45) ' 0.8515
x∈[0.45, 0.6]
0
et, ϕ étant négative ϕ décroı̂t de ϕ(0.45) = 0.5741 à ϕ(0.6) = 0.4529. Les hypothèses
d’application de la méthode du point fixe sont donc bien vérifiées sur l’intervalle [0.45, 0.6].
ln(10−6 )−ln(|0.6−0.45|)
(c) n0 ≥ ln(0.8515)

Vous aimerez peut-être aussi