Vous êtes sur la page 1sur 19

Chapitre 2

Équations algébriques ou
transcendantes (non linéaires)

2.1 Introduction

les équations considérées dans ce chapitre sont de la forme

f (x) = 0 (2.1)

où f ( x ) est une fonction réelle d’une variable réelle de manière générale continue sur
son domaine de définition.

Les seules équations qu’on sait résoudre proprement sont des équations polynomiales
de la forme
ax2 + bx + c = 0 (2.2)

où a, b, et c sont des coefficients réelles.

Dans les autres cas de manière générale, ce n’est pas avec les mains d’homme qu’on
détermine les solutions. On se sert des ordinateurs, connaissant les propriétés des fonc-
tions continues sur des intervalles, nommément la Propriété des Valeurs Intermédiaires
(PVI) qui stipule les conditions suivant lesquelles une équation du type considérées dans
ce chapitre admet des solutions. cette propriété est la suivante

Theorème 2.1.1 Soit f une fonction définie et continue sur un intervalle non vide I ⇢ R ;
on a l’image J = f ( I ) est une intervalle non vide de R

de ce fait, si f prend deux valeurs de signe contraire en deux valeurs distinctes a et


b appartenant à I, nécessairement, il existe une x0 entre a et b qui soit solution de
l’équation (2.1).
18 Équations algébriques ou transcendantes (non linéaires)

Sur un intervalle tel que celui dans le théorème 2.1.1 ci–dessus, il peut être donné de
déterminer les solutions de l’équation (2.1).

Plusieurs algorithmes permettent de considérer le problème.

Ce qui les distingue est la rapidité suivant laquelle ces solutions seront déterminées, et
la précisions avec laquelle elles seront données.

Ceci nous permet d’introduire deux notions qui reviendront dans pratiquement tous les
chapitres de ce cours, qui sont celle de la convergence d’une méthode, et de l’esti-
mation de l’erreur, et qui ont par conséquent leur place dans une telle introduction.

2.1.1 convergence

L’implémentation des méthodes numériques pour la résolution d’un quelconque des pro-
blèmes de ce cours se font pratiquement toujours par la construction de suites conver-
gentes vers la solution du problème.

En effet toutes ces notions sont placées au confins de la notion formelle de limite.

Considérons par exemple la situation de définition de cette notion ; lim f ( x ) = l 2 R.


x ! x0

On a un résultat équivalent à celle–ci qui stipule que quelque soit la suite ( xn )n telle que
lim xn = x0 , la suite image par ( f ( xn ))n converge également et on a lim f ( xn ) = l.
n!+• n!+•
Les diverses méthodes de résolution de ce problème de calcul de limite consiste en di-
verses construction de la suite ( xn )n .

La convergence d’une méthode est donc relative à celle de la suite ( f ( xn ))n .

Jamais l’ordinateurs ne fera le calcul des f ( xn ) pour les toutes les valeurs de n. L’ap-
préciation de la rapidité de convergence d’une méthode est relatives au rang des n pour
lesquels on peut apprécier la proximité des f ( xn ) de la valeur solution effective. de la
même manière, c’est juste une histoire de hasard si au cours du calcul, on arrive à trou-
ver un xn qui soit une solution du problème. Généralement la solution est donné dans
une fourchette d’erreur d’estimation.

2.2 Principe de la méthode des approximations suc-


cessives

On va supposer que par un moyen ou un autre, soit mathématiques, soit expérimentaux,


on a déterminé un intervalle [ a, b] dans lequel l’équation (2.1) admet une et une seule
solution que nous allons noter l
2.2 Principe de la méthode des approximations successives 19

Comme nous l’avons présenté dans notre chapitre introductif, on part de l’équation (2.1),
et on remplace celle ci par une équation équivalente de la forme

x = g( x ) (2.3)

où g est une fonction continue au même titre que f sur l’intervalle [ a, b]


f (x)
Par exemple, on peut prendre g( x ) = x f ( x ), ou encore g( x ) = x avec a 6= 0, puis
a
à partir d’un x0 choisi dans l’intervalle [ a, b] , on construit

x1 = g ( x0 )
..
.

x n +1 = g ( x n )

géométriquement, on a remplacé la recherche de l’intersection du graphe de la fonction


f avec l’axe des x par la recherche de l’intersection de la droite d’équation y = x avec le
graphe de la fonction g
y

y=x

g(x)
g(l)

f(x)

O l x
a b
O l x
a b

F IGURE 2.2 – représentation de l’espace


F IGURE 2.1 – représentation du plan R2 R3

Les diverses méthode d’approximation successive correspondent aux diverses possibilité


de choix de la fonction g qu’on construit à base de f .

Il va de soi que :

1) quelque soit la méthode, si la suite ( xn )n est convergente, nécessairement, la limite


de celle ci est bien une solution à notre problème

En effet, lim xn = s = lim xn+1 = lim g( xn ) et donc f (s) = 0


n!+• n!+• n!+•

Le problème qui reste à résoudre est celui de savoir la condition pour que s 2 [ a, b] ;
en effet dans le cas contraire, on n’a pas la solution au problème posé. La réponse est
20 Équations algébriques ou transcendantes (non linéaires)

évidente ; il est suffisant que quel que soit l’entier n, qu’on ait xn 2 [ a, b] Donnons à
présent quelques méthodes classique des approximations successives

2.2.1 La méthode de Lagrange ou des parties proportionnelles

L’idée consiste à remplacer le graphe de f restreinte à l’intervalle [ a, b] par la droite


passant par les points A : ( a, f ( a)) et B : (b, f (b)) ; c’est à dire qu’on interpole la fonction
f par un polynôme P de degré 1 et on résout l’équation P( x ) = 0

La droite AB a pour équation

y f ( a) f (b) f ( a)
= (2.4)
x a b a

x1 étant l’intersection de la droite AB avec l’axe des x, est alors déterminé par ;

b a
x1 = a f ( a) (2.5)
f (b) f ( a)

Dans le cas de la figure, f ( x1 ) est positif. Donc l 2 [ a, x1 ]. On peut alors recommencer le


même procédé en remplaçant b par x1

D’où :
x1 a
x2 = a f ( a) (2.6)
f ( x1 ) f ( a)
De manière générale, on a une expression de type (2.3) avec :

x a a f (x) x f ( a)
g( x ) = a f ( a) = (2.7)
f (x) f ( a) f (x) f ( a)

2.2.2 La méthode de Newton ou de la corde

Ici l’idée consite à remplacer l’arc AB par la droite tangente à la courbe de la repré-
sentation graphique de la fonction f sur l’intervalle [ a, b] au point A ou au point B. Dans
le cas de la figure, on a intérêt à prendre la tangente en B.

La tangente à la courbe en B a pour équation :

y f ( a)
= f 0 (b) (2.8)
x a

Donc x1 , intersection de cette tangente et de l’axe des x est donné par

f (b)
x1 = b (2.9)
f (b)
2.3 Un théorème du point fixe 21

On peut évidemment recommencer le procédé précédent en déterminant la tangente au


point ( x1 , f ( x1 ))

d’une manière générale on a une expression de type (2.3) avec :

f (x)
g( x ) = x (2.10)
f 0 (x)

Remarque 2.2.1 La méthode de Newton nécessite que la fonction impliquée dans l’équa-
tion (2.1) soit dérivable, et que l’on sache également l’expression de la fonction dérivée
f 0 . Elle est bien définie pour les xn voisin de l à condition que f 0 (l ) 6= 0. Il suffit que l soit
un zéro simple de f ; car si f 0 est continnue et xn assez voisin de l on aura f 0 ( xn ) 6= 0

2.3 Un théorème du point fixe

Dans les exemples précédent, on a la situation suivante.

x0 donnée
x n +1 = g ( x n ) (2.11)

Le problème que l’on se pose, est de savoir choisir une méthode, donc la fonction g de
manière que la suite ( xn )n converge vers l.

Il faut évidemment que la solution de l’équation x = g( x ) dans [ a, b] soit la même


que la solution de f ( x ) = 0 dans [ a, b]. On a

Theorème 2.3.1 Si dans l’intervalle [ a, b], g vérifie les conditions

a x 2 [ a, b] ) g( x ) 2 [ a, b]

b g est une application strictement contractante, c’est à dire qu’il existe un L,


0 < L < 1 tel que 8 x 2 [ a, b], 8 y 2 [ a, b] on ait

| g( x ) g(y)|  L| x y|

Alors quelque soit x0 2 [ a, b], la suite récurrente définie par xn+1 = g( xn ) converge vers
l’unique solution l de l’équation x = g( x ), avec l 2 [ a, b]

A titre documentaire, voici une preuve de ce théorème. Le fait le plus important ici est
de présenter la machinerie des diverses méthode des approximations successives.

Démonstration:
22 Équations algébriques ou transcendantes (non linéaires)

Si xn 2 [ a, b], alors g( xn ) 2 [ a, b]. Donc comme x0 2 [ a, b], les éléments de la suite


( xn )n appartiennent à [ a, b]. Si la suite converge, la limite l appartient à l’intervalle
[ a, b].

Montrons maintenant que l’équationx = g( x ) a au plus une solution.

Supposons l1 et l2 soient les solutions de notre équation ; on a

| l1 l2 | = | g ( l1 ) g(l2 )|  L|l1 l2 | avec L < 1

d’où
| l1 l2 |( L 1)  0

Comme L < 1 il s’en suit nécessairement que l1 = l2

Montrons que la suite ( xn )n converge

| x n +1 xn | = | g( xn ) g( xn 1 )|  L| xn xn 1|

Donc de proche en proche


| x n +1 x n |  L n | x1 x0 |

Or

| xn+ p xn | = |( xn+ p xn+ p 1 ) + ( xn+ p 1 xn+ p 2 ) + · · · + ( x n +1 xn )|


 |( xn+ p xn+ p 1 )| + |( xn+ p 1 xn+ p 2 )| + · · · + |( xn+1 xn )|

Donc
î ó
| xn+ p x n |  | x1 x0 | L n + p 1 + L n + p 2
+ · · · + Ln
1 Lp Ln
 L n | x1 x0 | |  | x1 x0 |
1 L 1 L

Puisque lim Ln = 0, on a lim | xn+ p xn | = 0 pour toute valeur de p 2 N


n!+• n!+•
Cette suite vérifie le critère de Cauchy, donc converge vers une limite l est comme g est
une fonction continue, car strictement contractante, cette limite vérifie l = g(l )

On a aussi une évaluation de l’erreur en faisant tendre p vers +• ;

Ln
|l x n |  | x1 x0 |
1 L

On peut constater que pour n fixé, l’erreur est d’autant plus petite que L est proche de
0. Par contre si L est plutôt proche de 1 l’erreur diminue très lentement.

Si g est dérivable, il est souvent plus intéressant d’exprimer une condition suffisante
2.3 Un théorème du point fixe 23

sur la fonction dérivée de g, g0 que de vérifier que g est une application strictement
contractante ; En effet

Proposition 2.3.1 Supposons g dérivable sur [ a, b]

Si g0 vérifie max | g0 ( x )| = L < 1, alors


x 2[ a, b]

g est une fonction strictement contractante dans l’intervalle [ a, b]

On obtient rapidement ce fait en utilisant le théorème des accroissements finis ; en effet

g( x ) g(y) = g0 (x ) ( x y) avec x 2] x, y[

| g( x ) g(y)| = | g0 (x )| | x y|  max | g0 ( x )| | x y| = L | x y|
x 2[ a, b]

Remarque 2.3.1 Il faut faire très attention au fait de prendre la valeur de L dans les
résultats ci dessus strictement inférieur à 1 ; en effet on a des exemple où lorsqu’on
remplace la condition | g( x ) g(y)  L| x y|| avec L < 1 par | g( x ) g(y) < | x y|| où ces
résultats tombe en défaut

Theorème 2.3.2 Si dans l’intervalle [ a, b], on a

- g([ a, b]) ⇢ [ a, b]

- max | g0 ( x )| = L < 1
x 2[ a, b]

alors en posant en = xn l, on a

| e n |  L n | e0 |

Le nombre d’itératioin qui assure que |en |  # est n N avec

ln # ln |e0 |
N=
ln L

Démonstration:

Les hypothèses du théorème du point fixe sont vérifiées ;

On a donc

| xn l | = | g( xn 1 g(l )|  L| xn 1 l|

D’où par récurrence :

| e n |  L n | e0 |
24 Équations algébriques ou transcendantes (non linéaires)

Pour que |en |  # on impose

L n | e0 |  #

soit n ln L + ln |e0 |  ln #
ln #
ln |e0 |
d’où n N=
ln L
Il est souvent délicat de déterminer l’intervalle [ a, b] dans lequel les hypothèses du
théorème 2.3.1 sont vérifiées

Si on peut calculer (ou estimer) g0 (l ), on a alors les résultats suivants

Proposition 2.3.2

Soit l une solution de l’équation l = g(l ) avec g0 continue au voisinage de l

Si | g0 (l )| < 1, alors il existe un intervalle [ a, .b], contenant l pour lequel la suite définie
dans la formule (2.11) converge vers l

on fait main basse sur la démonstration de cette proposition du fait de sa longueur.


Noter cependant que ceci est une résultat théorique histoire d’établir les notions

On a cependant le résultat alterne correspond à ce qui se passe lorsque | g0 (l )| > 1

Proposition 2.3.3

Soit l une solution de l’équation l = g(l ) avec g0 continue au voisinage de l

Si | g0 (l )| > 1, alors quel que soit x0 6= l, la suite définie dans la formule (2.11) ne converge
pas vers l

Exemple 1 Considérons le cas où g est définie pas g( x ) = x f ( x ), si f est une fonctioin


dérivable, il en va de même pour g et on a g0 ( x ) = 1 f 0 ( x ).

La condition | g0 (l )| < 1 devient |1 f 0 (l )| < 1, c’est à dire

0 < f 0 (l ) < 2

On peut modifier la méthode en introduisant une fonction réelle a non nulle telle que

f ( xn
x n +1 = x n
a( xn )
2.3 Un théorème du point fixe 25

Si on considère a constante, on a

f 0 (l )
g0 (l ) = 1
a

f 0 (l )
avec un chois adéquat de a on arrive à avoir 1 < 1 par exemple en prenant a
a
assez voisin de f 0 (l )

l’usage de ceci est de faire la clarté sur les choix que l’on fait de g d’abord dans les cas
qui sont déjà élucider, et aussi dans de nouvelles méthode itératives qui peuvent être
construite

Lorsqu’on choisi la fonction a définie par a( x ) = f 0 ( x ), on retrouve la méthode de New-


ton ; ce qui établit que celle ci est meilleur que la méthode définie avec g( x ) = x f ( x )

Exemple 2 La méthode de Lagrange

Comme on vient de le voir, on a x0 = b et xn+1 = g( xn ), et g est définie par

a f (x) x f ( a)
g( x ) =
f (x) f ( a)

Si f est dérivable, il en va de même pour la fonction g, et on a

(a f 0 (x) f ( a)) ( f ( x ) f ( a)) f 0 (x) (a f (x) x f ( a))


g0 ( x ) = 2
( f (x) f ( a))

d’où
f ( a) + (l a) f 0 (l )
g0 (l ) =
f ( a)
écrivant le développement limité avec reste de Lagrange de f au point l, on a

(a l )2
f ( a) = f (l ) (a l ) f 0 (l ) + f 00 (c) avec c 2] a, l [
2

et donc
(a l )2 f 00 (c)
g0 (l ) =
2 f ( a)
(a l )2 f 00 (c)
La condition | g0 (l )| < 1 devient <1
2 f ( a)

Exemple 3 La méthode de Newton

Si f 00 existe, on a
f ( x ) f 00 ( x )
g0 ( x ) =
f 02 ( x )
26 Équations algébriques ou transcendantes (non linéaires)

et donc
g0 (l ) = 0

ceci signifie qu’il existe toujours un intervalle dans lequel les hypothèses du théorème
du point fixe sont vérifiées.

Toutefois, c’est une gymnastique d’initié et même jusque là toujours très compliqué que
de déterminer l’intervalle [ a, b] dans lequel la fonction

f (x)
g( x ) = x
f 0 (x)

est strictement contractante. Dans le cas de la méthode de Newton, on a un résultat


dont l’application est plus aisée et qui constitue une condition suffisante.

Theorème 2.3.3 convergence globale de la méthode de Newton

Si f 2 C 2 ([ a, b]) vérifie :

(1) f ( a) · f (b) < 0

(2) 8 x 2 [ a, b], f 0 ( x ) 6= 0 (stricte monotonie de la fonction f )

(3) 8 x 2 [ a, b], f 00 ( x ) 6= 0 (concavité dans la même sens)

Alors en choisissant x0 2 [ a, b] tel que f ( x0 ) · f 00 ( x0 ) > 0, la suite ( xn )n définie par la


donnée de x0 et xn+1 = g( xn ) converge vers l’unique solution l de l’équation f ( x ) = 0 dans
[ a, b]

La démonstration de ce résultat bien que de tout intérêts est longue et fastidieuse.


Nous allons revenir dessus que de manière illustratrice.

2.4 Ordre d’une méthode

En plus de la convergence, on peut s’intéresser à savoir si la suite définie par les


itérations xn+1 = g( xn ) converge “rapidement”. C’est à dire comment diminue l’erreur
en = xn l d’une itération à l’itération suivante. Ce qui nous conduit à la définition de la
notion d’ordre d’une méthode

Définition 2.1
| e n +1 |
La méthode définie par la suite xn+1 = g( xn ) est dite d’ordre p si a une limite
| en | p
réelle finie strictement positive lorsque n ! +•
2.4 Ordre d’une méthode 27

Explicitons cette définition dans le cas où g est au moins deux fois dérivable ; on a :

( xn l )2 ( xn l)p
e n +1 = x n +1 l = g( xn ) g(l ) = ( xn l ) g0 (l ) + g00 (l ) + · · · + g( p) ( l ) + ( xn l ) p #( xn l)
2 p!

i.e. p
e2n 00 en p
e n +1 = e n g 0 ( l ) + g ( l ) + · · · + g( p) ( l ) + en # ( en )
2 p!
La métode est alors dite d’ordre p, si et seulement si

1)
g0 (l ) = g00 (l ) = · · · = g( p (l ) = 0 et g( p) (l ) 6= 0

La méthode d’approximation successive de l’exemple 1 est d’ordre 1 (sauf si f 0 (l ) = 1


dans le premier cas, ou f 0 (l ) = a dans le second. dans le cas de l’exemple 2 ( sauf si
f 00 (c) = 0)

Si la méthode est convergente, l’erreur lorsqu’elle est suffisamment petite est de la forme
|en+1 | ⇠ |en | où k = g0 (l ) est un cœfficient de réduction asymptotique de l’erreur. On dit
que la convergence est linéaire. Plus k est petit, plus |en | diminue à chaque itération.

On a alors le graphe suivant représentant le comportement de |en |

Par contre, dans la méthode de Newton, l’ordre est au moins de deux. On va le démon-
trer, car ceci apporte une nouvelle notion, celle de la considération qu’on fait lorsque une
racine est multiple

Theorème 2.4.1

Si l est une zéro simple, la méthode de Newton est d’ordre deux au moins

Démonstration:

On a vu déjà que on a g0 (l ) = 0

Comme :

00 ( f 0 ( x ) f 00 ( x ) + f ( x ) f 000 ( x )) ( f 0 ( x ))2 2 f 0 ( x ) f 00 ( x ) f 000 ( x ) f ( x )


g (x) =
( f 0 ( x ))4
on a
f 00 (l )
g00 (l ) =
f 0 (l )
Si l est un zéro simple de f , alors f 0 (l ) 6= 0 et par suite, g00 (l ) est défini et non nul à
condition que f 00 (l ) 6= 0

En général, f 00 (l ) 6= 0, dans ces cas la méthode est d’ordre deux. On dit alors que la
convergence de la méthode est quadratique.
28 Équations algébriques ou transcendantes (non linéaires)

Si par contre f 00 (l ) = 0 alors l’ordre de la méthode est supérieur à deux

Remarque 2.4.1

Dans le cas général, on a

g00 (l ) g00 (l )
e n +1 = x n +1 l = g( xn ) g(l ) = ( xn l )2 + ( xn l )2 # ( x n l ) = e2n + e2n #(en )
2 2

En négligeant e2n #(en ), on a

g00 (l )
log10 |en+1 | ⇠ 2 log10 |en | c avec c = log10
2

Ceci signifie qu’approximativement, on multiplie par deux le nombre de chiffres exacts


de l’approximation a chaque itération.

Remarque 2.4.2

L’ordre dépend de la méthode utilisée, mais aussi de la nature du zéro comme le prouve
le théorème de Newton ci dessus. En fait, pour les zéros de multiplicité m supérieure à
1, on va démontrer qu’il existe une méthode d’ordre 2 déduite de la méthode de Newton

Proposition 2.4.1

Si l est un zéro de multiplicité m, la méthode d’itération définie par x0 donnée dans [ a, b]


f (x)
et xn+1 = g( xn ) avec g( x ) = x m 0 est d’ordre au moins deux
f (x)

Ce résultat à coté de son aspect léger, donne la méthode généralisant la méthode de


Newton à utiliser pour résoudre l’équation en cas ou la racine rechercher serait mul-
tiple ; en effet dans ces cas, la méthode simple de Newton ne marche pas comme on peut
le voir dans la démonstration du théorème qui précède.

Au lieu de considérer l’équation f ( x ) = 0 qui admet l comme solution de multiplicité


m, on prend ( f ( x ))1/m = 0 qui admet l comme racine simple.

La méthode de Newton est alors définie par

f 1/m ( x )
xn+1 = g( xn ) avec g( x ) = x Ä ä0
f 1/m ( x )

c’est à dire
f 1/m ( x ) f (x)
g( x ) = x 1 =x m
1
f m 1 (x) f 0 (x) f 0 (x)
m
2.5 La méthode des fausses positions ou aussi régula–falsi 29

2.5 La méthode des fausses positions ou aussi régula–


falsi

Il s’agit ici d’une méthode apportant des correction à certaine des imperfection de la
méthode de Newton qui se trouve est une méthode qui présente les meilleurs atouts.
Elles présente le problème que celui qui voudra l’implémenter doit nécessairement cal-
culer la dérivée de la fonction f ; vous et moi, nous savons bien qu’est ce qu’il peut être
parfois emmerdant de se donner à cette gymnastique. Puisque ce n’est pas que pour vous
et moi, La méthode de la fausse position s propose comme une manière de contourner
f ( xn )
ct emmerdement. dans l’expression de la suite récurrente xn+1 = g( xn ) = xn on
f 0 ( xn )
va remplacer f 0 ( xn ) par une approximation ne faisant pas intervenir l’expression de la
dérivée de f par exemple
f ( xn ) f ( x x 1
f 0 ( xn ) =
xn xn 1
c’est la fausse position.

On a alors

f ( xn )( xn xn 1 ) x f ( xn ) xn f ( xn 1)
x n +1 = x n = n 1
f ( xn ) f ( xn 1 ) f ( xn ) f ( xn 1 )

Remarque 2.5.1

(1) xn+1 ci est fonction de xn et de xn 1

(2) la méthode fausse position est obtenue en remplaçant a (ou b) par xn 1

On peut donc s’attendre valablement à ce que la méthode fausse position soit d’un ordre
de convergence meilleur que la méthode de Lagrange, mais moins bon que celui de la
méthode de Newton. En fait on a

L’odre de la méthode des fausses position est


p
1+ 5
p=
2

2.6 La procédé de Dichotomie

S’il est relativement facile de vérifier des conditions au point l pour assurer la conver-
gence de l’itération, il est généralement très délicat de choisir x0 de départ de l’itération.
Le procédé de dichotomie permet d’une part de déterminer une valeur de x0 voisine de
l, d’autre part, c’est une méthode d’itération possible.
30 Équations algébriques ou transcendantes (non linéaires)

Soit à résoudre l’équation f ( x ) = 0 avec f continue.

S’il existe un intervalle [ a, b] tel que f ( a) · f (b) < 0 , il existe au moins une racine
dans l’intervalle [ a, b]. Si de plus f est strictement monotone dans l’intervalle, alors
cette racine est unique,
Ç å
a+b a+b
On peut alors considérer le point , et on calcule f . On localise l dans le
2 2
a+b
nouvel intervalle ayant pour extrémités et le point a ou b selon que f ( a) ou f (b)
2
a+b
est un signe contraire à . A chaque itération, on diminue de moitié la longueur de
2
a+b
l’intervalle. Au bout de n itération, la longueur de l’intervalle sera de . Le cœffi-
2n
1
cient de réduction de l’erreur est au moins de . Cette méthode présente l’avantage de
2
convenir dans tous les cas où l’on à déterminer a et b tel que f ( a) · f (b) < 0

2.7 Récapitulatif

Il est difficile de conclure pour toute recherche de racine d’une fonction f car, comme
on vient de le voir, cela nécessite des informations sur f et des ses dérivées au voisinage
de la solution l.

Bien sûr, on a intérêt à utiliser une méthode d’ordre au moins 2, par exemple la méthode
de Newton, mais ce la suppose que l’on a localisé précisément la racine cherchée. On em-
ploie souvent la méthode de dichotomie au début des itérations, puis dès que l’intervalle
contenant l est assez petit, on utilise la méthode de Newton.

L’ordre nous renseigne sur la manière dont décroît l’erreur, mais pour faire un bilan
réel du coût des itération d’une méthode, il faut aussi tenir compte du coût de calcul de
g( x ) à chaque itération. C’est fonction de l’expression de g, mais aussi de l’ordinateur
utilisé.

2.8 Test d’arrêts des itérations

Le test standard pour arrêter les itérations de la suite xn+1 = g( xn ) consiste à appré-
cier la valeur | xn+1 xn | et de comparer celle ci à une quelconque valeur # qu’on appelle
la tolérance, ou la précision ; en clair, on arrête le itération dès que | xn+1 xn | < #. C’ets
le test le moins coûteux.
2.9 Méthode pour les cas d’équations polynomiales 31

2.9 Méthode pour les cas d’équations polynomiales

Toutes les méthodes qui précèdent sont applicables à la résolution d’une équation po-
lynomiale. En fait, dans ce type d’équations, on a souvent des préoccupations supplé-
mentaires ; On se préoccupe d’une part à la recherche d’une approximation de toute les
racines, et d’autre part de la plus grande racine en module.

On a des méthodes qui dans ces cas permettent de répondre à ces préoccupation, c’est
l’objet du paragraphe suivant où nous nous bornerons à donner les résultats pratique-
ment sans démonstration.

2.9.1 Méthode de Bernouilli

La méthode de Bernouilli permet d’obtenir la racine de plus grand module d’un poly-
nôme.

Soit
1
a0 x p + a1 x p + · · · + ap 1x + ap = 0 (2.12)

où les cœfficients ai sont complexes ;

Nous savons que cette équation admet p racines qui peuvent être distinctes ou avec
certaines de multiplicité supérieur à un xi , i = 1, 2, . . . , p

La méthode que nous allons présenter ici s’applique lorsque la racine dont le module est
le plus grand est simple ; c’est à dire x1 est racine simple, et | x1 | > | xi | i = 1, 2, . . . , p

Pour cela on associe à l’équation polynomiale l’équation aux différences

a0 z n + p + a1 z n + p 1 + · · · + ap 1 z n +1 + a p zn = 0 (2.13)

où on suppose donné les p premiers termes z0 , z1 , . . ., z p 1.

On a que si xi est une racine de (2.12) de multiplicité m, alors, des solution particulières
de (2.13) sont zn = xin , zn = nxin 1 , . . ., zn = n(n 1) · · · (n m + 2) xin m+1

On a avec une technique semblable à celle qu’on utilise pour résoudre les équations dif-
férentielles homogènes linéaires d’ordre p que l’équation (2.13) admet p solutions parti-
culières linéairement indépendantes ; z̃1 , z̃2 , . . ., z̃ p et donc la solution générale de cette
dernière s’écrit comme combinaison linéaire de celles ci,

zn = b1 z̃1 + b2 z̃2 + · · · + b p z̃ p (2.14)

Pour un choix adéquat des p premiers termes z0 , z1 , . . ., z p 1 (par exemple z0 = z1 = · · · =


32 Équations algébriques ou transcendantes (non linéaires)

zp 2 = 0 et z p 1 = 1 on a la solution générale (2.14) tel que b1 6= 0

dans ces condition, on établit que

z n +1
lim = x1 (2.15)
n!+• zn

Etablissons ceci dans le cas spécifique du choix des z̃1 = x1n , z̃2 = x2n , . . ., z̃ p = x np ce qui
correspond au cas où les racines de l’équations (2.12) sont toutes simples

Dan ces cas on a la solution générale de (2.13) zn = b1 x1n + b2 x2n + · · · + b p x np

z n +1 b1 x1n+1 + b2 x2n+1 + · · · + b p x np+1


= (2.16)
zn b1 x1n + b2 x2n + · · · + b p x np
Å ⇣ ⌘ ⇣⌘ ⇣ ⌘ ã
b2 x2 n +1 b3 x3 n +1 b p x p n +1
b1 x1n+1 1+ b1 x1 + b1 x1 + · · · + b1 x1
= Å ⇣ ⌘ ⇣ ⌘ ⇣ ⌘ ã (2.17)
b2 x2 n b3 x3 n bp xp n
b1 x1n 1 + b1 x1 + b1 x1 + · · · + b1 x1

n
x xi
Comme pour tout i 6= 1 on a i < 1, on a lim =0
x1 n !+ • x1
avec un peu plus d’élaboration dans les notations, on arrive à établir une chose sem-
blable dans le cas ou certaines racines autre que la racine dominante est multiple.

L’ordre de la méthode ci dessus est 1


1
Si l’on change dans l’équation (2.12) x et x celle se transforme en

a0 + a1 x + a2 x 2 + · · · + a p x p = 0

par cette transformation, chaque racine est changé en son inverse..

2.9.2 La méthode de Hörner

La méthode de Hörner permet de déterminer un intervalle [ a, b] dans lequel se


trouve toute les solutions réelles d’une équation du type (2.12) dans les cas où il y en
a ; ceci correspond aux situations où les cœfficients ai sont réels

On considère donc dans l’équation (2.12) la fonction

1
P ( x ) = a0 x p + a1 x p + · · · + ap 1x + ap

avec x0 une valeur dans le corps où se trouve les cœfficients ai ,


2.9 Méthode pour les cas d’équations polynomiales 33

La technique de Hörner consiste à écrire P( x0 ) sous la forme

P( x0 ) = (· · · ((( a0 x0 + a1 ) x0 + a2 ) x0 + a3 ) x0 + · · · + a p 1 ) x0 + ap)

On pose

b0 = a0

b1 = a0 x0 + a1 = b0 x0 + a1

b2 = b1 x0 + a2

b3 = b2 x0 + a3
..
.

bp = bp 1 x0 + a p = P ( x0 )

On peut constater que les bi , i = 0, 1, 2, · · · , p 1 sont les cœfficients du polynôme obtenu


comme quotient de P( x ) par x x0 dans la division Euclidienne suivant les puissance
décroissante i.e.

1 2
P( x ) = ( x x0 )(b0 x p + b1 x p + · · · + bp 2x + bp 1)
34 Équations algébriques ou transcendantes (non linéaires)
Chapitre 3

Interpolation polynomiale

3.1 Position du Problème

Le problème d’interpolation consiste en ce qui suit.

On se donne n + 1 couples de points ( x0 , f 0 ), ( x1 , f 1 ), . . ., ( xn , f n ) dans R ⇥ R, tels que


les xi soient tous distincts deux à deux et on se propose de former une fonction F ( x )
qui devra être telle que pour tout i 2 {0, 2, . . . , n} on ait F ( xi ) = f i .

La fonction F ( x ) est appelée fonction d’interpolation des n + 1 couples de points donnés


ci dessus appartenant à une classe connue quelconque de fonction.

Les points x0 , x1 , . . . , xn sont appelés les points d’interpolations ou encore des points
nodaux.

Le problème ci dessus peut avoir une infinité de solution, et dans certain cas ne pas
avoir de solution. Toutefois, Dans le cas où l’on cherche une fonction d’interpolation F ( x )
polynomiale de degré inférieur ou égale à n, ce problème admet une solution unique ;
dans ce cas, la Fonction F ( x ) est la fonction d’interpolation polynomiale des n + 1 couples
de points ( xi , f i ) i 2 {0, 2, . . . , n}

En effet, Si on pose
1
F ( x ) = a0 x n + a1 x n + · · · + an 1x + an

alors F ( xi ) = f i i 2 {0, 1, 2, . . . , n} on a

8
1
>
>
>
>
a0 x1n + a1 x1n + · · · + an 1 x1 + an = f 1
>
> 1
< a0 x2n + a1 x2n + · · · + an 1 x2 + a n = f2
F ( xi ) = f i , > (3.1)
> >
>
··· = ···
>
>
: a0 xnn + a1 xnn 1 + ··· + a
n 1 xn + an = f n

Vous aimerez peut-être aussi