Vous êtes sur la page 1sur 253

Manuel Aurelio Dilon Alvarado

Mtodos iterativos aplicados a la ecuacin de Kepler


J os Manuel Gutirrez J imnez
Matemticas y Computacin
2012-2013
Ttulo
Autor/es
Director/es
Facultad
Titulacin
Departamento
TESIS DOCTORAL
Curso Acadmico
El autor
Universidad de La Rioja, Servicio de Publicaciones, 2013
publicaciones.unirioja.es
E-mail: publicaciones@unirioja.es
Mtodos iterativos aplicados a la ecuacin de Kepler, tesis doctoral
de Manuel Aurelio Dilon Alvarado, dirigida por Jos Manuel Gutirrez Jimnez (publicada
por la Universidad de La Rioja), se difunde bajo una Licencia
Creative Commons Reconocimiento-NoComercial-SinObraDerivada 3.0 Unported.
Permisos que vayan ms all de lo cubierto por esta licencia pueden solicitarse a los
titulares del copyright.
FACULTAD DE CIENCIAS, ESTUDIOS AGROALIMENTARIOS E INFORMTICA
DEPARTAMENTO DE MATEMTICAS Y COMPUTACIN
TESIS DOCTORAL
Mtodos iterativos aplicados a la ecuacin de Kepler
18 de julio de 2013, Logroo, Espaa
Dr. Manuel Aurelio Dilon Alvarado
Dirigida por:
Dr. Jos Manuel Gutirrez Jimnez
2
TESIS DOCTORAL:
Mtodos iterativos aplicados a la ecuacin de Kepler
Tesis presentada por el Dr. Manuel Aurelio Dilon Alvarado
para la obtencin del grado de Doctor en Matemticas
Mxima puntuacin: Sobresaliente
18 de julio de 2013
18:15-21:17
Composicin del tribunal:
Presidente: Dr. Sergio Amat Plata
Secretario: Dr. Victor Lanchares Barrasa
Vocales: Dra. Mara Jess Rubio, Dra. Alicia Cordero y Dr. Jess Palacin
Suplentes: Dra. Sonia Busquier Sez y Dr. Juan Ramn Torregrosa Snchez
ii
Agradecimientos
Han sido muchas las personas que de alguna manera hicieron posible la terminacin de
esta memoria. A todas les estar profundamente agradecido y con ellas tendr un compromiso
eterno de trabajo y cooperacin. Mencin especial merece la Dra. Ligia Amada Melo de
Cardona, Ministra de Educacin Superior, Ciencia y Tecnologa, pues gracias a su persona
fue posible mi ingreso y permanencia en la Universidad de La Rioja.
Gracias a mi director de Tesis, Dr. Jos Manuel Gutirrez, su dedicacin, paciencia y
conanza han hecho posible culminar este pequeo aporte al mundo de las matemticas. Dr.
Gutirrez, el puente entre las orillas del ro Ebro y las clidas aguas caribeas por el que las
Matemticas puedan caminar a sus anchas, est tendido. Es un inmenso honor ser el primero
en cruzarlo.
Gracias a mis hermanos: Nicanor, Fernando, Berna, Josecito e Ilander, por sus muestras
de preocupacin constante en todo el periodo de investigacin.
Gracias a mis padres Don Jos Dilon y Doa Gladys Alvarado, ambos idos a destiempo,
a quienes les hubiera encantado ver culminar esta memoria. Donde quiera que se encuentren,
les digo: misin cumplida !!!
Finalmente dedico mi Tesis a las personas ms importantes que me rodean: a mi esposa
Jocelyn D. Espinal y a mis hijos, Anneuris Manuel y Manuel Aurelio, por estar a mi lado a
pesar de las ausencias, las distancias y el tiempo robado necesario para alcanzar esta meta.
iii
iv
Prlogo
Es bien conocido que la resolucin de ecuaciones no lineales constituye un aspecto fun-
damental del estudio de cualquier rea de las matemticas. Esto as, porque el aporte de
esta ciencia al desarrollo de la humanidad, es directamente proporcional a la capacidad que
tienen los matemticos de modelar la realidad, y este modelo, normalmente viene expresado
a travs de una ecuacin o sistemas de ecuaciones. Esta relevancia cobra mayor magnitud si
la ecuacin en cuestin est identicada como una de las ms importantes en el desarrollo
de toda una rama del saber: la astronoma, pues con ella se puede determinar la posicin de
un planeta en un tiempo determinado, amn de tener el honor de ser la primera ecuacin en
ser tratada por un mtodo algortmico de solucin. La ecuacin a la que nos referimos, es la
famosa ecuacin de Kepler:
M = E e sin E.
El problema consiste en encontrar un valor de E una vez conocidos los valores de M y e. Tanto
los parmetros M y e como la incgnita E tienen una clara interpretacin astronmica, como
veremos en el primer captulo. En concreto, M es la anomala media de una rbita elptica,
e es la excentricidad de dicha rbita y E es la anomala excntrica. Notemos que la ecuacin
de Kepler es de tipo trascendental.
Pero si importante es la solucin de una ecuacin, no menos importante lo es el mtodo
con el que se pretende dar solucin a la misma. En ese sentido, y uniendo dos reas apasio-
nantes de las matemticas como lo es el Anlisis Numrico, constituido por la ecuacin de
Kepler, y las Matemticas Aplicadas, representado por los mtodos iterativos de solucin de
ecuaciones, se inici la tarea de investigar el comportamiento de la ecuacin de Kepler bajo
la accin de los mtodos punto a punto (tales como el mtodo de Newton, Halley, Cheby-
shev, super Halley y Danby) y de los mtodos multipunto (como el mtodo de la Secante,
Biseccin y Yun-Petkovic). El motivo principal de valorar a la ecuacin de Kepler es que,
tal y como lo establece Danby [51], la misma es una de las ecuaciones ms estudiadas en la
bibliografa matemtica. Por otro lado, la eleccin de los mtodos radic en que los mismos
son una muestra representativa del conjunto de mtodos ms aplicados para la resolucin de
ecuaciones no lineales.
As, el Captulo 1, La ecuacin de Kepler, est conformado por una una breve descripcin
histrica del desarrollo y aparicin de la misma. Presentamos adems, las demostraciones de
v
vi
las leyes fundamentales de la astronoma constituidas en las tres leyes de Kepler, la forma de
obtener dicha ecuacin y las soluciones geomtricas y analticas que se les ha dado a travs
del tiempo.
En el Captulo 2, Mtodos iterativos, presentamos los mtodos iterativos del estudio:
Newton, Halley, Chebyshev, super-Halley, Secante, Yun-Petkovi y Danby. Cada uno de los
mtodos iterativos est estructurado en tres secciones: notas histricas, descripcin del mto-
do y convergencia. Dicho captulo se inicia con el mtodo de Newton. Debemos aclarar que la
posicin en el enfoque de tratar en primer lugar al mtodo de Newton no es casual. Se trat
en primer lugar al mtodo de Newton, por ser, si no el ms, al menos, uno de los mtodos
ms conocidos y aplicados en la solucin de una ecuacin no lineal. Un segundo motivo es que
sus teoremas de convergencia semilocal son bsicos para entender la convergencia semilocal
de los dems mtodos. Los principales aportes de la tesis en este captulo lo constituyen la
demostracin de un nuevo teorema de convergencia semilocal para el mtodo de Chebyshev,
publicado en Bulletin of the Australian Mathematical Society [61]. Adems, los teoremas de
convergencia local y global del mtodo de Danby, en va de publicacin, la demostracin en R
de los teoremas de convergencia semilocal del mtodo de Newton (Teorema de Kantorovich
y Smale), Halley (Teorema de Zhen-Robbie), super-Halley (Teorema de Gutirrez), Secante
(Teoremas de Yakoubsohn bajo condiciones de Kantorovich y Smale), as como el cdigo para
implementar el mtodo de Yun-Petkovi en Mathematica.
Con las teoras obtenidas a partir del Captulo 1 y el Captulo 2, introducimos el Captulo
3: Mtodos iterativos y la ecuacin de Kepler. Iniciamos con un estudio relacionado con los
mtodos punto a punto aplicados a la ecuacin de Kepler. El objetivo de dicho estudio fue
comparar la efectividad de las funciones de iteracin de los mtodos de Newton, Chebyshev,
Halley y super-Halley, todos ellos obtenidos a partir de la familia uniparamtrica
x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
)
1 L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
, R, L
f
(x
n
) =
f(x
n
)f

(x
n
)
f

(x
n
)
2
,
y el mtodo de Danby, cuando se aplican a la ecuacin de Kepler. Para tal comparacin,
seleccionamos algunos valores de los parmetros e y M que han sido utilizados en otras
investigaciones: [49], [51], [62], [147] y [198]. Adems, complementamos el estudio con una
muestra formada por valores reales asociados a los asteroides Amor, Apollo, Chiron, Damo-
cles, Hidalgo, Hungaria, Pholus y al Planeta Mercurio [208].
En la seccin 3.3, Mtodos iterativos multipunto aplicados a la ecuacin de Kepler, pre-
sentamos un estudio relacionado con la aplicacin del mtodo de la Secante, el mtodo de
Biseccin y el mtodo de Yun-Petkovi a la ecuacin de Kepler. El objetivo de la seccin
consisti en comparar el comportamiento y efectividad de dichos mtodos al ser aplicados
a la ecuacin de Kepler. Para tal accin utilizamos las 14 condiciones establecidas para los
valores de los parmetros e y M, dados en el Cuadro 3.2 y en el Cuadro 3.3. La mayor
contribucin de este estudio fue comprobar el buen comportamiento que tienen los mtodos
vii
de la Secante, Yun-Petkovi y Biseccin, comparados con los mtodos de punto a punto.
En efecto, el estudio demostr que el porcentaje de fracasos de los mtodos de la Secante,
Yun-Petkovi y Biseccin, al ser aplicados a la ecuacin de Kepler bajo las condiciones dadas
en los cuadros 3.2 y 3.3, fue nula, es decir, para todos los casos establecidos, los mtodos
consiguieron converger.
Para el desarrollo de esta investigacin, tomamos en cuenta que un aspecto clave a la
hora de estudiar la convergencia de un proceso iterativo a la solucin de una ecuacin no
lineal, lo constituye la eleccin del punto de partida. En ese sentido, en la Seccin 3.4, se
consider a la anomala media como punto de partida E
0
= M. Debemos destacar que dicho
punto inicial tambin ha sido tomado en cuenta en las investigaciones realizadas por Dilon y
Gutirrez [62] y Zhen-Shi-Ming [198]. De forma anloga se analizaron las situaciones E
0
= ,
propuesta por Charles y Tatum [35] y
_
_
_
E
0
= M + (
3

6M M)e
2
si M < 0.1,
E
0
= M + 0.85e si M 0.1,
dada por Danby-Burkardt [51] y Palacios [147].
Entre las conclusiones obtenidas, se destaca que los peores resultados de convergencia
se presentaron cuando los mtodos iterativos se aplicaron a partir de la condicin inicial
E
0
= M. Especialmente llamativo es el caso del mtodo de Chebyshev, cuyo porcentaje de
fracasos fue de un 97.5 %. Bajo las condiciones iniciales dadas en (3.7), los mtodos iterativos,
aplicados a la ecuacin de Kepler, experimentaron su mejor comportamiento de convergencia.
Por otro lado, para la condicin inicial E
0
= M, se veric que el mtodo de Danby supera a
los dems mtodos, mientras que para las condiciones iniciales E
0
= y las dadas en (3.7),
se comprueba que el mtodo super-Halley es el ms efectivo.
En el estudio comparativo de los mtodos iterativos aplicados a la ecuacin de Kepler se
puso de maniesto la aparicin de ciclos o comportamiento catico. Por ese motivo, en la
seccin 3.5, Ciclos atractores para el mtodo de Newton aplicado a la ecuacin de Kepler,
nos centramos en el anlisis del mtodo de Newton. Para tal accin consideraremos la ecua-
cin de Kepler como una funcin f(x) = x a b sen x denida en la recta real. Nuestro
objetivo consisti en caracterizar los parmetros a y b para mostrar la existencia de ciclos
superatractores de periodo 2. Los resultados originales de esta seccin estn contenidos en
la demostracin de los teoremas 3.2, 3.3, 3.4, 3.5, 3.5 y 3.7. Dicho anlisis sirvi de base
para la investigacin titulada On the existence of attractive cycles for Newtons method ap-
plied to Keplers equation ciclos, publicada por la Journal of Advanced Research in Applied
Mathematics, [63].
En la seccin 3.6 se utilizan algunas tcnicas clsicas de la teora del caos para analizar el
comportamiento dinmico de diversos mtodos iterativos aplicados a la ecuacin de Kepler.
As, se extienden algunos resultados dados por Stumpf, [175], para el caso del mtodo de
Newton a otros mtodos considerados en esta memoria. En concreto, se analiza el signo de
viii
la derivada schwarziana de la funcin de iteracin obtenida al aplicar dichos mtodos a la
ecuacin de Kepler. Un anlisis grco de la derivada schwarziana revela que no se puede
demostrar que sea siempre negativa, luego, al igual que en el caso del mtodo de Newton, no
se pueden descartar comportamientos no convergentes.
La seccin 3.7 complementa el estudio dinmico de la ecuacin de Kepler iniciado en
secciones anteriores. Siguiendo el trabajo iniciado en [126], se entiende la ecuacin de Kepler
como un sistema dinmico en el plano complejo, donde se admite que tanto la variable como
los parmetros implicados pueden tomar valores complejos. En este caso, la principal novedad
es que se muestra la aparicin de unas interesantes estructuras de tipo Mandelbrot o de tipo
Julia en el anlisis grco de la ecuacin de Kepler compleja.
En el Captulo 4, Resultados de convergencia semilocal para el mtodo de Newton aplica-
dos a la ecuacin de Kepler, se presenta un novedoso estudio de aplicacin de la convergencia
semilocal del mtodo de Newton, a partir de los criterios establecidos por Kantorovich, Sma-
le, Gutirrez y Wang-Zhao. El mismo fue publicado en el libro Una introduccin al mtodo
de Newton para resolver ecuaciones no lineales, escrito, en el 2009, por quien subscribe, pa-
ra optar al Diploma de Estudios Avanzado de Doctorado y publicado posteriormente en A
comparative study of dierent semilocal convergence results applied to Keplers equation, que
forma parte de la monografa cientca que con el ttulo Computational Mathematics: Theory,
methods and Applications public la editorial Nova Science Publishers, Inc. en 2011 (vase
[62]).
En este captulo observaremos que los resultados de convergencia semilocal, adems de
garantizar la convergencia del mtodo de Newton-Raphson a una solucin de la ecuacin
considerada, proporcionan unos resultados sobre la existencia y la unicidad de solucin. En ese
sentido, procedimos a comparar los resultados sobre existencia de unicidad que proporcionan
cuando se aplican a una misma ecuacin: la ecuacin de Kepler. Las conclusiones de este
estudio comprobaron que bajo las condiciones de Cauchy-Kantorovich, la ecuacin de Kepler
posee el mayor rango de solucin (e 0.4142). La comparacin tambin nos permiti vericar
que bajo las condiciones fuertes de Kantorovich, la ecuacin de Kepler posee un rango de
solucin, (e < 0.3759), mayor que bajo las condiciones de la -teora de Wang-Zhao, (e <
0.3678), y de la -teora de Smale (e 0.3594).
ndice general
1. La ecuacin de Kepler 1
1.1. Orgenes histricos de la ecuacin de Kepler . . . . . . . . . . . . . . . . . . . 1
1.2. Obtencin de la ecuacin de Kepler . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Resolucin de la ecuacin de Kepler . . . . . . . . . . . . . . . . . . . . . . . . 7
2. Mtodos iterativos 11
2.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. El mtodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.1. Notas histricas sobre el mtodo de Newton . . . . . . . . . . . . . . . 18
2.2.2. Descripcin del mtodo de Newton . . . . . . . . . . . . . . . . . . . . 20
2.2.3. Convergencia del mtodo de Newton . . . . . . . . . . . . . . . . . . . 23
2.3. El mtodo de Halley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3.1. Notas histricas sobre el mtodo de Halley . . . . . . . . . . . . . . . . 42
2.3.2. Descripcin del mtodo de Halley . . . . . . . . . . . . . . . . . . . . . 44
2.3.3. Convergencia del mtodo de Halley . . . . . . . . . . . . . . . . . . . . 50
2.4. El mtodo de Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.4.1. Notas histricas sobre el mtodo de Chebyshev . . . . . . . . . . . . . 62
2.4.2. Descripcin del mtodo de Chebyshev . . . . . . . . . . . . . . . . . . . 65
2.4.3. Convergencia del mtodo de Chebyshev . . . . . . . . . . . . . . . . . . 72
2.5. El mtodo super-Halley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.5.1. Notas histricas sobre el mtodo super-Halley . . . . . . . . . . . . . . 80
2.5.2. Descripcin del mtodo super-Halley . . . . . . . . . . . . . . . . . . . 81
2.5.3. Convergencia del mtodo super-Halley . . . . . . . . . . . . . . . . . . 85
2.6. El mtodo de la Secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2.6.1. Notas histricas sobre el mtodo de la Secante . . . . . . . . . . . . . . 91
2.6.2. Descripcin del mtodo de la Secante . . . . . . . . . . . . . . . . . . . 94
2.6.3. Convergencia del mtodo de la Secante . . . . . . . . . . . . . . . . . . 96
2.7. Otros mtodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
2.7.1. El mtodo de Yun-Petkovi . . . . . . . . . . . . . . . . . . . . . . . . 111
2.7.2. El mtodo de Danby . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
ix
x NDICE GENERAL
3. Mtodos iterativos y la ecuacin de Kepler 125
3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
3.2. Mtodos iterativos punto a punto y la ecuacin de Kepler . . . . . . . . . . . . 127
3.3. Mtodos iterativos multipunto y la ecuacin de Kepler . . . . . . . . . . . . . 133
3.4. Anlisis de los puntos de inicio . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
3.5. Ciclos atractores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.6. La derivada schwarziana y la ecuacin de Kepler . . . . . . . . . . . . . . . . . 151
3.7. Estudio dinmico de la ecuacin de Kepler . . . . . . . . . . . . . . . . . . . . 160
3.7.1. La funcin de Kepler en el plano complejo . . . . . . . . . . . . . . . . 166
4. Convergencia semilocal 169
4.1. Condiciones de Kantorovich . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
4.2. Condiciones fuertes de Kantorovich . . . . . . . . . . . . . . . . . . . . . . . . 172
4.3. -teora de Smale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
4.4. -teora de Wang-Zhao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
4.5. Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . . . . . . . . . 182
4.6. Lneas futuras de investigacin y Conclusiones . . . . . . . . . . . . . . . . . . 184
4.7. Anexo I: Cuadros con experimentos numricos . . . . . . . . . . . . . . . . . . 186
4.8. Anexo II: Cuadros con experimentos numricos . . . . . . . . . . . . . . . . . 187
ndice de guras
1.1. Claudio Ptolomeo (100AC 170AC) y Aristteles (384AC 322AC). . . . . . 3
1.2. Tycho Brahe (1546 1601) y Johannes Kepler (1571 1630). . . . . . . . . . 4
1.3. Descripcin geomtrica de las anomalas verdadera , excntrica E y media M
de la rbita de un planeta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1. Sir Isaac Newton (1643 1727) y Thomas Simpson (1710 1761). . . . . . . . 18
2.2. Joseph Louis Lagrange (1736 1813) y Joseph Fourier (1768 1830). . . . . . 20
2.3. Interpretacin geomtrica del mtodo de Newton-Raphson . . . . . . . . . . . 22
2.4. Augustin Louis Cauchy (1789 1857) y Leonid V. Kantorovich (1912 1986). 28
2.5. Grca del polinomio mayorizante p(t) =
1
2
t
2
t + . . . . . . . . . . . . . . 30
2.6. Stephen Smale (1930) y Mike Shub (1943). . . . . . . . . . . . . . . . . . . . . 33
2.7. Grca de la funcin mayorizante (t) = t +
t
2
1t
. . . . . . . . . . . . . . 34
2.8. Interpretacin geomtrica del teorema de Fourier. . . . . . . . . . . . . . . . . 39
2.9. Edmund Halley (1656 1742) y Ernst Schrder, (1841 1902). . . . . . . . . 42
2.10. A la izquierda, grca de (t) =
N
6
t
3
+
M
2
t
2
t + . A la derecha, grca de

(t) =
N
2
t
2
+ Mt 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.11. P. Chebyshev, (1821 1894) y L. Euler, (1707 1783). . . . . . . . . . . . . . 63
2.12. Interpretacin geomtrica del mtodo de Chebyshev. . . . . . . . . . . . . . . 67
2.13. N. Obreshkov, (1896 1963) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.14. Francis Vite (1540 1603) y Ren Descartes (1596 1650). . . . . . . . . . . 91
2.15. Sir Isaac Newton (1643 1727) y Jos Mariano Vallejo (1779 1846). . . . . . 92
2.16. Interpretacin geomtrica del mtodo de la Secante . . . . . . . . . . . . . . . 95
2.17. Miodrag S. Petkovi, (1948). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
2.18. J. M. A. Danby (1929 2009). . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.1. Ciclo atractor del mtodo obtenido al sustituir = 2 en (3.3), para e = 0.996,
M = 0.04 y x
0
= M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
3.2. A la izquierda, grco de densidad del mtodo de Newton aplicado a la ecua-
cin de Kepler. A la derecha, grco de densidad ampliado del mtodo de
Newton aplicado a la ecuacin de Kepler. . . . . . . . . . . . . . . . . . . . . . 133
xi
xii NDICE DE FIGURAS
3.3. A la izquierda, grco de densidad ampliado del mtodo de Halley aplicado a
la ecuacin de Kepler. A la derecha, grco de densidad ampliado del mtodo
super-Halley aplicado a la ecuacin de Kepler. . . . . . . . . . . . . . . . . . . 134
3.4. Grco de densidad ampliado del mtodo de Chebyshev aplicado a la ecuacin
de Kepler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
3.5. A la izquierda, grca de f(E) = M E + e sen(E), para e = 0.99, M = 0.2
radianes y E
0
= . A la derecha, grca de f(E) = M E + e sen(E), para
e = 0.99, M = 0.2 radianes y E
0
= M. . . . . . . . . . . . . . . . . . . . . . . 140
3.6. Grca de (3.16), para M = 0 y e = j/10 j = 0, 1 . . . 10. . . . . . . . . . . . . . 141
3.7. Grcas de N
f
(N
f
(x)) y N
f
(N
f
(N
f
(x))) para f(x) denida en (3.15), con
M = 1 y e = 0.9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.8. A la izquierda, un ciclo de periodo 2 de la forma 0, 8 para el mtodo de
Newton aplicado a f(x) = x40.5 sen x. A la derecha, un ciclo de periodo 2
de la forma , 9 para el mtodo de Newton aplicado a f(x) = x5+0.5 sen x.149
3.9. A la izquierda, un ciclo de periodo 2 en la forma 6, 9/2, para el mtodo de
Newton aplicado a f(x) = x (
9+18
2+3
) (
3
2+3
) sen x. A la derecha, un ciclo
de periodo 2 de la forma 6, 11/2, para el mtodo de Newton aplicado a
f(x) = x (
611
2
) (

2
) sen x. . . . . . . . . . . . . . . . . . . . . . . . . . 150
3.10. A la izquierda, un ciclo de periodo 2 de la forma 3, /2, para el mtodo
de Newton aplicado a f(x) = x(
121
2+7
)+(
7
2+7
) sen x. A la derecha, un ciclo
de periodo 2 de la forma 5, 5/2, para el mtodo de Newton aplicado
a f(x) = x (
525
52
) (
5
25
) sen x. . . . . . . . . . . . . . . . . . . . . . . . 150
3.11. Curvas correspondientes a la derivada schwarziana de los mtodos de Newton
(izquierda) y Halley (derecha), aplicados a la ecuacin de Kepler. Los colores
de las curvas representan distintos valores de e con M = 0.2 . . . . . . . . . . 153
3.12. Curvas correspondientes a la derivada schwarziana de los mtodos de Cheby-
shev (izquierda) y super-Halley (derecha), aplicados a la ecuacin de Kepler.
Los colores de las curvas representan distintos valores de e con M = 0.2 . . . . 153
3.13. A la izquierda, derivada schwarziana del mtodo de Danby. A la izquierda, la
derivada schwarziana del mtodo denido por (3.3) para = 3/2. Los colores
de las curvas representan distintos valores de e con M = 0.2 . . . . . . . . . . 153
3.14. Curvas correspondientes a la derivada schwarziana del mtodo denido por
(3.3) para = 2. Los colores de las curvas representan distintos valores de e
con M = 0.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
3.15. A la izquierda, la derivada schwarziana del mtodo de Newton. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997. . . . . . . 156
3.16. A la izquierda, la derivada schwarziana del mtodo de Halley. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997. . . . . . . 156
NDICE DE FIGURAS xiii
3.17. A la izquierda, la derivada schwarziana del mtodo de Chebyshev. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997. . . . . . . 156
3.18. A la izquierda, la derivada schwarziana del mtodo de super-Halley. A la de-
recha, ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997. . . 157
3.19. A la izquierda, la derivada schwarziana del mtodo denido por (3.3) para
= 2. A la derecha, ampliacin de dicha derivada. En ambos casos M = 0.2
y e = 0.997. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.20. A la izquierda, la derivada schwarziana del mtodo denido por (3.3) para
= 3/2. A la derecha, ampliacin de dicha derivada. En ambos casos M = 0.2
y e = 0.997. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.21. A la izquierda, la derivada schwarziana del mtodo de Danby. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997. . . . . . . 158
3.22. A la izquierda, la derivada schwarziana del mtodo de Newton. A la derecha,
la derivada schwarziana del mtodo de Chebyshev. En ambos casos M = 0.2
y e = 0.997. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
3.23. A la izquierda, derivada schwarziana del mtodo de Danby. A la izquierda, la
derivada schwarziana del mtodo denido por (3.3) para = 2. En ambos
casos M = 0.2 y e = 0.997 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
3.24. Derivada schwarziana del mtodo denido por (3.3) para = 3/2, con M = 0.2
y e = 0.997 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
3.25. A la izquierda, la derivada schwarziana del mtodo super-Halley. A la derecha,
la derivada schwarziana del mtodo de Halley. En ambos casos M = 0.2 y
e = 0.997 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3.26. Diagrama de Feigenbaum para la ecuacin logstica x
n+1
= rx
n
(1 x
n
). A
la izquierda para el intervalo 0.5 r 4. A la derecha, para el intervalo
2 r 4. Puede observarse la ruta del caos: sucesivos desdoblamientos de
periodo que desembocan en un periodo innito. . . . . . . . . . . . . . . . . . 161
3.27. Diagrama de Telaraa para la ecuacin logstica x
n+1
= rx
n
(1 x
n
). A la
izquierda para r = 1. A la derecha, para r = 1.5 . . . . . . . . . . . . . . . . . 162
3.28. Diagrama de Telaraa para la ecuacin logstica x
n+1
= rx
n
(1 x
n
). A la
izquierda para r = 2. A la derecha, para r = 2.5 . . . . . . . . . . . . . . . . . 162
3.29. A la izquierda, diagrama de Telaraa, a la derecha, el Diagrama de Feigenbaum
para la ecuacin logstica x
n+1
= rx
n
(1 x
n
), con r = 3. . . . . . . . . . . . . 163
3.30. A la izquierda, cascada de bifurcacin de duplicacin del periodo para la fun-
cin f(x) = e sen(x). A la derecha, desplazamiento de las primeras bifurcacio-
nes de duplicacin del periodo cuando M aumenta. Para M = 0, la curva es
azul, para M = 0.25, la curva es verde y para M = 0.5, la curva es roja . . . . 164
xiv NDICE DE FIGURAS
3.31. Iteracin de de la funcin E
n+1
= M+e sen E
n
en el plano (M, e) para E
0
= 0.
Se observan los contornos de las funciones f
k
(M, e; 0), donde f(M, e; 0) =
M + e sen z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.1. Grcas de las funciones mayorizantes
W
(t),
G
(t),
S
(t) y
K
(t) para el caso
del planeta Mercurio (izquierda) y el asteroide Hungaria (derecha). . . . . . . 184
4.2. Conjuntos del tipo /(M; z
0
) = e C[f
n
(M, e, z
0
)
nN
acotada, para
distintos valores de M y z
0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
4.3. Conjuntos del tipo (M, e) = z C[f
n
(M, e, z)
nN
acotada para dis-
tintos valores de M y e. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
4.4. Conjuntos del tipo J(e, z
0
) = M C[f
n
(M, e, z
0
)
nN
acotada para dis-
tintos valores de e y z
0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
ndice de cuadros
2.1. Iteraciones obtenidas al aplicar el mtodo de Yun-Petkovi a (2.216). . . . . . 115
2.2. Iteraciones obtenidas al aplicar el mtodo de Yun-Petkovi a (2.217). . . . . . 115
2.3. Iteraciones obtenidas al aplicar el mtodo de Biseccin a (2.216). . . . . . . . . 116
2.4. Iteraciones obtenidas al aplicar el mtodo de Biseccin a (2.217). . . . . . . . . 116
2.5. Iteraciones obtenidas al aplicar el mtodo de la Secante a (2.216). . . . . . . . 116
2.6. Iteraciones obtenidas al aplicar el mtodo de la Secante a (2.216). . . . . . . . 117
3.1. Funcin de iteracin, orden de convergencia (p), constante asinttica del error
() e ndice de eciencia () de los distintos mtodos iterativos que vamos a
aplicar a la ecuacin de Kepler, donde las constantes A
k
estn denidas en (3.6).127
3.2. Valores de la anomala media y de la excentricidad utilizados por M. Pala-
cios [147]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3. Valores reales asociados a la anomala media y a la excentricidad de diferentes
asteroides y el planeta Mercurio [208]. . . . . . . . . . . . . . . . . . . . . . . . 128
3.4. Media m del nmero de iteraciones de diversos mtodos iterativos aplicados a
la ecuacin de Kepler, en funcin de los puntos de partida. . . . . . . . . . . . 130
3.5. Media ponderada m del nmero de iteraciones de de diversos mtodos iterati-
vos aplicados a la ecuacin de Kepler, en funcin de los puntos de partida. . . 130
3.6. Porcentaje de fracasos de diversos mtodos iterativos aplicados a la ecuacin
de Kepler, en funcin de los puntos de partida. . . . . . . . . . . . . . . . . . . 130
3.7. Funcin de iteracin, orden de convergencia (p) e ndice de eciencia () de los
mtodos iterativos de la Secante, Yun-Petkovi y Biseccin. . . . . . . . . . . . 135
3.8. Media m del nmero de iteraciones necesarias para la convergencia de los
mtodos de la Secante, Yun-Petkovi y Biseccin aplicados a la ecuacin de
Kepler, tomando como puntos de partida los extremos del intervalo [0, ]. . . . 138
3.9. Porcentaje de fracasos de de los mtodos de la Secante, Yun-Petkovi y Bisec-
cin aplicados a la ecuacin de Kepler, tomando como puntos de partida los
extremos del intervalo [0, ]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
xv
xvi NDICE DE CUADROS
3.10. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin Ke-
pler, usando el mtodo de la Secante, Yun-Petkovi y Biseccin, y tomando
como punto de partida los extremos del intervalo [0, ]. . . . . . . . . . . . . . 138
3.11. Valores obtenidos a partir de (3.15), en donde M = 0.2, e = 0.99 y E
0
= . . . 141
3.12. Valores obtenidos a partir de (3.15), en donde M = 0.2, e = 0.99 y E
0
= M. . 142
3.13. Valores obtenidos a partir de (3.15), en donde M = 1, e = 0.9 y E
0
= 5.32. . . 143
3.14. Presencia de ciclos atractores para el mtodo de Newton (3.22) aplicado a la
ecuacin de Kepler (3.20) para diferentes opciones de los parmetros a y b
dados por los Teoremas 3.23.7. . . . . . . . . . . . . . . . . . . . . . . . . . . 149
4.1. Funcin mayorizante para el mtodo de Newton aplicado a la ecuacin de Ke-
pler para las diferentes teoras consideradas, junto con la condicin en trminos
de la excentricidad para que dichas teoras puedan ser aplicadas. . . . . . . . . 183
4.2. Valores de t

y t

para las 4 teoras consideradas. En todos los casos, hemos


denotado =
e
1e
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
4.3. Existencia de solucin para dos casos reales. . . . . . . . . . . . . . . . . . . . 183
4.4. Unicidad de solucin para dos casos reales. . . . . . . . . . . . . . . . . . . . . 184
4.5. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando diversos procesos iterativos y tomando como punto de partida
en todos los casos E
0
= M. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.6. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando diversos procesos iterativos y tomando como punto de partida
en todos los casos E
0
= . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
4.7. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando diversos procesos iterativos y tomando como punto de partida
en todos los casos las condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . 189
4.8. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Newton y tomando como punto de partida E
0
= M.190
4.9. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Newton y tomando como punto de partida E
0
= .191
4.10. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Newton y tomando como punto de partida las
condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
4.11. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Chebyshev y tomando como punto de partida
E
0
= M. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4.12. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Chebyshev y tomando como punto de partida
E
0
= . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
NDICE DE CUADROS xvii
4.13. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Chebyshev y tomando como punto de partida las
condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
4.14. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Halley y tomando como punto de partida E
0
= M.196
4.15. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Halley y tomando como punto de partida E
0
= . 197
4.16. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Halley y tomando como punto de partida las
condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
4.17. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de super-Halley y tomando como punto de partida
E
0
= M. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.18. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de super-Halley y tomando como punto de partida
E
0
= . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
4.19. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de super-Halley y tomando como punto de partida
las condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.20. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para =
3
2
y tomando como punto de partida E
0
= M.202
4.21. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para =
3
2
y tomando como punto de partida E
0
= .203
4.22. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para =
3
2
y tomando como punto de partida las
condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
4.23. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para = 2 y tomando como punto de partida E
0
= M.205
4.24. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para = 2 y tomando como punto de partida E
0
= .206
4.25. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para = 2 y tomando como punto de partida las
condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
4.26. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Danby y tomando como punto de partida E
0
= M.208
4.27. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Danby y tomando como punto de partida E
0
= . 209
xviii NDICE DE CUADROS
4.28. Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Danby y tomando como punto de partida las
condiciones dadas en (3.7). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
4.29. Cdigo de Mathematica para generar fractales tipo Mandelbrot con la ecuacin
de Kepler. Est desarrollado para el caso particular en que M = 0.01, e = 0.9
y nivel de resolucin de 0.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4.30. Cdigo de Mathematica para generar fractales tipo Julia con la ecuacin de
Kepler. Est desarrollado para el caso particular en que M = 0.01, e = 0.9 y
nivel de resolucin de 40 iteraciones o pasos . . . . . . . . . . . . . . . . . . . 215
Captulo 1
La ecuacin de Kepler
1.1. Orgenes histricos de la ecuacin de Kepler
Determinar la posicin de los planetas en la bveda celeste ha sido un problema que ha
preocupado al hombre desde la antigedad, tanto por cuestiones religiosas y msticas como
tambin por cuestiones de ndole prctica. Hoy sabemos, gracias al desarrollo de la Mecnica
Celeste y del Clculo Innitesimal, que para determinar la posicin de un planeta, o cualquier
objeto que se encuentra sometido a la atraccin gravitatoria de otro, es necesario resolver la
denominada ecuacin de Kepler
M = E e sin E. (1.1)
Se trata de encontrar un valor de E una vez conocidos los valores de M y e. Los parmetros
involucrados en esta ecuacin tienen una clara interpretacin fsica. En concreto, M [0, 2]
es la anomala media de una rbita elptica, que es el ngulo girado por el planeta, a partir
de una posicin conocida, si se moviera con movimiento circular uniforme; e [0, 1) es la
excentricidad de la elipse que describe el planeta; E es la anomala excntrica, que es el ngulo
que le corresponde a la posicin del planeta en la parametrizacin natural de la elipse.
Debido a su relevancia y a su carcter no lineal, la ecuacin de Kepler fue una de las
primeras que se intentaron resolver mediante mtodos numricos. Desde los das de Newton
este problema ha sido estudiado sin descanso por astrnomos y matemticos y su solucin
se ha conseguido de muchas y diversas maneras, dependiendo de los factores del contexto en
donde debe resolverse la ecuacin. Esto demuestra, tal como dice Danby [51], que el tema
sigue abierto y que todava existen muchas posibilidades para buscar nuevas alternativas
de solucin. De hecho, existe un gran cmulo de trabajos que se relaciona con su solucin
numrica o analtica. En efecto, Multon [134], presenta una lista incompleta de 123 artculos
sobre la referida ecuacin.
Para buscar el origen de la ecuacin de Kepler hay que remontarse al momento en el que
el hombre se dio cuenta de que hay astros que no ocupan una posicin ja en el cielo, si se
los compara con las estrellas jas. A simple vista pueden distinguirse siete de estos astros, el
1
2 CAPTULO 1. LA ECUACIN DE KEPLER
Sol, la Luna, Mercurio, Venus, Marte, Jpiter y Saturno. Mientras el Sol y la Luna parecen
moverse dando vueltas alrededor de la Tierra en sentido de oeste a este, el resto de planetas
presentan un movimiento peculiar. Su movimiento principal es como el del Sol y la Luna,
dando vueltas alrededor de la Tierra de oeste a este, pero, de vez en cuando, detienen su
movimiento para retroceder y moverse durante un tiempo en sentido este oeste, para retomar
de nuevo su rumbo habitual.
Los primeros modelos sobre el movimiento de los planetas que han llegado hasta nuestros
das corresponden a los griegos. Pensaban, como era tradicin y la observacin as lo eviden-
ciaba, que la Tierra ocupaba un lugar central inmvil y que el resto de astros giraba en torno
a ella. Como el cielo era el lugar de lo perfecto, todo movimiento que tuviera lugar en l de-
bera ser tambin perfecto, es decir circular. Eudoxo, un matemtico griego del siglo IV a.C.,
propuso un modelo para el movimiento de los planetas basado en un complejo mecanismo
de esferas engranadas que reproduca, en buena medida, lo que se poda observar a simple
vista. Cada planeta estaba situado sobre una esfera que se una a la siguiente mediante un
eje alrededor del cual giraba. La primera esfera era la de la Luna, luego la de Mercurio, la
de Venus, la del Sol, la de Marte, la de Jpiter, la de Saturno y nalmente la esfera de las
estrellas jas. Calipo, tambin en el siglo IV a.C., hizo mejoras sobre este sistema aadiendo
esferas intermedias para renar los movimientos. Bsicamente este es el modelo que adopta
Aristteles, presentando el Universo como una cebolla compuesta por diferentes esferas en-
cajadas que contienen a los planetas y en la ltima capa el lmite del Universo formado por
la esfera de las estrellas jas.
El modelo de Aristteles no permita explicar algunos hechos que se podan percibir a
simple vista, tales como la variacin del brillo de los planetas, ya que siempre se encontraban
a una misma distancia de la Tierra. Esto era as, porque el modelo de Aristteles era ms
bien un modelo conceptual y no prctico, ya que adems no poda predecir con precisin la
posicin de los planetas. Fue Apolonio (siglo III a.C.) el que invent un sistema de epiciclos
para explicar el movimiento esquivo de los planetas. Supuso que los planetas giraban en
crculos alrededor de un punto que daba vueltas alrededor de la Tierra. Con esto se explicaba
por qu a veces pareca que el planeta se mova hacia atrs y tambin su cambio de brillo,
ya que ahora su distancia a la Tierra era variable.
Hiparco, en el siglo II a.C., y posteriormente Ptolomeo en el II de nuestra era mejoraron
el sistema de epiciclos hasta crear una maquinaria casi perfecta, ya que se poda predecir la
posicin de los planetas casi con total exactitud. Todo queda compendiado en una gran obra,
el Almagesto, una de las ms inuyentes de todos los tiempos y que sintetiza todo el saber
astronmico de la poca.
La hegemona de los modelos planetarios de Aristteles y Ptolomeo se mantuvo durante
toda la edad media, hasta que en el Siglo XVI, el astrnomo polaco Nicols Coprnico (1473-
1543) propuso un nuevo modelo, conocido como Sistema Heliocntrico, en el cual el Sol, y no
la Tierra, era el centro del Sistema Solar. En este nuevo modelo, la explicacin de la retrogra-
1.1. ORGENES HISTRICOS DE LA ECUACIN DE KEPLER 3
Figura 1.1: Claudio Ptolomeo (100AC 170AC) y Aristteles (384AC 322AC).
dacin de los planetas y el movimiento diario de las estrellas se explica con mayor sencillez.
Sin embargo, Coprnico segua pensando que los planetas efectuaban un movimiento circular
uniforme, por lo que su sistema segua manteniendo alguno de los articios de Ptolomeo.
Siendo ms preciso que el modelo de Ptolomeo, la gran dicultad que encontr el Sistema
Heliocntrico fue de corte conceptual, al desplazar a la Tierra del centro del Universo.
Tratando de conciliar el Sistema Heliocntrico con una posicin hegemnica de la Tierra,
Tycho Brahe, propuso un sistema hbrido, donde la Tierra ocupaba el centro del Universo
con el Sol y la Luna dando vueltas alrededor de la Tierra y el resto de planetas orbitando
en torno al Sol. Sin embargo, esta no fue la mayor contribucin de Tycho Brahe, sino su
coleccin de observaciones de los planetas con la mayor precisin conocida hasta la fecha.
Gracias a ellas, se saba que tanto el modelo de Ptolomeo, como el de Coprnico no eran
capaces de aproximar bien la posicin de algunos planetas, como era el caso de Marte, al que
Brahe observ sin descanso.
Brahe se traslad a Praga y ah tom a Johannes Kepler (1571-1630) como su asistente.
Brahe y Kepler tenan algunas diferencias desde el punto de vista cientco. Una de ellas era
que Brahe crea que la Tierra era el centro del Sistema Solar, mientras que Kepler crea en el
modelo de Coprnico, con el Sol en el centro. A la muerte de Brahe, y en poder de las tablas
de observaciones de Marte, Kepler se lanza al reto de domar la rbita de este planeta, el ms
dscolo de todos, ya que era el que ms se desviaba de su posicin predicha. Tras muchos
intentos, Kepler se da cuenta de que hay que rechazar la teora de los movimientos circulares
uniformes, despus de probar con una rbita circular donde el Sol se encntraba en el punto
ecuante.
1
Sin embargo, mientras la mayora de posiciones de Marte encajaban perfectamente
en la nueva rbita as denida, dos observaciones se separaban unos 8 grados de la posicin
terica. Esto oblig a Kepler a renunciar a la hiptesis de que la rbita tena que ser circular y
1
El ecuante es un punto cerca del centro de la rbita de un planeta respecto al cual el movimiento del
planeta es uniforme. Este punto fue inventado por Ptolomeo en el siglo II de nuestra era.
4 CAPTULO 1. LA ECUACIN DE KEPLER
tras probar con varias curvas, concluy que los planetas se movan en elipses. De esta forma,
estableci tres leyes empricas, que se conocen como las tres leyes de Kepler y que son las
siguientes:
1. Un planeta gira alrededor del Sol describiendo una rbita elptica con el Sol ubicado en
uno de los focos.
2. La recta imaginaria que une al Sol con el planeta barre reas iguales en tiempos iguales.
3. El cuadrado del periodo orbital del planeta es proporcional al cubo del semieje mayor
de la rbita.
Figura 1.2: Tycho Brahe (1546 1601) y Johannes Kepler (1571 1630).
La consecuencia inmediata de estas tres leyes, en concreto de la segunda, es que el planeta
no se mueve con movimiento uniforme, deplazndose ms rpido cuando se encuentra cerca
del Sol que cuando se encuentra ms alejado. Esto diculta el clculo de la posicin del
planeta en su rbita y para ello Kepler tuvo que deducir lo que se denomina ley horaria del
movimiento planetario, que trata de dar la posicin del planeta en funcin del tiempo. Y
es aqu donde tiene su origen la ecuacin de Kepler, ya que es preciso resolverla para poder
determinar la posicin de un planeta para un instante de tiempo dado.
Por nalizar este contexto histrico en el que se enmarca la ecuacin de Kepler, debemos
citar a Newton, quien dedujo las leyes de Kepler a partir de la ley de gravitacin universal
y dio el espaldarazo denitivo al Sistema Heliocntrico. Pero Newton no solo contribuy a
eso, sino que tambin sent las bases del Clculo Innitesimal y de la Mecnica Celeste,
gracias a la cual se ha desarrollado la exploracin espacial, de la que nos sentimos ahora
tan dependientes. Los satlites que estn en rbita siguen las leyes de Kepler y, por tanto,
resolver la ecuacin de Kepler tiene hoy en da ms sentido, si cabe, que en la poca de Kepler
o Newton. Existen excelentes textos clsicos que estudian en profundidad los orgenes de la
1.2. OBTENCIN DE LA ECUACIN DE KEPLER 5
ecuacin de Kepler y sus aplicaciones en Astrodinmica y Mecnica Celeste. Estos textos
tambin muestran las diferentes tcnicas, tanto analticas, como geomtricas o numricas que
se han desarrollado para su resolucin. El siguiente listado es slo una pequea muestra de
los libros que tratan la ecuacin de Kepler y que han sido empleados para la redaccin de
esta memoria: Abad [1], Abad, Docobo y Elipe [2], Colwell [49], Danby [53] y Ors, Catal y
Nez de Murga [56].
1.2. Obtencin de la ecuacin de Kepler
Existen dos formas de obtener la ecuacin de Kepler, la geomtrica y la analtica, como
puede verse en la literatura existente sobre el tema ([1], [49], [56], [171]) . Nosotros presen-
tamos aqu la deduccin geomtrica, basada en una transformacin de coordenadas polares,
referida al foco de la elipse, a otra referida al centro de la misma.
Supongamos que un planeta se mueve alrededor del Sol siguiendo una rbita elptica
de excentricidad e, 0 < e < 1. Sin prdida de generalidad, y para simplicar los clculos,
supongamos que el Sol se encuentra en un foco de la elipse de coordenadas S = (0, 0).
Llamemos a al semieje mayor de la elipse, b al menor, C al centro de la elipse, A al perihelio,
o punto ms cercano de la elipse al foco S, y T al periodo o tiempo que tarda el planeta en
completar una vuelta, vase la Figura 1.3. Sea P = P(t) la posicin que ocupa el planeta
en el instante t y sean (x, y) sus coordenadas cartesianas y (r, ) sus coordenadas polares, es
decir
P = (x, y) = (r cos , r sin ).
El ngulo recibe el nombre de anomala verdadera y corresponde al ngulo girado por
el planeta desde el perihelio. El objeto que persigue la ecuacin de Kepler es relacionar este
ngulo con el tiempo t, transcurrido desde que el planeta pas por el perihelio. Es por ello que
se introduce un ngulo auxiliar M, denominado anomala media, que mide el desplazamiento
angular del planeta desde el perihelio, suponiendo que se desplaza con velocidad uniforme.
As, si denotamos por al instante en el que el planeta pasa por el punto A, resulta
M =
2
T
(t ). (1.2)
Por otra parte, podemos considerar el ngulo E, o anomala excntrica, que resulta de la
parametrizacin natural de la elipse referida a su centro. Este ngulo puede visualizarse
trazando una circunferencia de radio a y centro C. En efecto, si trazamos una perpendicular
al eje mayor que pasa por P y denotamos por Q a la interseccin de dicha perpendicular con
la circunferencia, la anomala excntrica es el ngulo QCA.
Mientras que las anomalas verdadera y excntrica tienen una relacin geomtrica clara
con la elipse, la anomala media no la tiene. Sin embargo, podemos introducir un punto Y
sobre la circunferencia de centro C y radio a, de manera que el ngulo Y CA corresponda
6 CAPTULO 1. LA ECUACIN DE KEPLER
S

E M
Figura 1.3: Descripcin geomtrica de las anomalas verdadera , excntrica E y media M
de la rbita de un planeta.
con M. Gracias a la segunda ley de Kepler, o ley de las reas, si llamamos A
1
al rea del
sector elptico PSA, resulta
A
1
ab
=
t
T
A
1
=
1
2
abM. (1.3)
Puesto que el rea del sector circular Y CA es
1
2
a
2
M, resulta que el rea del sector circular
Y CA es a/b veces el rea del sector elptico PSA.
De la geometra de la Figura 1.3 se deduce que cos E = (x+CS)/a y como, por denicin,
CS/CA = e, se tiene que
x = a(e + cos E). (1.4)
Por otra parte, la elipse est centrada en C = (CS, 0), por lo tanto su ecuacin en coorde-
nadas cartesianas es
(x + CS)
2
a
2
+
y
2
b
2
=
(a cos E)
2
a
2
+
y
2
b
2
= 1,
y de aqu, y = b sin E o, teniendo en cuenta que e
2
= 1 b
2
/a
2
,
y = a

1 e
2
sin E. (1.5)
De aqu resulta
r = a(1 e cos E), (1.6)
donde r = x
2
+ y
2
es la distancia del punto P al foco S.
Tengamos ahora en cuenta que la ecuacin de una elipse en coordenadas polares es
r =
a(1 e
2
)
1 +e cos
,
1.3. RESOLUCIN DE LA ECUACIN DE KEPLER 7
de donde se deduce que
cos =
1
e
_
1 e
2
1 +e cos E
1
_
=
cos E e
1 e cos E
.
De aqu podemos concluir las siguientes igualdades
1 cos =
(1 +e)(1 cos E)
1 e cos E
,
1 + cos =
(1 e)(1 cos E)
1 +e cos E
,
y, a partir de frmulas trigonomtricas conocidas:
tan
_

2
_
=

1 cos
1 + cos
=

1 +e
1 e
tan
_
E
2
_
. (1.7)
La relacin (1.7) nos da la relacin entre la anomal excntrica y la verdadera, faltando la
relacin entre una de ellas y la anomala media M. Para llegar a esta relacin, consideremos
el punto R, sobre el lado SA, obtenido como interseccin con la recta perpendicular a SA
que pasa por P (vase la Figura 1.3). Denotemos por A
1
, A
2
y A
3
a las reas de las regiones
PSA, PSR y PRA respectivamente. El rea de A
1
viene dada por (1.3), mientras que, de
(1.4) y (1.5), se sigue que
A
2
=
xy
2
=
1
2
ab sin E(cos E e). (1.8)
Denotamos ahora por A
4
, A
5
y A
6
a las reas de las regiones QRA, QCA y QCR res-
pectivamente. Sin ms que calcular las reas comprendidas bajo las curvas x
2
+ y
2
= a
2
(circunferencia) y b
2
x
2
+ a
2
y
2
= a
2
b
2
(elipse), tenemos que
A
3
=
b
a
A
4
=
b
a
(A
5
A
6
) =
ba
2
(E sin E cos E). (1.9)
Como A
1
= A
2
+ A
3
, a partir de (1.3), (1.8) y (1.9), se tiene
M = E e sin E,
que no es otra cosa que la famosa ecuacin de Kepler.
1.3. Resolucin de la ecuacin de Kepler
La solucin a la ecuacin de Kepler (1.1) ha sido un tema ampliamente abordado desde su
formulacin en 1650. Desde entonces, los matemticos han aplicado bsicamente tres maneras
de resolverla: la geomtrica, la analtica y la numrica. En el libro de Colwell [49] se hace un
estudio detallado de las distintas formas de resolver la ecuacin de Kepler en sus casi cuatro
8 CAPTULO 1. LA ECUACIN DE KEPLER
siglos de historia, junto con un listado exhaustivo de autores que han trabajado en este tema
y las correspondientes referencias.
Veamos algunos momentos importantes en la solucin de (1.1). En cuanto las demostra-
ciones geomtricas podemos citar la del astrnomo ingls Jeremiah Horrocks quien, en 1638,
describe un mtodo basado en diferencias aprximadas para resolver la ecuacin de Kepler.
Posteriormente, el dans Peder Horrebow obtuvo una solucin de la ecuacin de Kepler que
est estrechamente relacionada a la solucin de Horrocks. Los detalles de la solucin estn
contenidos en unos artculos publicados en 1717 y 1718, los cuales fueron compilados en 1742
en un manuscrito titulado Adytum Astronomiae. El astrnomo francs Jacques Cassini pu-
blic en 1719 un artculo en el cual emplea un mtodo geomtrico para dar solucin a la
ecuacin de Kepler.
Cristopher Wren, en 1658, ofrece una solucin de la ecuacin de Kepler basada en las
cicloides. La misma aparece publicada en la seccin De problemate Kepleriano per Cycloidem
Solvendo del tratado De cycloide Tractatus publicado por John Wallis en 1695. El propio
Isaac Newton utiliza la construccin de Wren en sus Principia (1686) para situar la posicin
de un planeta en una rbita elptica.
John Couch Adams, en [3], presenta un mtodo muy sencillo para resolver la ecuacin de
Kepler a partir de la curva de la funcin seno. El propio Adams se sorprendi de su sencillez
y l mismo arma que es probable que este mtodo hubiera sido propuesto con anterioridad.
En cuanto a las soluciones analticas de la ecuacin de Kepler, sin duda, las soluciones que
usan series de potencias son las ms elegantes. De nuevo, siguiendo a Colwell [49] podemos
destacar cuatro de estas soluciones. As, por ejemplo, Joseph-Louis Lagrange obtuvo en 1771,
a partir de un resultado general sobre desarrollos en serie de Cauchy, la siguiente frmula
para la anomala excntrica E como serie de potencias de la excentricidad e:
E = M +

n=1
a
n
(M)e
n
, con a
n
(M) =
1
n!
d
n1
dM
n1
(sin
n
(M)).
Un siglo despus, los trabajos de Gustav Lejeune Dirichlet y Leopold Fejr, entre otros,
permitieron dar una solucin de la ecuacin de Kepler como serie de Fourier de senos y en
cuyos coecientes aparecen las funciones de Bessel. En concreto,
E = M +

n=1
2
n
J
n
(ne) sin(nM),
donde
J
n
(x) =
1

_

0
cos(xsin n) d.
El matemtico italiano Tullio Levi-Civita present en 1904 una novedosa solucin de la
ecuacin de Kepler, basada en series innitas y usando tcnicas de variable compleja. Levi-
Cevita demostr que si se denota
z =
e exp(

1 e
2
)
1 +

1 e
2
, 0 e < 1,
1.3. RESOLUCIN DE LA ECUACIN DE KEPLER 9
entonces la ecuacin de Kepler tiene como solucin
E =

n=0
L
n
(M)z
n
,
que es convergente para 0 z < 1. El clculo de los coecientes L
n
(M) en funcin de M se
puede hacer de forma recursiva, tal como se muestra en [49, Apndice E], aunque el elevado
coste operacional empleado para su clculo hacen desaconsejable su uso prctico.
Por ltimo, en 1968 K. Stump [174] aplica una herramienta bastante sosticada, como
son las series de Lie a diversos problemas de Mecnica Celeste. En particular, Stump con-
sigue un desarrollo de E como serie de potencias de M donde los coecientes son funciones
racionales de e. Por ejemplo, los primeros trminos de este desarrollo son
E
M
1 e

M
3
e
3!(1 e)
4
+
M
5
e(9e + 1)
5!(1 e)
7
.
En cuanto a las soluciones de la ecuacin de Kepler (1.1)mediante tcnicas iterativas, los
primeros resultados se atribuyen a Leonhard Euler, quin en 1740 ya utilizaba una iteracin
de punto jo para aproximar las soluciones de (1.1). En concreto, Euler buscaba un punto
jo de la ecuacin
f(E) = M + e sin E
a partir de la sucesin
E
0
= M, E
n+1
= M + e sin E
n
, n 0.
Euler era consciente de que para valores de e > 1/2 hacan falta muchos trminos para alcan-
zar una soluci con una buena precisin. Sin embargo, para excentricidades e pequeas, como
es el caso de la rbita de la mayora de los planetas, unas pocas iteraciones son sucientes.
Otra aportacin interesante fue la que dio C. F. W. Peters en 1891, quien propuso como
valor para E:
E E
2

(E
2
E
1
)
2
E
2
2E
1
+ E
0
,
donde E
1
= M +e sin E
0
, E
2
= M +e sin E
1
. Notemos que la propuesta de Peters no es otra
cosa que la aceleracin de Aitken aplicada a la sucesin E
n+1
= M + e sin E
n
.
Sin entrar en detalles sobre las aportaciones de muchos otros cientcos que buscaban
mtodos rpidos y seguros para que los astrnomos pudieran hacer sus clculos en la deter-
minacin de las rbitas de los planetas, podramos armar que el mtodo de Newton es uno
de los procesos iterativos ms usados en la prctica para resolver la ecuacin de Kepler (1.1).
En concreto, para unos valores de M y e dados y a partir de una aproximacin inicial E
0
, el
mtodo de Newton aplicado a (1.1) dene una sucesin
E
n+1
= E
n

E
n
e sin E
n
M
1 e cos E
n
, (1.10)
10 CAPTULO 1. LA ECUACIN DE KEPLER
que, en condiciones adecuadas, converge a una solucin de (1.1). El estudio de la conver-
gencia de la sucesin (1.10), la eleccin de puntos de partida E
0
adecuados, el anlisis de la
sensibilidad de la sucesin ante pequeos cambios en las condiciones iniciales o tratamientos
estadsticos para determinar la media del nmero de iteraciones necesario para que el mtodo
de Newton alcance la solucin con una precisin prejada, han sido objeto de estudio por
parte de diversos autores, como se pone de maniesto en los dos ltimos captulos de esta
memoria.
Captulo 2
Mtodos iterativos para resolver
ecuaciones no lineales
2.1. Introduccin
Muchos problemas relacionados con las Matemticas se reducen a resolver una ecuacin
f(x) = 0, (2.1)
donde, en principio, supondremos que f es una funcin real de variable real. Pese a su sencillez
de planteamiento, ste ha sido un problema complicado que ha sido tratado por numerosos
matemticos clebres: Cardano, Newton, Runi, Galois, etc. Incluso para funciones senci-
llas como son los polinomios, el clculo de sus races es un tema complicado. En un principio,
se intent encontrar dichas races en funcin de los coecientes del polinomio, como ocurre
con la ecuacin de segundo grado:
ax
2
+ bx + c = 0 x =
b

b
2
4ac
2a
.
Tambin se conocen frmulas para polinomios de grados 3 y 4 aunque, debido a su comple-
jidad, no se suelen usar en la prctica. A principios del s. XIX, Galois prob que no existen
este tipo de frmulas para polinomios de grado mayor o igual que 5.
El problema de no poder encontrar de forma exacta las soluciones de una ecuacin surga
tambin al trabajar con ecuaciones trascendentes, como la ecuacin de Kepler, relacionada
con el clculo de rbitas planetarias:
f(E) = E e sen E M
para distintos valores de E y de M.
Estas limitaciones obligan a buscar mtodos para encontrar las soluciones de una ecuacin
de forma aproximada. Bsicamente, estos mtodos generan una sucesin x
1
, x
2
, . . . , x
n
, . . .
11
12 CAPTULO 2. MTODOS ITERATIVOS
que, en condiciones adecuadas, converge a una solucin de la ecuacin (2.4). En muchas
ocasiones, esta sucesin se genera de forma recursiva
x
n+1
= F(x
n
, . . . , x
np+1
),
a partir de una funcin de iteracin, F, que puede depender de uno o varios argumentos.
Los intentos por resolver estos tipos de ecuaciones se vienen reejando desde la antigedad.
Leyendo a Knill [124], nos damos cuenta que desde las civilizaciones griegas, aproximadamente
dos mil aos antes de Cristo, ya se conocan algoritmos iterativos, tal es el caso de la frmula
de Hern para el clculo de races cuadradas, donde partiendo de una aproximacin inicial
s de

S se propone como nueva aproximacin (s + S/s)/2. Con esta frmula, Hern poda
aproximar el valor de la raz cuadrada que aparece en la frmula del rea de un tringulo:
S =
_
p(p a)(p b)(p c),
donde p = (a + b + c)/2 es el semipermetro del tringulo de lados a, b y c.
La utilizacin de un algoritmo iterativo conlleva el planteamiento de varios problemas
tericos ya que es bsico examinar su velocidad de convergencia, determinar el nmero de
iteraciones necesarias para obtener la precisin acordada, estudiar los efectos de la aritm-
tica del computador sobre la sucesin, as como resolver el problema de buscar una buena
aproximacin inicial.
El problema de resolver una ecuacin presenta aspectos muy diferentes. Por ejemplo, con
respecto a la funcin que se presente, la misma puede ser polinomial, trascendental o no
disponer de una expresin explcita de la misma, tal y como ocurre cuando se trata de una
ecuacin diferencial. Por otra parte, est el problema que presentan las soluciones, pues es
sabido que una ecuacin puede no tener solucin, tener una nica solucin, poseer soluciones
mltiples o tener innitas soluciones.
Denicin 2.1 (Error Absoluto). Dada una sucesin x
n

n=0
convergente a un lmite x

,
denimos el error absoluto como la diferencia entre el valor exacto x
n
de la sucesin y x

.
a
n
= x
n
x

.
En ocasiones se usa la expresin
[a
n
[ = [x
n
x

[,
para referirse al mdulo del error absoluto.
Denicin 2.2 (Error Relativo). El error relativo del lmite x

de una sucesin x
n

n=0
con respecto al valor exacto x
n
de la sucesin, es el cociente entre el mdulo del error absoluto
y el valor absoluto del valor exacto.
r
n
=
[x
n
x

[
[x
n
[
.
2.1. INTRODUCCIN 13
El error relativo y el mdulo del error absoluto tienen un uso muy especial en la deter-
minacin del criterio de parada y el orden de convergencia de un algoritmo iterativo.
Denicin 2.3 (Criterios de parada). Los criterios de parada son los que denen el
momento en que se detendr el algoritmo que se est ejecutando, pues establecen cuando se
est lo sucientemente cerca del valor buscado.
El proceso habitual para jar un criterio de parada consiste en jar un parmetro pequeo
llamado tolerancia, denotado usualmente por TOL, detenindose el proceso cuando se cumple
una de las siguientes condiciones
1. [x
n
x
n1
[ < TOL.
2.
|xnx
n1
|
|xn|
< TOL.
Estos criterios estn justicados en el hecho de que para muchas sucesiones, las expresiones
1 y 2 intervienen en las cotas del error, es decir
[x
n
x

[ K
n
[x
n
x
n1
[,
de esta manera se consigue que si [x
n
x
n1
[ es pequeo, entonces el error cometido, cuando
K
n
sea de un tamao moderado, tambin ser pequeo. Un error muy a menudo cometido
cuando se resuelve una ecuacin no lineal (2.4) es el hecho de usar, como nico criterio de
parada, la expresin
[f(x
n
)[ < TOL,
pues suponer siempre que x
n
es una buena aproximacin de la raz si se cumple que f(x
n
) es
pequeo, puede resultar completamente incorrecto para algunas funciones. Este tipo de caso
luego se ver en los ejemplos que presentaremos.
Denicin 2.4 (Orden de convergencia). El orden de convergencia nos indica la velocidad
con la cual una sucesin converge a su lmite. En trminos matemticos asume la siguiente
expresin:
lm
n
[x
n+1
x

[
[x
n
x

[
p
= C, con C R
+
y p 1,
donde x
n
es la sucesin, x

el nmero al que converge la sucesin, p es el orden de conver-


gencia y C es la constante asinttica de error. Bajo esta denicin, si p = 1, se debe cumplir
que C < 1.
Si p = 1, 2, 3, 4, 5, se dice que es de orden lineal, cuadrtico, cbico, curtico y quntico
respectivamente.
14 CAPTULO 2. MTODOS ITERATIVOS
Se debe recalcar la importancia prctica que presenta el orden de convergencia. En efecto,
cuando x
i+1
est lo sucientemente cerca de x

, se cumple
[x
i+1
x

[ [x
i
x

[
p
,
y haciendo
D
n
= log [x
i
x

[,
se obtiene
D
n+1
= pD
n
+ r, donde r = log .
Esto signica que en cada iteracin se multiplica aproximadamente por p, el nmero de
cifras exactas, de forma que, en general, un algoritmo con orden de convergencia alto converge
ms rpidamente que un algoritmo de orden menor.
Cuando se verica que
lm
n
[x
n+1
x

[
[x
n
x

[
= 0 lm
n
[x
n+1
x

[
[x
n
x

[
2
= 0,
el orden de convergencia de la sucesin x
n

n=1
a x

se llama superlineal o supercuadrtico,


respectivamente.
Una caracterizacin del orden del convergencia la encontramos en el teorema de Schrder,
cuya demostracin damos a continuacin. Parte de la demostracin la pueden encontrar en
[117] y [180].
Teorema 2.1 (de Schrder). Consideremos un mtodo iterativo
x
n+1
= g(x
n
), (2.2)
en el que g es continua y q veces diferenciable en en entorno de x

, un punto jo de g,
x

= g(x

). Entonces la sucesin x
n
converge a x

con orden de convergencia q si


d
j
g(x

)
dx
j
= 0, j = 1, 2, . . . , q 1,
d
q
g(x

)
dx
q
,= 0.
Demostracin. Desarrollando (2.2) en serie de Taylor se obtiene
x
n+1
= g(x
n
) = x

+ g

(x

)(x
n
x

) + +
1
q!
d
q
g(x)
dx
q
(x
n
x

)
q
, x (x
n
, x

).
Luego, usando la condicin del enunciado, se sigue
x
n+1
x

=
1
q!
d
q
g(x

)
dx
q
(x
n
x

)
q
,
con lo que
lm
n
[x
n+1
x

[
[x
n
x

[
q
=
1
q!
d
q
g(x

)
dx
q
,= 0.
Por lo tanto el mtodo tiene orden de convergencia q.
2.1. INTRODUCCIN 15
Otro importante aspecto que tiene que ver con la convergencia es el que se reere a la
velocidad de convergencia de dos sucesiones, ya que sta nos permitir comparar la velocidad
de los diferentes algoritmos iterativos.
Denicin 2.5 (Velocidad de convergencia de dos sucesiones). Dada una sucesin
x
n
que converge a x y una sucesin y
n
que converge a y, se dice que y
n
converge ms
rpidamente que x
n
si
lm
n
y y
n
x x
n
= 0.
Otro elemento que tambin se emplea para comparar la velocidad de convergencia de
dos sucesiones es la constante asinttica del error. En efecto, dadas dos sucesiones con el
mismo orden de convergencia, la que tenga la constante asinttica del error ms pequea
converger ms rpidamente que la otra. El recproco de esta proposicin no es cierto, pues
dos sucesiones del mismo orden y con la misma constante asinttica de error no tienen por qu
converger con la misma velocidad. En [145], se muestran un ejemplo en el que verican la no
reciprocidad de la proposicin. En el mismo encontramos que dadas y
n
= a
n
/n
2
y x
n
= a
n
/n
con 0 < a 1, el orden de convergencia es 1 y a es, para ambos casos, la constante asinttica
del error, pero y
n
converge ms rpidamente a cero. Para vericar su demostracin, ntese
que al sustituir cualquier valor de 0 < a < 1 y n 1 se obtiene que
0 < y
n
< x
n
, n 1.
Para una mayor profundidad de los aspectos concernientes a orden y velocidad de con-
vergencia, ver a [10], [47], [145] y [163] entre otros.
En la determinacin de las races de una ecuacin no lineal, el aumento del orden de
convergencia permite reducir el nmero de iteraciones. Pero el aumento en el orden requiere
una mayor cantidad de evaluaciones de funciones y sus derivadas, aumentando el tiempo de
clculo en cada iteracin. Esto podra signicar que el aumento del orden de convergencia
del mtodo lleva implcito que el mismo sea menos eciente, pero no siempre es as ya que
en realidad lo que se establece es un equilibrio entre el orden de convergencia y el coste
operacional del algoritmo.
Desde el punto de vista prctico, lo realmente importante no es ni el orden de convergencia
de una sucesin ni el nmero de iteraciones necesarias para llegar a la precisin deseada, sino el
tiempo que emplea el computador en alcanzar tal precisin, por lo tanto el coste del cmputo
de una iteracin es fundamental. En otras palabras, el ndice de eciencia del mtodo iterativo
es bsico. Veamos su denicin:
Denicin 2.6 (ndice de eciencia computacional de un mtodo). De acuerdo con
[93], existen dos tipos de ndice de eciencia:
i) El de aritmtica con precisin ja y pequea. El ndice de eciencia viene denido por
la expresin
IEC(p, d) = p
1/d
, (2.3)
16 CAPTULO 2. MTODOS ITERATIVOS
donde p > 1 es el orden de convergencia del mtodo y d es el nmero de evaluaciones
de la funcin f o de sus derivadas.
ii) El de aritmtica con mltiple precisin. En este caso el ndice de eciencia del mtodo
se denota por la frmula
IEC(d, p, ) = p
1
C(d,p,)
= p
1p

d
,
Donde p y d tienen el mismo signicado que en la ecuacin (2.3) y
((d, p, ) =
d
1 p

es el coste total o tiempo computacional de evaluar a f, en donde.


= log
k+1
(2k + 1), para k 1.
y k es una constante que indica el nmero de veces que se debe evaluar la funcin f.
Computacionalmente hablando, cuanto mayor sea el ndice de eciencia mejor es el m-
todo iterativo. Es importante sealar que una mejora en el orden de convergencia de un
mtodo iterativo, no siempre implica una mejora en la eciencia computacional del mismo.
Generalmente estas mejoras traen como consecuencia el incremento del coste de evaluar la
funcin, en perjuicio de su eciencia.
Existen diferentes formas de clasicar los procesos iterativos, dependiendo de los aspectos
que se vayan a tener en cuenta. Por ejemplo, en funcin del nmero de elementos de la
sucesin x
n
que necesitamos para calcular x
n+1
, los podemos catalogar en dos grandes
bloques
(i) Mtodos de un punto. Aquellos en los que la sucesin de iteracin es de la forma
x
n+1
= g(x
n
).
Entre estos se encuentran el mtodo de: Newton-Raphson, Halley, Super-Halley, Che-
byshev, Danby, etc.
(ii) Mtodos multipunto. En estos la funcin de iteracin es de la forma
x
n+1
= g(x
n
, x
n1
, . . . , x
np+1
), con p 1.
Es decir, son mtodos en los que el n-nesimo trmino viene dado en funcin de los
p trminos anteriores. A este grupo pertenecen los mtodos de: la Secante, Biseccin,
Yun-Petkovi, Falsa Posicin o Regula Falsi, etc.
Pero sta no es una clasicacin nica. Por ejemplo, Aubanell y Delshams [17] presentan
una clasicacin de los mtodos iterativos atendiendo a dos rasgos que los caracterizan:
2.2. EL MTODO DE NEWTON 17
1. La herramienta que se emplea en el desarrollo de la funcin. De acuerdo a la herramienta
que se emplea en el desarrollo de la funcin, los mtodos iterativos se clasican en:
Mtodos de Taylor. Son aqullos que utilizan el desarrollo de Taylor, es decir,
calculan a x
n+1
a partir del conocimiento de la funcin y de sus derivadas en un
punto x
n
. Ejemplos: mtodo de Euler, mtodo de Punto medio.
Mtodos de Interpolacin. En stos se calcula x
n+1
a partir del conocimiento
de la funcin en x
n
, x
n1
, . . . . Ejemplos: mtodo de Lagrange, mtodo de Hermite.
2. La funcin que se desarrolla o se interpola. Por la funcin que se desarrolla o se interpola,
es decir, si se emplea g = f
1
, que es equivalente a buscar a x

tal que f(x

) = 0 a
buscar x

tal que g(0) = x

, es posible dar dos enfoques a los mtodos que se aplicaran


en la solucin del problema segn se emplee el desarrollo de Taylor o la interpolacin
de la funcin f g:
Mtodos Directos. Si usamos la funcin f. Ejemplos: mtodo de Newton-Raphson,
Mtodo de Halley.
Mtodos Inversos. Si empleamos la funcin g = f
1
. Ejemplo: mtodo de Che-
byshev.
Adems, teniendo en cuenta el comportamiento especial para races mltiples, conside-
raremos un tercer bloque
(iii) Mtodos para races mltiples.
Es conocido que algunos mtodos, i.e el mtodo de Newton-Raphson y el mtodo de la
Secante, disminuyen su orden de convergencia cuando la ecuacin que intentan resolver
tienen races mltiples. Para evitar esta consecuencia se han creado una serie de mto-
dos que introducen en el mtodo original una constante de multiplicidad que permite
aumentar nuevamente el orden de convergencia.
Entre los mtodos para encontrar races mltiples tenemos el de Newton-Raphson mo-
dicado, Newton Relajado, King-Van de Vel, etc.
2.2. El mtodo de Newton
El mtodo de Newton, tambin conocido como mtodo de Newton-Raphson, es un proceso
iterativo que, en condiciones adecuadas, permite aproximar una solucin x

de una ecuacin
no lineal
f(x) = 0. (2.4)
18 CAPTULO 2. MTODOS ITERATIVOS
Partiendo de una aproximacin inicial x
0
de la raz x

, el mtodo de Newton-Raphson dene


una sucesin de la forma
x
n+1
= x
n

f(x
n
)
f

(x
n
)
, n = 0, 1, 2, 3, . . . . (2.5)
En esta seccin, analizaremos el origen y desarrollo histrico de este mtodo, distintas
tcnicas que dan lugar a la frmula (2.5) y los resultados que garantizan la convergencia del
mtodo a la raz buscada.
2.2.1. Notas histricas sobre el mtodo de Newton
La idea general de resolver una ecuacin mediante un algoritmo iterativo o estimando la
solucin mediante la adiccin de un trmino corrector ha sido empleada por muchas culturas
milenarias. Por ejemplo, en la antigua Grecia y Babilonia se emplearon mtodos parecidos a
los utilizados por Newton, para aproximar la solucin de radicales. Mtodos algebraicamente
equivalente al de Newton tambin fueron aplicados en el siglo XII, por el algebrista Sharaf
al-Din al-Tusi. En el siglo XV , el matemtico rabe Al-Kashi emple un algoritmo numrico
para encontrar las races p-simas de N en la ecuacin x
p
= N. Tambin Henry Briggs, en su
obra Trigonometria Britannica publicada en 1633, us un mtodo parecido al de Newton.
Figura 2.1: Sir Isaac Newton (1643 1727) y Thomas Simpson (1710 1761).
Leyendo a Tjalling J. Ypma [195] encontramos que la primera formulacin del mtodo
de Newton-Raphson apareci en un tratado de Newton titulado De analysi per aequationes
numero terminorum innitas, el cual fue, probablemente, presentado a mediados del ao
1669 y publicado en 1711 por William Jones. Esta primera formulacin es considerablemente
diferente a la que conocemos hoy en da y estaba denida para resolver slamente ecuaciones
polinmicas. Adems la forma de realizar los clculos son mucho ms tediosos que en la for-
mulacin actual. En 1671 Newton dio a conocer un tratado, con una versin ligeramente ms
2.2. EL MTODO DE NEWTON 19
comprensible, titulado De methodis uxionum et serierum innitarum, la cual fue publicada
por John Colson en 1736.
El proceso descrito por Newton requiere un clculo explcito de una sucesin polinmica
de la forma g
1
, g
2
, . . . , que lo convierte en un mtodo muy laborioso. Tambin se observa que
la estimacin nal x

es calculada al nal del proceso como x

= x
0
+c
0
+c
1
+. . . en vez de
hacer las estimaciones sucesivas de x
n
, lo cual evidencia que Newton no utiliz una tcnica
recursiva.
La primera vez que Newton publica su mtodo aplicado a ecuaciones no polinmicas fue
en la segunda y tercera edicin de su obra Philosophiae Naturalis Principia Mathematica,
la cual fue presentada en 1687 en Londres. En ellas describe las tcnicas para resolver la
ecuacin de Kepler
f(E) = E e sen E M, (2.6)
donde M es la anomala media, E es la anomala excntrica y e es la excentricidad de la
elipse.
La segunda formulacin del mtodo de Newton se debe a Joseph Raphson, quien en 1690
public un tratado titulado Analysis aequationum universalis en el cual se present un mtodo
nuevo para resolver ecuaciones polinmicas. Una segunda edicin de dicho tratado se public
como libro en 1697, con un apndice que hace referencia a Newton. Se comprueba que los
dos mtodos son matemticamente equivalentes, la diferencia es que Raphson no necesit
generar una sucesin de polinomios, como lo haca Newton.
Raphson consider una ecuacin de la forma a
3
ba c = 0, donde a es una varia-
ble. Prosigue indicando que si g es una estimacin de la solucin x

, entonces, una mejor


aproximacin se consigue haciendo a g + x, donde
x =
c + bg g
3
3g
2
b
.
Formalmente esto es de la forma
g + x = g
f(g)
f

(g)
, con f(a) = a
3
ba c,
pero como en el caso de Newton, Raphson tambin procedi de manera puramente algebraica,
aunque preri las reglas del clculo al utilizar la forma de derivada, pues en cada ejemplo
escribi expresiones, tales como f(x) y f

(x), para referirse a polinomios completos.


Los contactos entre Newton y Raphson parece que fueron muy limitados, aunque parece
que Newton aprovech las circunstancia de la muerte de Raphson para adjuntar un apndice
al ltimo libro de Raphson, titulado Historia uxionum. En el prefacio del tratado de 1690,
Raphson se reere a los trabajos de Newton, indicando que su mtodo no es nico.
La tercera versin del mtodo de Newton se debe a Thomas Simpson y la misma est
descrita en un libro titulado Essays on Several Curious and Useful Subjects in Speculative
20 CAPTULO 2. MTODOS ITERATIVOS
Figura 2.2: Joseph Louis Lagrange (1736 1813) y Joseph Fourier (1768 1830).
and Mixed Mathematicks, publicado en 1740 en Londres. En el ensayo nmero seis, Simpson
describe un nuevo mtodo para la solucin de ecuaciones numricas, sin hacer referencia a
los trabajos de ningn predecesor. En el prefacio de dicho ensayo, contrasta las tcnicas de
su mtodo, las cuales estaban basadas en el anlisis matemtico y clculo numrico, con
los mtodos algebraicos de entonces. En ste se dan ejemplos de solucin de ecuaciones
polinmicas y no polinmicas, con detalles para resolver ecuaciones en una o dos variables
mediante instrucciones que involucran el signo x, el cual es equivalente a dx/dt. Adems
aparece la primera formulacin de un mtodo iterativo para resolver, en general, ecuaciones
no lineales basados en el clculo numrico. Finalmente, fue Lagrange, en 1798, quien introdujo
el mtodo de Newton-Raphson con la simbologa que se emplea actualmente. La obra en que
aparece esta notacin moderna se titula Sur la mthode dApproximation donne par Newton
y en la misma no hace referencia a los trabajos de Simpson, aunque si menciona a Newton y
Raphson.
Para un anlisis ms profundo del desarrollo histrico del mtodo de Newton-Raphson,
vase a [195].
2.2.2. Descripcin del mtodo de Newton
Existen varias formas de deducir la expresin (2.5). A continuacin presentamos, de forma
resumida, algunas de ellas.
A partir del desarrollo de Taylor
La tcnica que explicaremos a continuacin aparece en varios libros clsicos de Anlisis
Numrico, entre ellos [47], [75], [117] y [129].
Sea x
0
una aproximacin de x

, la raz de f(x) = 0. Buscamos un trmino corrector h de


2.2. EL MTODO DE NEWTON 21
forma que x + h sea la raz buscada, es decir,
f(x
0
+ h) = f(x

) = 0.
Si desarrollamos por la serie de Taylor f(x
0
+ h) se obtiene:
0 = f(x
0
+ h) = f(x
0
) +hf

(x
0
) +
h
2
2!
f

(x
0
) + . (2.7)
La solucin exacta de esta ecuacin nos dara el trmino corrector h tal que x
0
+h = x

.
Si en lugar de considerar la ecuacin (2.7), tomamos su linealizada
f(x
0
) +hf

(x
0
) = 0,
obtenemos de forma sencilla su solucin
h =
f(x
0
)
f

(x
0
)
.
Si bien este valor no es la solucin exacta de (2.7), en condiciones adecuadas podra ser
una buena aproximacin. De esta forma
x
0
+ h = x
0

f(x
0
)
f

(x
0
)
,
sera una mejor aproximacin a x

que la dada inicialmente por x


0
.
Si denotamos por
x
1
= x
0

f(x
0
)
f

(x
0
)
,
y reiteramos el proceso obtenemos el mtodo de Newton-Raphson: (2.5).
Construccin geomtrica: mtodo de la tangente
Esta tcnica aparece en una inmensa bibliografa de Mtodos Matemticos y Anlisis
Numrico, entre los que podemos citar los siguientes: [31], [34], [46], [133], [146], [152], [153]
y muchsimos ms.
La tcnica de iteracin de este mtodo consiste en tomar un punto inicial x
0
, vase la
Figura (2.3), para luego trazar por el punto (x
0
, f(x
0
)) la tangente geomtrica a la grca de
la funcin f(x). Luego, la interseccin de dicha tangente con el eje X nos da un nuevo punto
x
1
, por el cual trazamos una nueva recta tangente a la grca de la funcin, pero esta vez
por el punto (x
1
, f(x
1
)). En condiciones adecuadas la sucesin as obtenida
x
0
, x
1
, x
2
, . . . , x
n1
, x
n
, . . .
tiende a la raz exacta x

.
22 CAPTULO 2. MTODOS ITERATIVOS
x
y
f x
0

f x
1

x
0
f x
2

x
1
x
2
x

Figura 2.3: Interpretacin geomtrica del mtodo de Newton-Raphson


Por la ecuacin de la recta tangente obtenemos
y f(x
0
) = f

(x
0
)(x
1
x
0
).
Luego, en la interseccin con el eje X, (y = 0), se sigue
x
1
= x
0

f(x
0
)
f

(x
0
)
.
Reiterando el proceso se llega a la funcin iterativa (2.5) para el punto x
n
.
Iteracin del punto jo
El mtodo de Newton-Raphson puede ser obtenido a partir de del mtodo de iteracin
del punto jo. Para ello escribiremos la ecuacin f(x) = 0 como
x = x f(x), (2.8)
luego introducimos en (2.8) un parmetro , con lo cual
x + x = x + x f(x),
de donde
x =

+ 1
x +
1
1 +
(x f(x)) = G(x). (2.9)
Si x

es una raz de f(x), x

es un punto jo de G(x).
Si imponemos que G

(x

) = 0 es un punto jo superatractor, entonces el parmetro


debe cumplir

1 +
+
1
1 +
(1 f

(x

) = 0,
de donde se obtiene
= f

(x

) 1. (2.10)
2.2. EL MTODO DE NEWTON 23
Sustituyendo (2.10) en (2.9) y utilizando la iteracin del punto jo, sigue
x
n+1
= G(x
n
)
=
f

(x

) 1
f

(x

)
x
n
+
1
f

(x

)
(x
n
f(x
n
))
= x
n

f(x
n
)
f

(x

)
.
Pero como x

es, en principio desconocido, podemos usar la aproximacin denida por


x

x
n
para llegar al siguiente mtodo iterativo.
x
n+1
= x
n

f(x
n
)
f

(x
n
)
,
que es, de nuevo, el mtodo de Newton-Raphson.
2.2.3. Convergencia del mtodo de Newton
En los apartados anteriores, hemos visto como denir una sucesin
x
n+1
= x
n

f(x
n
)
f

(x
n
)
con el objetivo de aproximar la solucin de x

de la ecuacin f(x) = 0.
Tenemos que ser conscientes de que la convergencia de x
n
hacia x

no siempre va a
suceder. Para que esto ocurra, se tienen que dar una serie de condiciones sobre la funcin
f, el punto de partida x
0
o la raz x

. En concreto, distinguiremos 3 tipos de resultados de


convergencia:
1. Local: Se dan condiciones sobre la raz x

.
2. Semilocal: Se dan condiciones sobre el punto de partida x
0
.
3. Global: Se dan condiciones sobre un intervalo.
Existen una gran cantidad de publicaciones con diversos resultados de convergencia para
el mtodo de Newton-Raphson (vanse [10], [17], [77], [133], [137],[141], [152] y [180]). No es
nuestro objetivo dar un listado exhaustivo de todos ellos. No obstante, a modo de ejemplos,
expondremos uno o dos resultados de cada tipo de convergencia.
Convergencia local del mtodo de Newton
Existen diferentes tcnicas que permiten estudiar el orden de convergencia de un proceso
iterativo. As por ejemplo, en [60] se muestra un teorema que permite garantizar la conver-
gencia del mtodo de Newton en trminos del denominado grado de convexidad logartmico
de una funcin:
L
f
(x) =
f(x)f

(x)
f

(x)
2
. (2.11)
24 CAPTULO 2. MTODOS ITERATIVOS
Leyendo a [98] encontramos que el grado de convexidad logartmico de una funcin es una
medida puntual de la convexidad, dada por la resistencia de una funcin a ser concavizada
por un operador logartmico. En otras palabras, es el numero de veces que hay que aplicar
un operador logartmico a una funcin convexa para obtener como resultado una funcin
cncava.
Adems, el grado de convexidad logartmico est relacionado con la velocidad de conver-
gencia del mtodo de Newton-Raphson. No en vano se tiene que
N

f
(x) = L
f
(x),
es decir, el grado de convexidad logartmico es la derivada de la funcin de iteracin del
mtodo de Newton N
f
(x) denida por (2.5). En consecuencia, la expresin (2.11) es muy
utilizada en las demostraciones de la convergencia de muchos mtodos iterativos, tales como
el mtodo de Halley y el mtodo de Chebyshev, as como en libros y artculos de Anlisis
Numrico, entre los que se pueden citar a [5], [7], [9], [67], [68], [70], [83], [98], [99] y [154].
Una tcnica diferente consiste en utilizar el teorema de Schrder, introducido en el Teore-
ma 2.1. Dicho teorema puede ser considerado ocasionalmente como una denicin del orden
de convergencia de un proceso iterativo para encontrar las races de una ecuacin, en lugar
de la denicin . Esto es sugerido por algunos autores como [105] o [123]. El propio Traub
comenta esta posibilidad (vase [180, p. 10]).
En adelante, tendremos en cuenta la siguiente notacin introducida por Traub [180] para
funciones sucientemente derivables:
A
j
=
f
(j)
(x

)
j!f

(x

)
. (2.12)
Adems denotamos
e
n
= x
n
x

(2.13)
a los trminos del error y
O
n
= O(e
p
n
). (2.14)
Con estas notaciones, si un mtodo iterativo tiene orden p se satisface la siguiente ecuacin
del error:
e
n+1
= Ce
p
n
+ O
n+1
. (2.15)
Utilizando el Teorema de Schrder (vase el teorema 2.1), podemos probar que el mtodo
de Newton tiene convergencia cuadrtica en un entorno de una raz simple x

de f(x) = 0.
Usando las notaciones introducidas en (2.12), (2.13), (2.14), (2.15), podemos formular el
siguiente resultado.
Teorema 2.2. Sea f : I R una funcin de variable real denida en un entorno I de x

,
una raz simple de f(x) = 0, (f(x

) = 0 y f

(x

) ,= 0). Supongamos que f es tres veces


2.2. EL MTODO DE NEWTON 25
derivable en I. Entonces el mtodo de Newton denido por x
n+1
= N
f
(x
n
),
N
f
(x) = x
f(x)
f

(x)
,
tiene al menos convergencia cuadrtica localmente. Adems, se cumple la siguiente ecuacin
del error:
e
n+1
= A
2
e
2
n
+ O
3
.
donde la constante A
2
, denida en (2.12), es la constante de error asinttico.
Demostracin. (Usando el Teorema de Schrder) Notemos que se necesita que f

sea conti-
nua para poder satisfacer la hiptesis del Teorema de Schrder de que N

f
sea continua. Un
simple clculo nos permite comprobar que
N
f
(x

) = x

, N

f
(x

) = 0, N

f
(x

) =
f

(x

)
f

(x

)
,= 0.
Adems tenemos que
lm
n
e
n
+ 1
e
2
n
=
f

(x

)
2f

(x

)
= A
2
,
Demostracin. (Usando desarrollos de Taylor) Podemos obtener las conclusiones del teorema
siguiendo una tcnica diferente. En concreto, desarrollamos f(x
n
) y f

(x
n
) en serie de Taylor
y truncamos en la potencia N-sima. Obtenemos as:
f(x
n
) = f(x
n
x

+ x

) = f(x

+ e
n
) = f

(x

)
_
e
n
+
N

i=2
A
i
e
i
n
_
+ O
N+1
f

(x
n
) = f

(x

)
_
1 +
N

i=2
iA
i
e
i1
n
_
+ O
N
,
donde A
i
, e
n
y O
N
se han introducido en (2.12), (2.13) y (2.14) respectivamente.
Adems, se tiene que
f(x
n
)
f

(x
n
)
= e
n
A
2
e
2
n
+ O
3
.
Por lo tanto,
e
n+1
= x
n+1
x

= x
n
x

f(x
n
)
f

(x
n
)
= e
n

_
e
n
A
2
e
2
n
+ O
3
_
= A
2
e
2
n
+ O
3
,
con lo que hemos demostrado el resultado.
Las dos tcnicas de demostracin expuestas anteriormente han sido empleadas por diversos
autores en el estudio de la convergencia local de procesos iterativos. Por ejemplo podemos
citar los siguientes: [12], [20], [39], [59], [88], [103], [104], [108], [114] y [188],
26 CAPTULO 2. MTODOS ITERATIVOS
Es bien conocido [180] que cuando se trata de aproximar una raz mltiple, el orden de
convergencia del mtodo de Newton es solamente lineal. Diremos que x

es una raz mltiple


o un cero de multiplicidad m de f si
f(x

) = f

(x

) = = f
(m1)
(x

) = 0 y f
(m)
(x

) ,= 0. (2.16)
En este caso, se puede escribir
f(x) = (x x

)
m
g(x), con g(x

) ,= 0,
f

(x) = (x x

)
m1
(mg(x) + (x x

)g

(x)),
f(x)
f

(x)
= (x x

)
g(x)
mg(x) + (x x

)g

(x)
.
Teniendo en cuenta estas consideraciones, podemos formular el siguiente resultado.
Teorema 2.3. Sea f : I R una funcin de variable real denida en un entorno I de x

,
una raz de multiplicidad m 2 de f(x) = 0. Supongamos que f es m+1 veces derivable en
I. Para 1 q m consideramos los procesos iterativos
x
n+1
= x
n
q
f(x
n
)
f

(x
n
)
. (2.17)
Entonces:
1. Si q < m, el proceso anterior tiene convergencia lineal a la raz. Adems, se cumple la
siguiente ecuacin del error:
e
n+1
= Ce
n
+ O
2
, C = 1
q
m
.
2. Si q = m, el proceso anterior tiene convergencia cuadrtica a la raz. Adems, se cumple
la siguiente ecuacin del error:
e
n+1
= Ce
n
+ O
2
, C =
A
m+1
m!A
m
.
Demostracin. Para valores de x cercanos a x

podemos escribir
f(x)
f

(x)
= (x x

)
1 +(x)
m
, lm
xx

(x) = 0.
Para este mtodo denido en (2.17) se tiene que
x
n+1
x

= (x
n
x

)
_
1
q
m
_

q
m
(x
n
x

)(x
n
). (2.18)
Por lo tanto, si q < m,
lm
n
(x
n+1
x

)
(x
n
x

)
= 1
q
m
,= 0.
2.2. EL MTODO DE NEWTON 27
Por consiguiente, se ha perdido la convergencia cuadrtica del proceso, pudindose garantizar
nicamente la convergencia lineal.
Sin embargo, si se toma q = m, el valor de la multiplicidad de la raz y se supone que
f
(m+1)
() est denido, entonces el mtodo
x
n+1
= x
n
m
f(x
n
)
f

(x
n
)
. (2.19)
recupera la convergencia cuadrtica. Es ms, en este caso,
lm
n
(x
n+1
)
(x
n
)
2
=
f
(m+1)
()
(m+ 1)!f
(m)
()
.
Llegados a este punto, conviene destacar que si no se puede asegurar la existencia de f
(m+1)
(),
nicamente se podra garantizar la convergencia superlineal del mtodo correspondiente. En
efecto, de la frmula (2.18) se deduce
lm
n
(x
n+1
)
(x
n
)
= lm
n
q
m
(x
n
)(x
n
) = 0.
Corolario 2.4. El mtodo de Newton para aproximar una raz de mltiplicidad m > 1 tiene
convergencia lineal.
Demostracin. Basta tener en cuenta que el mtodo de Newton se obtiene para q = 1 en (2.17)
y aplicar el teorema anterior.
Convergencia semilocal del mtodo de Newton
En este trabajo demostraremos el teorema de Kantorovich y la -teora de Smale como una
versin en R que podr ser extendida al caso general de sistemas de ecuaciones o ecuaciones
denidas en espacios de Banach.
Histricamente hablando, en 1829, Cauchy present el primer resultado de convergencia
semilocal para el mtodo de Newton-Raphson. Los detalles de dicho teorema se encuentran en
[32], mientras que en [192] aparece un resumen parecido al que presentamos a continuacin.
Teorema 2.5 (Cauchy). Sea X = R, F = f C
2
, x
0
X, f

(x
0
) ,= 0,
0
=
f(x
0
)
f

(x
0
)
,
= [
0
[,
I = x
0
, x
0
+ 2
0
)
_

_
[x
0
, x
0
+ 2
0
], si
0
0,
[x
0
+ 2
0
, x
0
], si
0
< 0.
y [f

(x
0
)[ K I. Entonces se cumplen los siguientes resultados:
28 CAPTULO 2. MTODOS ITERATIVOS
i) Si
2K < [f

(x
0
)[,
entonces F(x) tiene a x

como solucin nica en I.


ii) Si m I y [f

(x
0
)[ m,
2K < m,
entonces, la sucesin del mtodo de Newton denida por (2.5), iniciando en x
0
, cumple
que
[x
k+1
x
k
[
K
2m
[x
k
x
k1
[
2
, k 1
y
x

x
k
, x
k
+ 2
k
),
donde

k
=
f(x
k
)
f

(x
k
= x
k+1
x
k
,
as que
[x

x
k
[ 2[x
k+1
x
k
[, k 0,

K
m
[x
k
x
k1
[
2
, k 1,
2(
K
2m
)
2
k
1
, k 0.
Figura 2.4: Augustin Louis Cauchy (1789 1857) y Leonid V. Kantorovich (1912 1986).
2.2. EL MTODO DE NEWTON 29
Este resultado, inicialmente establecido para funciones reales de variable real, fue gene-
ralizado aos ms tarde por Kantorovich en su clebre teorema enunciado para operadores
denidos en espacios de Banach.
Leyendo a [83], encontramos que fue a nales del 1940 cuando L. V. Kantorovich y L. B.
Rall introdujeron el mtodo de Newton-Raphson en estos tipos de espacios. Su planteamiento
establece que si F es un operador sucientemente diferenciable denido entre dos espacios de
Banach X e Y , a partir de un punto x
0
X se construye la sucesin de Newton-Raphson
x
n+1
= x
n
F

(x
n
)
1
F(x
n
), (2.20)
donde F

(x
n
)
1
es el inverso del operador lineal F

(x
n
).
A partir de ciertas condiciones, Kantorovich demostr que la sucesin x
n
, generada a
partir de (2.20) est bien denida y es convergente a una solucin de F(x) = 0. Para una
visin mas profunda del teorema de Kantorovich se puede consultar a [109], [110], [111], [141]
y [143].
Teorema 2.6 (Teorema de Kantorovich). Sea f : I R, en donde I es un intervalo
abierto en R, una funcin diferenciable en I. Asumamos, sin prdida de generalidad, que
f(x
0
) ,= 0 y que
i) x
0
I.
ii) f

(x
0
) ,= 0.
iii)

f(x
0
)
f

(x
0
)

.
iv)

(x)f

(y)
f

(x
0
)

[x y[, x, y I.
v) h = 1/2.
vi) t

=
1

12h
2
es tal que (x
0
t

, x
0
+ t

) I.
Entonces el mtodo de Newton-Raphson
x
n+1
= x
n

f(x
n
)
f

(x
n
)
, n 0, (2.21)
est bien denido y x
n

n=0
converge a x

I, donde f(x

) = 0.
Demostracin. Para encontrar una sucesin que mayorice a x
n

n=0
vamos a considerar el
polinomio
p(t) =
1
2
t
2
t + , (2.22)
30 CAPTULO 2. MTODOS ITERATIVOS
Figura 2.5: Grca del polinomio mayorizante p(t) =
1
2
t
2
t +
cuyas races son
t

, t

=
1

1 2

,
tal y como se muestra en la grca 2.5
Notemos que (2.22) tendr solucin en R cuando 1 2 0, de donde
1
2
. Esto
explica la condicin v).
Aplicando el mtodo de Newton-Raphson a (2.22) se sigue
_

_
t
n+1
= t
n

p(tn)
p

(tn)
= t
n

_
_
+tn
1
2
t
2
n
1tn
_
_
=

1
2
t
2
n
+
1tn
.
t
0
= 0.
(2.23)
Notemos que el polinomio p(t) cumple las condiciones de Fourier (Teorema 2.8). As,
tomando a t
0
= 0 se genera una sucesin montona creciente cuyo lmite es t

. Ahora, por
induccin probaremos que
[x
n+1
x
n
[ t
n+1
t
n
, n 0.
Sustituyendo a n = 0 en (2.23) se sigue
t
1
t
0
=
p(t
0
)
p

(t
0
)
=
p(0)
p

(0)
= , t
1
= .
Sustituyendo n = 0 en (2.21) y aplicando iii)
[x
1
x
0
[ = t
1
t
0
.
En consecuencia x
1
I ya que [x
1
x
0
[ < t
1
< t

.
Supongamos que x
0
, x
1
, . . . , x
m
I y adems que [x
i+1
x
i
[ t
i+1
t
i
para i =
0, 1, . . . , m1, demostraremos que [x
m+1
x
m
[ t
m+1
t
m
.
En efecto, como
[x
m
x
0
[ [x
m
x
m1
[ +[x
m1
x
m2
[ + +[x
1
x
0
[.
(t
m
t
m1
) + (t
m1
t
m2
) + + (t
1
t
0
).
= t
m
t
0
= t
m
< t

,
2.2. EL MTODO DE NEWTON 31
se tiene que x
m
I.
Por otra parte, notemos que
1 [x
m
x
0
[ 1 t
m

1
1 [x
m
x
0
[

1
1 t
m
.
Adems
[x
m+1
x
m
[ =

f(x
m
)
f

(x
m
)

f(x
m
)
f

(x
0
)

(x
0
)
f

(x
m
)

. (2.24)
Aplicando la condicin iv) se sigue

(x
m
) f

(x
0
)
f

(x
0
)

[x
m
x
0
[

1
f

(x
m
)
f

(x
0
)

[x
m
x
0
[ (t
n
t
0
) < t

< 1.
Luego
[x
m
x
0
[ 1
f

(x
m
)
f

(x
0
)
[x
m
x
0
[.
Entonces
[x
m
x
0
[ 1
f

(x
m
)
f

(x
0
)
[x
m
x
0
[ 1.
Luego
1 < 1
f

(x
m
)
f

(x
0
)

f

(x
m
)
f

(x
0
)
< 0.
As

(x
m
)
f

(x
0
)

=
f

(x
m
)
f

(x
0
)
1 [x
m
x
0
[.
De donde

(x
0
)
f

(x
m
)

1
1 [x
m
x
0
[
. (2.25)
Ahora bien, de (2.5) se deduce
f(x
m
) = f(x
m
) f(x
m1
) f

(x
m1
)(x
m
x
m1
).
Luego

f(x
m
)
f

(x
0
)

f(x
m
) f(x
m1
) f

(x
m1
)(x
m
x
m1
)
f

(x
0
)

_
xm
x
m1
_
f

(t) f

(x
m1
)
f

(x
0
)
_
dt

.
Haciendo el cambio de variable t = x
m1
+ s(x
m
x
m1
) se sigue

f(x
m
)
f

(x
0
)

_
1
0

(x
m1
+ s(x
m
x
m1
)) f

(x
m1
)
f

(x
0
)

[(x
m
x
m1
)[ds. (2.26)
Aplicando la condicin iv) a (2.26) se sigue

f(x
m
)
f

(x
0
)

_
1
0
s[x
m
x
m1
[
2
ds = [x
m
x
m1
[
2
_
1
0
sds
1
2
[x
m
x
m1
[
2
. (2.27)
32 CAPTULO 2. MTODOS ITERATIVOS
Sustituyendo (2.25) y (2.27) en (2.24) se sigue
[x
m+1
x
m
[
1
2
(t
m
t
m1
)
2
1 t
m
. (2.28)
Por otra parte
t
m+1
t
m
=
p(t
m
)
p

(t
m
)
. (2.29)
De (2.22) se obtiene
p

(t) = t 1. (2.30)
p

(t) = . (2.31)
p
(i)
(t) = 0, i 3.
Aplicando el desarrollo de Taylor a (2.22) se sigue
p(t
m
) = p(t
m1
) +p

(t
m1
)(t
m
t
m1
) +
1
2
p

(t
m1
)(t
m
t
m1
)
2
+ 0. (2.32)
Pero
t
m
t
m1
=
p(t
m1
)
p

(t
m1
)
. (2.33)
Luego, sustituyendo (2.31) y (2.33) en (2.32) se sigue
p(t
m
) =
1
2
(t
m
t
m1
)
2
. (2.34)
Sustituyendo (2.34) y (2.30) en (2.29)
t
m+1
t
m
=
1
2
(t
m
t
m1
)
2
1 t
m
. (2.35)
Finalmente, sustituyendo (2.35) en (2.28)
[x
m+1
x
m
[ t
m+1
t
m
.
El proceso inductivo queda probado. Como t
n

n=0
es convergente, se sigue que x
n

n=0
tambin es convergente.
De (2.27) se deduce que cuando m , entonces f(x
m
) 0. Por tanto x
m
converge
a x

, la solucin de f(x

) = 0.
A nales de los aos 80, surgi una nueva teora sobre la convergencia semilocal de procesos
iterativos. Esta teora, conocida como - teora fue introducida por M. Kim y S. Smale [55].
Kim la introdujo en su tesis doctoral titulada Computational Complexity of the Euler Type
Algorithms for the Roots of Polynomials, publicada en febrero del 1986 y en un artculo
publicado en 1988 bajo el ttulo On approximate zeroes and root nding algorithms for a
2.2. EL MTODO DE NEWTON 33
Figura 2.6: Stephen Smale (1930) y Mike Shub (1943).
complex polynomial. En ambos trabajos Kim aplic la -teora a ecuaciones polinmicas
de una variable. Por su parte, Smale en un libro titulado New Directions in Pure, Applied
and Computational Mathematics, publicado en 1986, introdujo la -teora para sistemas de
ecuaciones, los cuales tienen solucin en base a tres invariantes de la forma
(F, x) = [[DF(x)
1
F(x)[[.
(F, x) = sup [[DF(x)
1
D
k
F(x)
k!
[[
1
(k1)
, k 2,
(F, x) = (F, x)(F, x).
donde F es un un operador denido entre dos espacios de Banach. Para mayores detalles de
este teorema en espacios de Banach, vase a [115] [116] y [170].
Teorema 2.7 (-teora de Smale). Sea f : D R R una funcin continua y diferen-
ciable en un intervalo D en el que se cumplen las siguientes condiciones:
i)

f(x
0
)
f

(x
0
)

. f

(x
0
) ,= 0.
ii)
1
k!

f
(k)
(x
0
)
f

(x
0
)


k1
, para k 2.
iii) = 3 2

2.
Entonces el mtodo de Newton-Raphson denido por (2.5) converge a x

solucin de
f(x) = 0.
Demostracin. Dado x
n
, se demostrar que [x
n+1
x
n
[ t
n+1
t
n
, donde t
n
es una
sucesin real obtenida al aplicar el mtodo de Newton-Raphson a la funcin mayorante (t).
Consideremos la funcin
(t) = t +

k2

k1
t
k
= t +
t
2
1 t
, para 0 t <
1

, (2.36)
34 CAPTULO 2. MTODOS ITERATIVOS
Figura 2.7: Grca de la funcin mayorizante (t) = t +
t
2
1t
cuya grca es
Notemos que para (t) = 0 se debe cumplir
2t
2
t( + 1) + = 0,
de donde
t

, t

=
( + 1)
_
( + 1)
2
8
4
. (2.37)
Luego, para que (2.37) tenga raz en R se debe cumplir
( + 1)
2
8 0, de donde
2
6 + 1 0, por tanto 3 2

2.
Como vemos, este resultado se deduce directamente de la condicin iii).
Ahora, sea t
n
la sucesin obtenida al aplicar el mtodo de Newton-Raphson a (3.1), es
decir:
_

_
t
n+1
= t
n

(t
n
)

(t
n
)
=
(1 t
n
)
2
t
n
(1 t
n
)
2
+ t
2
n
(1 t
n
)
1 + 2t
n
(2 t
n
)
.
t
0
= 0.
(2.38)
Observemos que para n = 0, de (2.38) se obtiene
t
1
t
0
= ,

(t
0
)

(t
0
)

,
(t
0
)

(t
0
)
= ,

(0)

(0)
= .
Asimismo, si sustituimos n = 0 en (2.5) y aplicamos i) se sigue
[x
1
x
0
[

f(x
0
)
f

(x
0
)

= t
1
t
0
. (2.39)

f(x
0
)
f

(x
0
)

=
(t
0
)

(t
0
)
. (2.40)
2.2. EL MTODO DE NEWTON 35
Por otra parte, notemos que

(t) = 1 +

k2
k
k1
t
k1

(t
0
) =

(0) = 1. (2.41)
Adems

(t) =

k2
k(k 1)
k1
t
k2
.

(t) =

k3
k(k 1)(k 2)
k1
t
k3
.
.
.
.

(j)
(t) =

kj
k(k 1) . . . (k j + 1)
k1
t
kj
.
Entonces

(j)
(t
0
) =
(j)
(0) = k!
k1
. (2.42)
Luego, de (2.42) y (2.41) se obtiene

k1
=

(j)
(t
0
)
k!
=
1
k!

(j)
(t
0
)

(t
0
)
. (2.43)
Aplicando ii) en (2.43) se sigue
1
k!

f
(k)
(x
0
)
f

(x
0
)


k1
=
1
k!

(k)
(t
0
)

(t
0
)
. (2.44)
Probaremos que las desigualdades (2.39), (2.40) y (2.44) se cumplen siempre. En otras
palabras, demostraremos que si (2.39), (2.40) y (2.44), se cumplen, entonces

f(x
j
)
f

(x
j
)


(t
j
)

(t
j
)
, para j = 0, 1, 2, . . . . (2.45)
1
k!

f
(k)
(x
j
)
f

(x
j
)


1
k!

(k)
(t
j
)

(t
j
)
, para k 2 y j = 0, 1, 2, . . . .
[x
j+2
x
j+1
[ t
j+2
t
j+1
.
La demostracin ser por induccin.
Para j = 0; (2.39), (2.40) y (2.44) son ciertas por hiptesis. Comprobaremos que si son
ciertas para j, tambin lo sern para j + 1.
Aplicando el desarrollo de Taylor a f(x
j+1
) se sigue
f(x
j+1
) = f(x
j
) +f

(x
j
)(x
j+1
x
j
) +

k2
1
k!
f
(k)
(x
j
)(x
j+1
x
j
)
k
. (2.46)
Pero
(x
j+1
x
j
) =
f(x
j
)
f

(x
j
)
. (2.47)
36 CAPTULO 2. MTODOS ITERATIVOS
Sustituyendo (2.47) en (2.46) se sigue
f(x
j+1
) = f(x
j
) f

(x
j
)
f(x
j
)
f

(x
j
)
+

k2
1
k!
f
(k)
(x
j
)(x
j+1
x
j
)
k
.
As
f(x
j+1
) =

k2
1
k!
f
(k)
(x
j
)(x
j+1
x
j
)
k
.
Luego

f(x
j+1
)
f

(x
j
)

k2
1
k!

f
(k)
(x
j
)
f

(x
j
)

f(x
j
)
f

(x
j
)

k2
_

1
k!

(k)
(t
j
)

(t
j
)
__

(t
j
)

(t
j
)
_
k
. (2.48)
Si ahora aplicamos el desarrollo de Taylor a (t
j+1
) se sigue
(t
j+1
) = (t
j
) +

(t
j
)(t
j+1
t
j
) +

k2
1
k!

(k)
(t
j
)(t
j+1
t
j
)
k
. (2.49)
Pero
(t
j+1
t
j
) =
(t
j
)

(t
j
)
. (2.50)
Sustituyendo (2.50) en (2.49) sigue
(t
j+1
) = (t
j
)

(t
j
)
(t
j
)

(t
j
)
+

k2
1
k!

(k)
(t
j
)(t
j+1
t
j
)
k
.
As
(t
j+1
) =

k2
1
k!

(k)
(t
j
)(t
j+1
t
j
)
k
.
Luego

(t
j+1
)

(t
j
)
=

k2

1
k!

(k)
(t
j
)

(t
j
)
(t
j+1
t
j
)
k
=

k2
_

1
k!

(k)
(t
j
)

(t
j
)
__

(t
j
)

(t
j
)
_
k
.
Entonces, (2.48) se transforma en

f(x
j+1
)
f

(x
j
)


(t
j+1
)

(t
j
)
. (2.51)
Por otra parte, aplicando el desarrollo de Taylor a la derivada de (2.46) se sigue
f

(x
j+1
) =

k0
1
k!
f
(k+1)
(x
j
)(x
j+1
x
j
)
k
.
Luego

1
f

(x
j+1
)
f

(x
j
)

k1
1
k

f
(k+1)
(x
j
)
f

(x
j
)

[x
j+1
x
j
[
k

k1
(k + 1)

(k+1)
(t
j
)

(t
j
)
_
(t
j
)

(t
j
)
_
k
. (2.52)
2.2. EL MTODO DE NEWTON 37
Por otro lado

(t
j+1
) =

(t
j
) +

k1
(k + 1)
(k+1)
(t
j
)
_
(t
j
)

(t
j
)
_
k
.
De donde

(t
j
)

(t
j+1
) =

k1
(k + 1)
(k+1)
(t
j
)
_
(t
j
)

(t
j
)
_
k
.

(t
j
)

(t
j+1
)

(t
j
)
=

k1
(k + 1)

(k+1)
(t
j
)

(t
j
)
_
(t
j
)

(t
j
)
_
k
.
1

(t
j+1
)

(t
j
)
=

k1
(k + 1)

(k+1)
(t
j
)

(t
j
)
_
(t
j
)

(t
j
)
_
k
. (2.53)
Sustituyendo (2.53) en (2.52) se sigue

1
f

(x
j+1
)
f

(x
j
)

(t
j+1
)

(t
j
)
< 1,
pues es de signo constante en (0, t

).
As

(x
j
)
f

(x
j+1
)

1
1
_
1

(t
j+1
)

(t
j
)
_
=

(t
j
)

(t
j+1
)
. (2.54)
Aplicando el desarrollo de Taylor a f
(k)
(x
j+1
) se sigue
f
(k)
(x
j+1
) =

i0
1
i!
f
(k+1)
(x
j
)(x
j+1
x
j
)
i
.
Luego
1
k!

f
(k)
(x
j+1
)
f

(x
j
)

i0
(k + 1)!
k! i!
1
(k + 1)!

f
(k+1)
(x
j
)
f

(x
j
)

[x
j+1
x
j
[
i

i0
_
k + i
i
_
_
1
(k + 1)!

(k+1)
(t
j
)

(t
j
)
_
(t
j+1
t
j
)
i
=
=
1
k!

i0
1
i!

(k+1)
(t
j
)

(t
j
)
(t
j+1
t
j
)
i
=
1
k!

(k)
(t
j+1
)

(t
j
)
.
Adems
1
k!

(k)
(t
j+1
)

(t
j
)
=
1
k!

10
1
i!

(k+1)
(t
j
)

(t
j
)
(t
j+1
t
j
)
i
.
As que
1
k!

f
(k)
(x
j+1
)
f

(x
j
)


1
k!

(k)
(t
j+1
)

(t
j
)
. (2.55)
Entonces

f(x
j+1
)
f

(x
j+1
)

(x
j
)
f

(x
j+1
)

f(x
j+1
)
f

(x
j
)

. (2.56)
38 CAPTULO 2. MTODOS ITERATIVOS
Sustituyendo (2.54) y (2.51) en (2.56) se sigue

f(x
j+1
)
f

(x
j+1
)

(t
j
)

(t
j+1
)
(t
j+1
)

(t
j
)
=
(t
j+1
)

(t
j+1
)
.
Asimismo
1
k!

f
(k)
(x
j+1
)
f

(x
j+1
)

1
k!

f
(k)
(x
j+1
)
f

(x
j
)

(x
j
)
f

(x
j+1
)

. (2.57)
Sustituyendo (2.54) y (2.55) en (2.57) sigue
1
k!

f
(k)
(x
j+1
)
f

(x
j+1
)


1
k!

(k)
(t
j+1
)

(t
j
)

(t
j
)

(t
j+1
)
=
1
k!

(k)
(t
j+1
)

(t
j+1
)
.
Por ltimo
[x
j+2
x
j+1
[

f(x
j+1
)
f

(x
j+1
)


(t
j+1
)

(t
j+1
)
= t
j+2
t
j+1
.
Luego, hemos probado que
[x
k+1
x
k
[ t
k+1
t
k
.
Adems t
k
es convergente a t

, por tanto t
k
es de Cauchy, lo cual implica que x
k

tambin es de Cauchy y que x


k
converge a x

.
Por otra parte, notemos que de (2.45) se deduce que
lm
j

f(x
j
)
f

(x
j
)

lm
j

(x
j
)

(x
j
)
=
(t

(t

)
= 0.
Entonces f(x

) = 0, luego x

es la solucin de f(x).
Convergencia global del mtodo de Newton
En el Anlisis Numrico principalmente se emplean dos teoremas que permiten conocer
el comportamiento global de los mtodos iterativos de un punto. stos son
1. El teorema del Punto Fijo.
2. El teorema de Fourier.
El teorema del Punto Fijo nos da las condiciones sucientes para la convergencia de un
algoritmo dado por una funcin contractiva a partir de un valor inicial tomado en un intervalo
apropiado. Una demostracin detallada de la convergencia del mtodo de Newton usando este
tipo de tcnicas puede verse en [60]
En esta memoria nos centraremos en una serie de condiciones sucientes para la conver-
gencia del mtodo de Newton, que tienen una clara interpretacin geomtrica y que muchos
autores denominan como condiciones de Fourier. Para un estudio ms detallado, vase a [96],
[132], [142] y [180]
2.2. EL MTODO DE NEWTON 39
Teorema 2.8 (Condiciones de convergencia de Fourier). Sea f(x) : [a, b] R una
funcin f (
2
[a, b] que cumple las siguientes condiciones:
i) f(a)f(b) < 0.
ii) f

(x) ,= 0, x [a, b].


iii) f

(x) no cambia de signo en [a, b].


iv) m ax[
f(a)
f

(a)
[, [
f(b)
f

(b)
[ b a.
Entonces existe una nica raz x

de (2.4) en [a, b] y la sucesin x


n

n=0
, denida por (2.5)
converge hacia x

para cualquier valor inicial x


0
[a, b].
Demostracin. De acuerdo a las condiciones que se establecen en las hiptesis, pueden darse
varias posibilidades. Para jar ideas asumiremos que f

(x) < 0 y que f

(x) 0 en [a, b], con


lo cual se asegura que ii) y iii) se cumplan.
Notemos que en estas condiciones x

es la nica raz de f(x) = 0 en [a, b]. Adems, al ser


f

(x) < 0 y vericar i), se sigue que f(a) > 0 y f(b) < 0, tal y como se muestra en la grca
(2.8).
x
y
a
b
Figura 2.8: Interpretacin geomtrica del teorema de Fourier.
Visto esto, y asumiendo que x
0
[a, x

] demostraremos que:
x
n

n=0
es una sucesin creciente.
El lmite de x
n

n=0
es la raz x

Veamos la primera parte. Si x


0
[a, x

] entonces x
n
< x
n+1
< x

. La demostracin ser
por induccin.
Para n = 0 vericaremos que x
0
< x
1
< x

.
Por (2.5) sabemos que
x
1
= x
0

f(x
0
)
f

(x
0
)
.
40 CAPTULO 2. MTODOS ITERATIVOS
Pero f

(x
0
) < 0 y f(x
0
) > 0, luego
x
1
x
0
=
f(x
0
)
f

(x
0
)
> 0,
por tanto x
0
< x
1
.
Ahora demostraremos que x
1
< x

, para esto comprobaremos que x

x
1
> 0. Aplicando
el teorema del valor medio, se sigue
x

x
1
= N
f
(x

) N
f
(x
0
) = N

f
()(x

x
0
),
donde
N

f
() =
f()f

()
f

()
2
> 0, para (x
0
, x

).
Luego
x

x
1
> 0.
Asumiendo que x
k
< x
k+1
< x

demostraremos que x
k+1
< x
k+2
< x

. Lo haremos
aplicando un procedimiento anlogo al anterior. Primero demostraremos que x
k+1
< x
k+2
.
Nuevamente, por (2.5) se obtiene
x
k+2
= x
k+1

f(x
k+1
)
f

(x
k+1
)
.
Pero ac tambin se cumple que f

(x
k+1
) < 0 y f(x
k+1
) > 0, por tanto
x
k+2
x
k+1
=
f(x
k+1
)
f

(x
k+1
)
> 0,
luego
x
k+1
< x
k+2
.
Para demostrar que x
k+2
< x

comprobaremos que x

x
k+2
> 0. Aplicando de nuevo el
teorema del valor medio, se sigue
x

x
k+2
= N
f
(x

) N
f
(x
k+1
) = N

f
()(x

x
k+1
),
donde
N

f
() = L
f
() =
f()f

()
f

()
2
> 0, para (x
k+1
, x

).
Por lo tanto x

x
k+2
> 0, x
k+2
< x

. As queda demostrado que x


n

n=0
es una sucesin
creciente acotada superiormente por x

y, en consecuencia, x
n
es una sucesin convergente.
Veamos ahora que el lmite de la sucesin x
n

n=0
es la raz x

.
Aplicando lmites a (2.5) se sigue
lm
n
x
n+1
= lm
n
_
x
n

f(x
n
)
f

(x
n
)
_
.
2.2. EL MTODO DE NEWTON 41
Pero
lm
n
x
n+1
= lm
n
x
n
= L.
Adems, como f y f

son funciones continuas en [a, b],


L = L
f(L)
f

(L)
=
f(L)
f

(L)
= 0.
Como f

(L) < 0 se sigue que f(L) = 0 y, por tanto, L = x

.
Quedan por comprobar los casos siguientes
1) f

(x) < 0, f

(x) 0, x [a, b].


2) f

(x) > 0, f

(x) 0, x [a, b].


3) f

(x) > 0, f

(x) 0, x [a, b].


Sin embargo, el caso 3) se reduce al caso estudiado cambiando a f por f. A su vez, el
caso 1) se reduce al 2) de la misma forma. En ese sentido hagamos el siguiente anlisis.
Haciendo un cambio de variable z = x y llamando q a la funcin resultante se sigue
f(x) = f(z) = q(z),
esta funcin est denida en [b, a] y se comprueba que
f

(x) =
dq(z)
dz
dz
dx
= q

(z).
Anlogamente se comprueba que f

(x) = q

(z). Esto signica que la raz x

de (2.4) en
[a, b] se habr transformado en la raz x

de q(z) = 0 en [b, a].


Entonces, el caso 2) se reduce tambin al que hemos estudiado, porque si f

(x) > 0 y
f

(x) 0 en [a, b], q

(z) < 0 y q

(z) 0 en [b, a], luego el teorema ser vlido para q.


Deshaciendo el cambio, tambin ser cierto para el caso 2) y para el caso 1).
De acuerdo a [98], las condiciones de Fourier son insucientes para asegurar la convergen-
cia del mtodo de Newton-Raphson, pues tomando en cuenta la interpretacin geomtrica del
mtodo de Newton-Raphson, nos damos cuenta que su convergencia est asegurada siempre
y cuando la segunda derivada de la funcin f

(x) no cambie de signo en el intervalo [a, b]


en que aparece la solucin x

. Es decir, cuando la funcin tenga un punto de inexin en su


dominio. En ese sentido, [98] realiza un estudio del mtodo de Newton-Raphson en funcin
del grado de convexidad logartmico (2.11). Para mayores detalles de este estudio rerase
nuevamente a [98].
42 CAPTULO 2. MTODOS ITERATIVOS
2.3. El mtodo de Halley
Otro de los mtodos iterativos ms utilizados para resolver ecuaciones no lineales (2.4) es
el mtodo de Halley, cuya expresin viene dada por
x
n+1
= x
n

2f(x
n
)f

(x
n
)
2[f

(x
n
)]
2
f(x
n
)f

(x
n
)
, n = 0, 1, 2, . . . (2.58)
De forma equivalente, podemos expresar este mtodo en trminos del grado de convexidad
logartmico denido en (2.11):
x
x+1
= x
n

_
1
1 1/2L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
n = 0, 1, 2, . . . (2.59)
Siguiendo el esquema de la seccin anterior, analizaremos la evolucin histrica del mtodo
de Halley, las tcnicas para deducirlo y algunos resultados que garantizan su convergencia.
2.3.1. Notas histricas sobre el mtodo de Halley
Edmond Halley, naci el 8 de noviembre de 1656 en Haggerston, localidad ubicada en los
alrededores de Londres, y muri el 14 de enero de 1742 en Greenwich, Inglaterra.
Siguiendo a [160] encontramos que Halley fue impresionado por los trabajos de un inge-
nioso profesor de matemtica llamado Thomas Fautet de Lagny, quien, en un libro publicado
en 1621 en Pars, present algunas frmulas que servan para extraer la raz de potencias
puras, especialmente, la raz cbica.
Figura 2.9: Edmund Halley (1656 1742) y Ernst Schrder, (1841 1902).
El resultado de Lagny que impresion a Halley es que la raz de
3

a
3
+ b con a, b Z est
entre
a +
ab
3a
3
+ b
y
a
2
+

a
2
4
+
b
3a
para a
3
> b > 0.
2.3. EL MTODO DE HALLEY 43
Halley llam a esto la forma racional e irracional respectivamente, preriendo emplear
en sus clculos la forma irracional pues la racional posea un gran divisor que dicultara su
aplicacin.
Leyendo a [67] nos enteramos que Halley inici la demostracin de la frmula de Lagny
buscando un termino corrector de forma que (a + )
3
= a
3
+ b, de donde se obtiene que
b = 3a
2
+3a
2
+
3
. Si despreciamos el trmino
3
obtenemos que b 3a
2
+3a
2
de donde
b
3a
2
+

2
a
y (2.60)

b
3a
2
+ 3a
. (2.61)
Luego, sustituyendo (2.60) en (2.61) se comprueba que

b
3a
2
+ 3a
b
3a
2
=
ab
3a
3
+ b
,
luego, la raz aproximada de la ecuacin de Lagny sera
3

a
3
+ b
ab
3a
3
+ b
. (2.62)
Si hacemos una traduccin de este resultado empleando la notacin actual y llamando
f(x) = x
3
a
3
b con x
0
= a, entonces (2.62) se correspondera con el primer paso del
mtodo de Halley, el cual viene denido por la expresin
x
n+1
= x
n

2
2 L
f
(x
n
)
f(x
n
)
f

(x
n
)
, (2.63)
donde
L
f
(x
n
) =
f(x
n
)f

(x
n
)
f

(x
n
)
2
. (2.64)
De acuerdo con [67], Halley tambin admir los trabajos de F. Vite, cuyo mtodo es un
algoritmo linealmente convergente parecido al mtodo de la Biseccin y que normalmente se
utiliza para obtener los valores iniciales del mtodo de Newton-Raphson y de otros algorit-
mos iterativos de orden superior. Esto, al parecer, signica que el mtodo de Vite fu un
importante precursor del mtodo de Halley y de Newton-Raphson. Pero Halley al escribir
sus notas, aparentemente, no se dio cuenta de esto ni de que su mtodo supona el uso de
derivadas; lo cual es algo lgico que as fuera, pues fue Simpson, en 1740, quien por primera
vez estableciera la coneccin entre las derivadas y el mtodo de Newton-Raphson. Lo verda-
deramente sorprendente es que Taylor, en 1712 reconociera de manera tan fcil las derivadas
en el mtodo de Halley.
A pesar del xito de Taylor, l no pudo dar una frmula general para el mtodo de Halley.
Esto lo consigui Schrder, ms de un siglo despus, al derivar la funcin de iteracin del
mtodo de Halley tal y como la conocemos hoy. En su trabajo, [162], Schrder hace referencia
44 CAPTULO 2. MTODOS ITERATIVOS
a la frmula de Halley de manera muy pasajera. Luego Kobal, [119], en un breve trabajo
publicado en 1891, derivo la frmula de Halley, pero desafortunadamente la demostracin
es poco clara y confusa. Despus Frame, [74], logr, por primera vez, derivar la funcin de
iteracin empleando el polinomio de Taylor de segundo grado.
2.3.2. Descripcin del mtodo de Halley
Al igual que otros mtodos para encontrar races, el mtodo de Halley es un algoritmo
numrico que se emplea para resolver una ecuacin no lineal. Existen una gran cantidad de
libros y artculos en los cuales aparece la descripcin analtica del mtodo de Halley, vase
[81], [83], [160], [188], [205],[206] y [207]. En lo que sigue daremos un listado de diversas
formas de obtener el mtodo de Halley, tal y como se hace por ejemplo en [67]. Adems,
aadimos a dicho listado una nueva construccin geomtrica que usa interpolacin mediante
funciones exponenciales.
A partir del desarrollo de Taylor
Leyendo a [67] encontramos que la idea de construir la funcin de iteracin del mtodo
de Halley mediante la aplicacin del teorema de Taylor, es probablemente la forma ms
usada de redescubrir dicho mtodo. Tanto en [160] como en [205] podemos encontrar bonitas
demostraciones, veamos la que presenta [160].
Dado el siguiente polinomio de Taylor de segundo grado
f(x) = f(x
n
) +f

(x
n
)(x x
n
) +
f

(x
n
)
2!
(x x
n
)
2
,
donde x
n
es otra vez una raz aproximada de (2.4). Tal como en el mtodo de Newton-
Raphson, el objetivo aqu es determinar un punto x
n+1
donde la grca de f(x) corta al eje
X, esto es , resolver la ecuacin
0 = f(x
n
) +f

(x
n
)(x
n+1
x
n
) +
f

(x
n
)
2!
(x
n+1
x
n
)
2
, (2.65)
para x
n+1
.
Siguiendo a [74], factorizamos el trmino (x
n+1
x
n
) de (2.65) y obtenemos
0 = f(x
n
) + (x
n+1
x
n
)
_
f

(x
n
) +
1
2
f

(x
n
)(x
n+1
x
n
)
_
,
de donde
x
n+1
x
n
=
f(x
n
)
f

(x
n
) +
1
2
f

(x
n
)(x
n+1
x
n
)
.
Aproximando la diferencia x
n+1
x
n
de la ecuacin anterior por la correccin de Newton
f(xn)
f

(xn)
se obtiene
2.3. EL MTODO DE HALLEY 45
x
n+1
= x
n

2f(x
n
)f

(x
n
)
2f

(x
n
)
2
f(x
n
)f

(x
n
)
= x
n

2
2 L
f
(x
n
)
f(x
n
)
f

(x
n
)
.
La cual representa la funcin de iteracin del mtodo de Halley.
Construccin geomtrica: mtodo de las hiprbolas tangentes
Como vimos anteriormente, el mtodo de Newton-Raphson tiene una fcil interpretacin
geomtrica, a tal punto que ha sido el motivo por el cual es tambin llamado el mtodo de
la tangente.
Leyendo a [160] encontramos que, aparentemente, fue Salehov el primero en sugerir que la
funcin de iteracin del mtodo de Halley se poda obtener a partir de una funcin osculatriz
racional de la forma
y(x) =
x + c
ax + b
. (2.66)
Recordemos que una curva osculatriz de una funcin f en x
n
es aqulla que satisface la
ecuacin
y
(k)
(x
n
) = f
(k)
(x
n
), k = 0, 1, 2. (2.67)
Siguiendo a [160] encontramos la siguiente construccin de la frmula de iteracin del
mtodo de Halley a partir de la interpretacin geomtrica.
Sea la ecuacin
y(x) =
(x x
n
) +c
a(x x
n
) +b
, (2.68)
la cual dene una hiprbola equivalente a (2.66).
Combinando a (2.67) y (2.68) obtenemos el siguiente sistema de ecuaciones
c
b
= f(x
n
)
b ac
b
2
= f

(x
n
)
2a(ac b)
b
3
= f

(x
n
).
Cuya solucin es
a =
f

(x
n
)
2f

(x
n
)
2
f(x
n
)f

(x
n
)
, (2.69)
b =
2f

(x
n
)
2f

(x
n
)
2
f(x
n
)f

(x
n
)
,
c =
2f(x
n
)f

(x
n
)
2f

(x
n
)
2
f(x
n
)f

(x
n
)
. (2.70)
46 CAPTULO 2. MTODOS ITERATIVOS
De (2.68) sigue que si tomamos como nueva aproximacin su interseccin con el eje y, es
decir si y(x
n+1
) = 0, entonces se tiene que
x
n+1
= x
n
c. (2.71)
Sustituyendo (2.70) en (2.71) se obtiene (2.59).
Otra interpretacin geomtrica: interpolacin exponencial
En lo que sigue daremos una nueva descripcin de obtener el mtodo de Halley, basada en
una interpolacin mediante funciones exponenciales y polinomiales. Esta tcnica est basada
en un desarrollo dado por Kanwar et al. en [23] y [112].
Teniendo en cuenta la aproximacin de una funcin f(x) por una funcin osculatriz y(x)
de forma que y
j
(x
x
) = f
j
(x
n
), para j = 0, 1, 2 vista en [5], consideraremos ahora una curva
de la forma
y(x) = e
a(xxn)
[b(x x
n
) +c], (2.72)
donde a, b y c son tres parmetros a determinar.
Por otro lado, si denotamos por x
n+1
a la interseccin de la curva (2.72) con el eje de las
abscisas, tenemos que y(x
n+1
) = 0, por tanto
x
n+1
= x
n

c
b
.
Podemos obtener as diversos procesos iterativos que nos permitir n resolver la ecuacin
no lineal f(x) = 0. Notemos que si buscamos que el mtodo deseado tenga convergencia
cuadrtica, se debe cumplir que
y(x
n
) = f(x
n
), y

(x
n
) = f

(x
n
),
lo que nos conduce a las igualdades c = f(x
n
), b = f

(x
n
) a.
En consecuencia, se obtiene la familia uniparamtrica
x
n+1
= x
n

f(x
n
)
f

(x
n
) af(x
n
)
, a R. (2.73)
Para un estudio ms profundo de (2.73,) rerase a [112].
Si ahora deseamos que el mtodo dado en (2.73) tengan convergencia cbica, debemos
exigir que
y

(x
n
) = f

(x
n
),
o lo que es lo mismo
a
2
f(x
n
) 2af

(x
n
) +f

(x
n
) = 0. (2.74)
2.3. EL MTODO DE HALLEY 47
Para valores de a ,= 0, muy prximos a cero, tenemos que el t rmino a
2
dado en (2.74)
puede ser despreciado respecto al resto. Por tanto, podemos obtener la solucin aprximada
a =
f

(x
n
)
2f

(x
n
)
. (2.75)
Sustituyendo (2.75) en (2.73)obtenemos el mtodo de Halley:
x
n+1
= x
n

2
2 L
f
(x
n
)
f(x
v
)
f

(x
n
)
.
Notemos que aunque en teora esta construccin es vlida slo para valores del parmetro a
dado por (2.69) muy prximos a 0, se tiene que el proceso obtenido tiene convergencia cbica
para funciones f(x) en general, con la nica restriccin de que se aproximen races simples.
Construccin a partir de la interpolacin racional inversa
Para la obtencin del mtodo de Halley a partir de la interpolacin racional inversa se
considera resolver una ecuacin f(x) = 0, considerando que a cada x se le hace corresponder
la funcin y = f(x), denotando a x = (y) como la funcin su inversa. Luego, la solucin
aproximada de f(x) = 0 se obtiene encontrando la aproximacin de x = (y). Para tal
accin aproximaremos a x = (y) aplicando el desarrollo de Taylor. Es importante destacar
que esta idea se atribuye al matemtico Chebyshev. Para una visin ms profunda de esta
construccin, rerase a [67].
Asumamos que la aproximacin de (y) viene dada por una funcin racional de la forma
(y)
(y y
0
) +a
b(y y
0
) +c
= R(y),
adems que
(k)
(y
0
) = R
(k)
(y
0
), para k = 0, 1, 2, luego
R(y) =
(2f

(x
0
) +x
0
f

(x
0
))(y y
0
) + 2x
0
f

(x
0
)
2
f

(x
0
)(y y
0
) + 2f

(x
0
)
2
.
Tomando a x
1
= R(0) como una nueva aproximacin, sigue
x
1
=
f(x
0
)(2f

(x
0
) +x
0
f

(x
0
)) + 2x
0
f

(x
0
)
2
f(x
0
)f

(x
0
) + 2f

(x
0
)
2
,
de donde, despus de operar adecuadamente se obtiene el mtodo de Halley:
x
1
= x
0

2
2 L
f
(x
0
)
f(x
0
)
f

(x
0
)
.
48 CAPTULO 2. MTODOS ITERATIVOS
Construccin utilizando fracciones continuas
La idea de obtener el mtodo de Halley a partir de fracciones continuas fue aportada por
Frame, la misma aparece en [74]. La idea de Frame descansa en la obtencin del trmino
corrector y su posterior desarrollo en serie de potencias.
Dado que este procedimiento de construccin es una variante de la interpolacin inversa,
mantendremos la misma notacin, tanto de x = (y) como para y = f(x).
Dado el trmino corrector en la forma
= r x
0
= (0) (y
0
) =

k1
c
k

k
=
f

(x
0
)
2f

(x
0
)

2
+
3f

(x
0
) f

(x
0
)f

(x
0
)
6f

(x
0
)

3
+ . . . ,
donde r representa la solucin de f(x) = 0, = f(x
0
)/f

(x
0
) y c
1
= 1, c
2
= f

(x
0
)/2f

(x
0
),
etc.
Desarrollando en fracciones continuas el desarrollo en serie de potencias del trmino co-
rrector anterior, se obtiene
=

k1
c
k

k
= b
0
+
a
1
b
1
+
a
2
b
2
+
a
3
b
3
+...
a
j
b
j
+
j
+1
, (2.76)
donde

j
=
a
j
b
j
+
j+1
.
Dependiendo del lugar en que se trunque a (2.76), se obtendrn diversos procesos itera-
tivos. Para nuestro caso, debemos truncarla en el segundo trmino y calcular a a
2
. Notemos
que a
2
es el primer trmino del desarrollo en serie de potencias de
2
. Como

2
=
a
1

1
= c
2
+ (c
2
2
c
3
)
3
+ . . .
Luego a
2
= c
2
= L
f
(x
0
)/2. Por tanto

a
1
1 +a
2
=
2
2 L
f
(x
0
)
f(x
0
)
f

(x
0
)
,
obtenindose as el trmino corrector del mtodo de Halley.
Construccin acelerando el mtodo de Newton
En el proceso de solucin de una ecuacin f(x) = 0, existen casos en los que es preferible
resolver una ecuacin modicada de la forma f(x)g(x) = 0, donde g(x) es una funcin
convenientemente elegida, pues deber cumplir que no se anule en un entorno de la raz
buscada, esto es, si r es tal que f(r) = 0, entonces g(x) ,= 0 en un entorno de r.
2.3. EL MTODO DE HALLEY 49
Para nuestro caso, si aproximamos la solucin de una ecuacin aplicando el mtodo de
Newton, lo preferible es que la funcin sea una recta, pues en este caso la solucin exacta se
obtendr en la primera iteracin. A pesar de que en la prctica no tiene sentido utilizar el
mtodo de Newton para resolver una ecuacin lineal, la idea de utilizar a g(x) para linializar
lo ms posible la ecuacin f(x)g(x) = 0 fue sugerida por [26], el cual comprob que un
aumento de la linealidad de la ecuacin en un entorno de r, tiene incidencia en la velocidad
de convergencia del mtodo de Newton. Retomando esta idea, Gerlach [81] demuestra que
cuando se aplica el mtodo de Newton a una ecuacin (x) = 0, donde la solucin r cumple
que

(r) ,= 0,

(r) = 0 y

(r) ,= 0, entonces el mtodo de Newton alcanza la convergencia


de orden 3. Bajo las condiciones impuestas por Gerlach, que forma tiene el mtodo de
Newton ?
Si (x) = f(x)g(x), buscamos a g(x) de manera que

(r) = 0. As
f

(r)g(r) + 2f

(r)g

(r) = 0.
Ecuacin diferencial que al ser resuelta, salvo constantes multiplicativas, se obtiene que
g(x) =
1
_
f

(x)
.
Luego, la idea de Brown y Gerlach consiste en aplicar el mtodo de Newton a la funcin
(x) =
f(x)

(x)
. De donde se obtiene
x
n+1
= x
n

(x)

(x)
= x
n

2
2 L
f
(x
n
)
f(x
n
)
f

(x
n
)
.
Luego, bajo las condiciones de aceleracin impuestas por Browm y Gerlach, el mtodo de
Newton se convierte en (2.59).
Construccin a partir de iteraciones de Laguerre
La construccin de la iteracin de Laguerre considera la derivacin logartmica de un
polinomio p(x) de grado n, con races reales x
1
x
2
x
n
de la forma:
p(x) =
n

i=1
(x x
i
).
Despus de varias clculos Laguerre obtuvo la ecuacin
nu
2
2Au (n 1)B + A
2
= 0, (2.77)
en donde
A = p

(x)/p(x) = (log p(x))

=
n

i=1
1
(x x
i
)
=
n

i=1
a
i
50 CAPTULO 2. MTODOS ITERATIVOS
y
B = dA/dx =
d(p

(x)/p(x))
dx
=
p

(x)
2
p(x)p

(x)
p(x)
2
=
n

i=1
1
(x x
i
)
2
=
n

i=1
a
2
i
.
En [67] y [142] encontramos una demostracin detallada de dicho mtodo.
Cuatro aos despus de la publicacin de [142], Hansen y Patrick [95] extendieron la
iteracin de Laguerre a funciones cualesquiera. Su idea consisti en sustituir el grado del
polinomio por un parmetro en (2.77) manteniendo la notacin
A =
f

(x)
f(x)
, B = A

=
f

(x)
2
f(x)f

(x)
f(x)
2
.
La iteracin que aparece en el trabajo de [95] es
x
+
= x

1
_
(1 )(1 + L
f
(x))
f(x)
f

(x)
. (2.78)
Al racionalizar a (2.78) nos queda
x
+
= x
1
_
(1 )(1 + L
f
(x))
2 (1 )L
f
(x)
f(x)
f

(x)
,
luego, haciendo = 0 y eligiendo el signo + en el numerador, se llega a (2.59).
2.3.3. Convergencia del mtodo de Halley
Presentamos a continuacin una seleccin de resultados de convergencia para el mtodo
de Halley. Ajustndonos al mismo esquema seguido para el mtodo de Newton en la seccin
anterior, los clasicamos en tres tipos: local, semilocal y global.
Convergencia local del mtodo de Halley
Siguiendo en la lnea de resultados locales obtenidos para el mtodo de Newton, presen-
tamos a continuacin un teorema de convergencia local para el mtodo de Halley. Podemos
encontrar resultados similares en los trabajos [160] y [205].
Teorema 2.9. Sea f : I R una funcin de variable real denida en un entorno I de x

, una
raz simple de f(x) = 0, (f(x

) = 0 y f

(x

) ,= 0). Supongamos que f es tres veces derivable


con continuidad en I. Entonces el mtodo de Halley (2.59) denido por x
n+1
= H
f
(x
n
),
H
f
(x) = x
2
2 L
f
(x)
f(x)
f

(x)
,
tiene al menos convergencia cbica localmente. Adems, se cumple la siguiente ecuacin del
error:
e
n+1
= (A
2
2
A
3
)e
3
n
+ O
4
.
donde A
i
, e
n
y O
N
se han introducido en (2.12), (2.13) y (2.14) respectivamente.
2.3. EL MTODO DE HALLEY 51
Demostracin. (Usando el Teorema de Schrder) El clculo de las derivadas de H
f
nos per-
mite deducir que
H
f
(x

) = x

, H

f
(x

) = H

f
(x

) = 0, H

f
(x

) =
3f

(x

)
2
2f

(x

)f

(x

)
2f

(x

)
2
,= 0.
Por lo tanto,
e
n+1
= x
n+1
x

= H
f
(x
n
) x

=
H

f
(x

)
3!
(x
n
x

)
3
+ O
4
,
de donde se deduce que
lm
n
e
n
+ 1
e
3
n
=
H

f
(x

)
3!
= A
2
2
A
3
.
Por lo tanto, el mtodo de Halley es un mtodo con orden de convergencia local igual a 3 y
contante de error asinttico A
2
2
A
3
.
Demostracin. (Usando desarrollos de Taylor)
En esta ocasin aplicamos el teorema de Taylor, pero seguimos unos pasos diferentes a
los dados en el Teorema 2.2 sobre la convergencia del mtodo de Newton. Se obtiene en este
caso:
0 = f(x

) = f(x
n
) +f

(x
n
)(x

x
n
) +
f

(x
n
)
2!
(x

x
n
)
2
+
f

()
3!
(x

x
n
)
3
, (2.79)
y tambin
0 = f(x

) = f(x
n
) +f

(x
n
)(x

x
n
) +
f

()
2!
(x

x
n
)
2
, (2.80)
donde y son nmeros que estn entre x

y x
n
.
Si ahora multiplicamos a (2.79) por 2f

(x
n
) y le restamos a (2.80) multiplicada por
f

(x
n
)(x

x
n
), se obtiene
0 = 2f(x
n
)f

(x
n
) + 2[f

(x
n
)]
2
(x

x
n
) +f

(x
n
)f

(x
n
)(x

x
n
)
2
+
f

(x
n
)f

()
3
(x

x
n
)
3
f(x
n
)f

(x
n
)(x

x
n
) f

(x
n
)f

(x
n
)(x

x
n
)
2

(x
n
)f

()
2
(x

x
n
)
3
. (2.81)
Luego, si cancelamos los trminos iguales con signos opuestos y reorganizamos adecuada-
mente, nos queda
0 = 2f(x
n
)f

(x
n
) + (2[f

(x
n
)]
2
f(x
n
)f

(x
n
))(x

x
n
) + (2.82)
+
_
f

(x
n
)f

()
3

f

(x
n
)f

()
2
_
(x

x
n
)
3
.
52 CAPTULO 2. MTODOS ITERATIVOS
Luego, si en (2.82) despejamos a (x

x
n
) y dividimos por 2[f(x
n
)]
2
f(x
n
)f

(x
n
),
obtenemos
x

x
n
=
2f(x
n
)f

(x
n
)
2[f

(x
n
)]
2
f(x
n
)f

(x
n
)

2f

(x
n
)f

() 3f

(x
n
)f

()
6(2[f

(x
n
)]
2
f(x
n
)f

(x
n
))
(x

x
n
)
3
.
As
x

x
n+1
=
2f

(x
n
)f

() 3f

(x
n
)f

()
12[f

(x
n
)]
2
6f(x
n
)f

(x
n
))
(x

x
n
)
3
.
Por lo tanto,
lm
n
e
n+1
e
3
n
=
2f

(x

)f

(x

) 3f

(x

)
2
12[f

(x

)]
2
=
_
f

(x

)
2f

(x

)
_
2

(x

)
6f

(x

)
= A
2
2
A
3
.
Convergencia semilocal del mtodo de Halley
Para demostrar la convergencia semilocal de un mtodo, normalmente se aplican los cri-
terios establecidos por Kantorovich, [110] o los de la alpha-teora de Smale, [170], las cuales
han sido presentadas en la demostracin de la convergencia semilocal del mtodo de Newton.
En lo que respecta al mtodo de Halley, existe varios autores, [40], [159], [199], que asu-
miendo condiciones tipo Kantorovich, han escrito sobre la convergencia semilocal, en espacios
de Banach, de dicho mtodo. A modo de ilustracin, presentamos algunos de estos teoremas,
pero en R.
Teorema 2.10 (Teorema de Salehov-Mertvetsova). Sea f : I R R una funcin 2 veces
diferenciable e I un intervalo abierto en R. Supongamos que para x
0
I, se cumple que
[f

(x)[ M
1
y [f

(x)[ N
1
. Adems que se satisfacen las siguientes condiciones:

1
f

(x
0
)

B
0
, [x
1
x
0
[

0
.
h

0
= M
1
B
0

0

1
2
.
S = [x
0
, 2

0
] I.
G
0
=
_
N
1
M
2
1
B
0
(2 +h

0
) + 3
_
(1 +h

0
) 9.
Entonces, en S existe una solucin x

de f(x) = 0 y el mtodo de Halley converge a x

.
Adems se cumple que
[x

x
n
[ (2h

0
)
3
n
1

0
2
n1
, n = 1, 2, . . .
2.3. EL MTODO DE HALLEY 53
Teorema 2.11 (Teorema de Zheng). Sea f : I R R una funcin 2 veces diferenciable
e I un intervalo abierto en R. Supongamos que para x
0
I, se cumple que [f

(x)[ M
1
y
[f

(x)[ N
1
. Adems que se satisfacen las siguientes condiciones:

1
f

(x
0
)

B
0
,

f(x
0
)
f

(x
0
)

0
.
h
0
= KB
0

0

1
2
, donde K =

_
M
2
1
+
2N
1
3B
0
(1
1
2
M
1
B
0

0
)
.
S =
_
x
0
, (1 +
0
)
0
_
I, donde
0
=
1

1 2h
0
1 +

1 + 2h
0
(2.83)
Entonces, se cumple que
(i) x
n
S, n = 0, 1, . . .
(ii) lm
n
x
n
= x


_
x
0
, (1 +
0
)
0
_
, f(x

) = 0.
(iii) [x

x
n
[ (1 +
0
)
0

3
n
1
0
_

3
n
1
i=0

i
0
n = 1, 2, . . .
En 1995, S. Zhen y D. Robbie, [200], aplicando condiciones tipo Kantorovich, publicaron
un interesante teorema de convergencia local para el mtodo de Halley en espacios de Banach.
Parte del mismo se presenta en esta tesis, pero adaptado al espacio R, en donde las funciones
son reales de variable real.
Teorema 2.12 (Teorema de Zhen-Robbie). Sea f : I R, en donde I es un intervalo abierto
en R, una funcin dos veces diferenciable en I. Asumamos, sin prdida de generalidad que
f(x
0
) ,= 0, f

(x
0
) ,= 0 y que x
0
I. Adems

(x) f

(y)
f

(x
0
)

N[x y[, x, y I. (2.84)

f(x
0
)
f

(x
0
)

(x
0
)
f

(x
0
)

M. (2.85)
9N
2

2
+ 18NM + 6M
3
3M
2
+ 8N. (2.86)
Sea
S = x : [x x
0
[ t

1
I,
donde t

1
es la raz positiva ms pequea de la funcin real
(t) =
N
6
t
3
+
M
2
t
2
t + , (2.87)
entonces la sucesin x
n

n=0
generada por la funcin de iteracin del mtodo de Halley est
bien denida y converge a x

I, donde f(x

) = 0.
54 CAPTULO 2. MTODOS ITERATIVOS
Previo a la demostracin del Teorema 2.12, Zhen y Robbie demuestran los siguientes
lemas.
Lema 2.13. Bajo la condicin dada en (2.85), la funcin (t) denida por (2.87) posee tres
races reales.
Demostracin. Derivando a (2.87) se obtiene

(t) =
N
2
t
2
+ Mt 1, (2.88)
resolviendo (2.88) se obtienen las races reales
t
+
=
M +

M
2
+ 2N
N
0. (2.89)
t

=
M

M
2
+ 2N
N
0. (2.90)
t

t
N
M

t
t t
Figura 2.10: A la izquierda, grca de (t) =
N
6
t
3
+
M
2
t
2
t + . A la derecha, grca de

(t) =
N
2
t
2
+ Mt 1.
Si

(t
+
) = 0, entonces t
2
+
=
2(1Mt
+
)
N
. Adems
(t) =
t
3
[
N
2
t
2
+
3
2
Mt 3] +.
=
t
3
[

(t) +
M
2
t 2] +,
luego
(t
+
) =
M
6
t
2
+

2
3
t
+
+ =
M
3N
(1 Mt
+
)
2
3
t
+
+ .
=
M
3N

2N + M
2
3N
t
+
+ .
=
1
3N
2
[3NM + M
3
+ 3N
2
(2N + M
2
)
3/2
]. (2.91)
Tomando en cuenta las condiciones impuestas en (2.85), se comprueba que
(3NM + M
3
+ 3N
2
)
2
(2N + M
2
)
3
,
luego (t
+
) 0. Adems, es evidente que () = , () = y (0) > 0
2.3. EL MTODO DE HALLEY 55
Siguiendo a Davies y Dawson, [54], podemos enunciar el siguiente resultado. La demos-
tracin que mostramos a continuacin utiliza notaciones y tcnicas que pueden verse en el
libro de Hernndez y Salanova [102].
Lema 2.14. Bajo la condicin dada en (2.85), la sucesin t
n
, obtenida al aplicar la funcin
de iteracin del mtodo de Halley a (2.87), denida por
_

_
t
0
= 0,
t
n+1
= t
n

_
2
2 L

(t
n
)
_
(t
n
)

(t
n
,
es montonamente creciente y converge a la raz t

1
de (2.87).
Demostracin. De la geometra de la funcin (t) (vase la grca 2.10) y del Lema de
Altman 2.28 se deduce que t
n+1
> t
n
, ya que (t) > 0,

(t) < 0 y L

(t) < 1/2. Por otra


parte, la sucesin t
n
est acotada superiormente por t

1
. En efecto, es evidente que t

1
t
0
> 0
y, por induccin,
t

1
t
n+1
= H

(t

1
) H

(t
n
) = H

(
n
)(t

1
t
n
),
donde H

(t) es la funcin de iteracin del mtodo de Halley aplicado al polinomio (t) y


n
es un punto comprendido entre t
n
y t

1
.
Como muestran Hernndez y Salanova [102], la derivada de H

(t) es
H

(t) =
L

(t)
2
(2 L

(t))
2
(3 2L

(t)) .
En nuestro caso (vase la grca de

(t) en la Figura 2.10) tenemos que

(t) < 0 para todo


t (0, t

1
) y

(t) = M > 0, por lo tanto


L

(t) =

(t)

(t)

(t)
2
< 0.
En consecuencia, H

(
n
) > 0 y t

1
t
n+1
> 0.
Lema 2.15. Bajo las condiciones del Teorema 2.12, si [xx
0
[ < t
+
, donde t
+
> 0 es la raz
positiva de

(t), entonces 1/f

(x) existe y

(x
0
)
f

(x)

([x x
0
[)
(2.92)

(x)
f

(x
0
)

([x x
0
[). (2.93)
Demostracin. Del Lema 2.13, vemos que cuando [x x
0
[ < t
+
, entonces

([x x
0
[) =
N
2
[x x
0
[
2
+ M[x x
0
[ 1 < 0.
56 CAPTULO 2. MTODOS ITERATIVOS
As, bajo las condiciones del Teorema 2.12, tenemos que

(x
0
)(x x
0
)
f

(x
0
)
+
_
1
0
_
f

(x
0
+ t(x x
0
)) f

(x
0
)
_
dt(x x
0
)
f

(x
0
)

M[xx
0
[ +
N
2
[xx
0
[
2
< 1.
Del Teorema del valor medio, obtenemos
f

(x) = f

(x
0
) +
_
1
0
f

(x
0
+ t(x x
0
))dt(x x
0
),
luego
f

(x)
f

(x
0
)
= 1 +
f

(x
0
)(x x
0
)
f

(x
0
)
+
_
1
0
_
f

(x
0
+ t(x x
0
)) f

(x
0
)
_
dt(x x
0
)
f

(x
0
)
.
Por el Lema de Banach podemos armar que la inversa
f

(x)
f

(x
0
)
existe y que

(x
0
)
f

(x)


1
1 M[x x
0
[ N/2[x x
0
[
2
=
1

([x x
0
[)
.
Luego, es evidente que

(x)
f

(x
0
)

(x
0
)
f

(x
0
)

[f

(x
0
) f

(x)]
f

(x
0
)

M + N[x x
0
[ =

([x x
0
[).
Luego el lema est demostrado.
Veamos ahora la demostracin del Teorema 2.12.
Demostracin del teorema de Zhen-Robbie. Probaremos que para todo entero positivo n, se
cumple que x
n
S = x : [x x
0
[ t

1
, 1/f

(x
n
) existe y que

f(x
n
)
f

(x
0
)

(t
n
), (2.94)

(x
0
)
f

(x
n
)

(t
n
)
, (2.95)

(x
n
)
f

(x
0
)

(t
n
), (2.96)
[x
n+1
x
n
[ t
n+1
t
n
. (2.97)
Primero mostraremos que (2.97) es cierto cuando (2.94), (2.95) y (2.96) se cumplen. De
hecho, de (2.94), (2.95) y (2.96) obtenemos

f(x
n
)
f

(x
n
)

(x
0
)
f

(x
n
)

f(x
n
)
f

(x
0
)


(t
n
)

(t
n
)
, (2.98)
y

(x
n
)
f

(x
n
)

(x
0
)
f

(x
n
)

(x
n
)
f

(x
0
)

(t
n
)

(t
n
)
. (2.99)
2.3. EL MTODO DE HALLEY 57
Luego, aplicando la monotonicidad de la sucesin t
n
demostrada en el Lema 2.14, sigue
1
2

(x
n
)
f

(x
n
)
f(x
n
)
f

(x
n
)


1
2
(t
n
)

(t
n
)

(t
n
)
2
< 1.
Por el Lema de Banach, la inversa de
H
n
= 1
1
2
f

(x
n
)
f

(x
n
)
f(x
n
)
f

(x
n
)
= 1
1
2
L
f
(x
n
) (2.100)
existe y
1
H
n
=
1
1
1
2
f

(xn)
f

(xn)
f(xn)
f

(xn)

1
1
1
2
(tn)

(tn)

(tn)
2
.
Es fcil ver que de (2.59) y (2.98) se obtiene (2.97).
En lo que sigue probaremos por induccin las condiciones (2.94), (2.95) y (2.96). Es
evidente que se cumplen para n = 0. Supongamos que (2.94), (2.95) y (2.96) se cumplen para
n k, entonces, de (2.97) se sigue que
[x
k+1
x
0
[ t
k+1
t
0
= t
k+1
< t

1
t
+
,
luego x
k+1
S. Notemos que por el Lema 2.15, existe 1/f

(x
k+1
) y que (2.95) y (2.96) se
cumplen para n = k + 1.
Aplicando a Taylor a (2.59) obtenemos que
0 = f(x
k
) +f

(x
k
)(x
k+1
x
k
)
1
2
f

(x
k
)f(x
k
)(x
k+1
x
k
)
f

(x
k
)
.
= f(x
k
) +f

(x
k
)(x
k+1
x
k
) +
1
2
f

(x
k
)(x
k+1
x
k
)
2

1
4
f

(x
k
)
2
f(x
k
)(x
k+1
x
k
)
2
f

(x
k
)
2
.
Por tanto
f(x
k+1
) = A
k
+ B
k
,
donde
A
k
= f(x
k+1
) f(x
k
) f

(x
k
)(x
k+1
x
k
)
1
2
f

(x
k
)(x
k+1
x
k
)
2
,
=
_
1
0
(1 u)
_
f

(x
k
+ u(x
k+1
x
k
)) f

(x
k
)
_
du(x
k+1
x
k
)
2
.
B
k
=
1
4
f

(x
k
)
2
f(x
k
)(x
k+1
x
k
)
2
f

(x
k
)
2
.
De forma similar se comprueba que
(t
k+1
) =
N
6
(t
k+1
t
k
)
3

1
4

(t
k
)
2
(t
k
)

(t
k
)
3
(t
k+1
t
k
).
Cuando u [0, 1], se cumple
[x
k
+ u(x
k+1
x
k
) x
0
[ t
k
+ u(t
k+1
t
k
) t
k+1
< t

1
t
+
58 CAPTULO 2. MTODOS ITERATIVOS
Del Lema 2.15 obtenemos que

A
k
f

(x
0
)

N
_
1
0
(1 u)udu(t
k+1
t
k
)
3
=
N
6
(t
k+1
t
k
)
3
,

B
k
f

(x
0
)


1
4

(t
k
)
2
(t
k
)

(t
k
)
3
(t
k+1
t
k
).
Por tanto

f(x
k+1
)
f

(x
0
)

(t
k+1
),
luego (2.94) cumple para n = k+1. As (2.94), (2.95) y (2.96) cumplen para todo n = 0, 1, . . . ,
por lo tanto (2.97) tambin se cumple. Por lo tanto
lm
n
x
n
= x

existe. Adems, en (2.94), cuando n , se obtiene que f(x

) = 0.
A modo de ilustracin, presentamos a continuacin un teorema de convergencia local bajo
condiciones tipo Smale en R. La versin original del mismo aparece en [198] enunciado para
espacios de Banach.
Teorema 2.16 (Teorema de Zhen. Condiciones tipo Smale). Supongamos que f : R R es
una funcin analtica. Sea
= (x, f) = , donde x R,
= (x, f) =

f(x)
f

(x)

y
= (x, f) = sup
n2

f
(n)
(x)
n!f

(x)

1
n1
.
Si = (x, f) = 3 2

2, entonces la funcin de iteracin del mtodo de Halley, cuando


x
0
= x, est bien denida, adems existe lm
n
x
n
= x

tal que f(x

) = 0.
Convergencia global del mtodo de Halley
Por considerarlo de inters para esta este acpite, damos la siguiente denicin.
Denicin 2.7 (Funcin signo de una funcin f(x)). Es una funcin de valor real cuya
regla de correspondencia viene dada por:
sgn(f(x)) =
_

_
1, si x > 0,
0, si x = 0,
1, si x < 0,
2.3. EL MTODO DE HALLEY 59
En [132] encontramos que el mtodo de Halley, al igual que el mtodo de Chebyshev, est
basado en una aproximacin de tercer orden, que si no degenera en una lnea, es una funcin
racional de la forma
a +
b
x + c
(2.101)
a la cual se imponen las siguiente 3 condicin de aproximacin en un punto x
0
:
a +
b
x
0
+ c
= f(x
0
), (2.102)

b
(x
0
+ c)
2
= f

(x
0
), (2.103)
2b
(x
0
+ c)
3
= f

(x
0
). (2.104)
Tomando en cuenta a (2.102), (2.103) y (2.104), Melman [132] demuestra el siguiente
teorema de convergencia global.
Teorema 2.17. Sea f(x) una funcin tal que en un intervalo I que contiene a la raz x

de
f(x) se cumple que f

(x) es continua, f

(x) = 0 y
_
1/
_
nf

(x)
_

0, siendo n = sgn(f

(x)).
Entonces (2.63), desde cualquier punto del intervalo I, converge montonamente a la solucin
x

.
Demostracin. Nos limitaremos al caso en que f

(x) > 0 en I, pues la demostracin para


f

(x) < 0 es anloga.


Sea x I, asumiremos que f

(x) ,= 0, pues as las aproximaciones de (2.63) no degene-


rarn en una lnea. Tomando en cuenta las condiciones de aproximacin dadas en (2.102),
(2.103) y (2.104), se asegura que para algn punto x I, se cumple que b < 0, pues f

(x) > 0.
A partir de las condiciones (2.103) y (2.104) podemos interpretar que el trmino corrector
(

b
)(x + c), con = sgn(f

(x)) aproxima a
1

(x)
hasta el segundo grado.
Puesto que f

(x) > 0 y teniendo en cuenta las condiciones impuestas en el teorema,


podemos decir que en I se cumple que
_
1

(x)
_

> 0, luego
_
1

(x)
_
es convexa, por lo
tanto
_

b
_
(x + c)
_
1
_
f

(x)
_
.
Puesto que slo estamos interesados en los puntos donde
_

b
_
(x + c) est por encima
del eje x, nos limitaremos a los puntos en los cuales se cumple que
0 <
_

b
_
(x + c)
_
1
_
f

(x)
_

(x + c)
2
b

1
f

(x)

b
(x + c)
2
f

(x).
Luego, para x x
0
sigue que
_
x
x
0
b
(t + c)
2
dt
_
x
x
0
f

(t)dt a +
b
x + c
a
b
x
0
+ c
f(x) f(x
0
).
60 CAPTULO 2. MTODOS ITERATIVOS
Por otro lado, tomando en cuenta a (2.103)sigue
a +
b
(x + c)
f(x). (2.105)
La desigualdad inversa de (2.105) tambin es vlida para x x
0
.
Cuando f

(x
0
) = 0 las aproximaciones de (2.63) degeneran en una lnea, es decir, la
funcin de aproximacin toma la forma ax + b con a > 0. Esto signica que la funcin
constante
1

a
se aproxima a
1

(x)
hasta el segundo orden. Esto mismo se deriva de la
convexidad de
1

(x)
.
Por tanto, si iniciamos en un punto que est a la izquierda de x

, la aproximacin generada
por (2.63) converger montonamente hacia x

. Si comenzamos en un punto que est a


la derecha de la raz x

, (2.105) cumple con la desigualdad inversa y la convergencia ser


montona desde la derecha.
En el libro de M. Hernndez y A. Salanova [98], aparece un interesante teorema que enfoca
la convergencia global de (2.63) a partir del grado de convexidad logartmico de las funciones
f(x) y f

(x). Parte del mismo es presentado a continuacin.


Teorema 2.18. Supongamos que L
f
(x) 3/2 en un intervalo cerrado [a, b]. Si f(x
0
) > 0 y
L
f
(x) < 2 en [a, b], entonces la sucesin x
n
dada por (2.63) es decreciente y convergente a
x

. Si f(x
0
) < 0, entonces x
n
es creciente y convergente a x

.
Demostracin. Supongamos que x
0
[a, b] tal que f(x
0
) > 0. Demostraremos que x
n
x

y
que x
n1
x
n
para todo n N.
Notemos que x
0
x

0, pues f(x
0
) > 0. Adems que
x
1
x

= F(x
0
) F(x

) = F

(
0
)(x
0
x

),
con F(x) = x
n+1
denida por (2.63).
Teniendo en cuenta que
F

(x) =
L
f
(x)
2
(2 L
f
)
2
(3 2L
f
(x)),
y L
f
(x) 3/2, entonces F

(x) 0 en [a, b]. Por tanto x


1
x

.
Por otra parte, como L
f
(x) < 2, sigue
x
1
x
0
=
f(x
0
)
f

(x
0
)
2
2 L
f
(x
0
)
0 x
0
x
1
.
Si continuamos aplicando hiptesis de induccin sobre n, sigue
x
n
x

2.3. EL MTODO DE HALLEY 61


y que
x
n1
x
n
,
para todo n N. Entonces la sucesin x
n
es decreciente y acotada, por tanto es convergente.
Pasando al lmite de x
n
, se obtiene que lm
x
x
n
= x

.
En [88], aparece la demostracin de un teorema de convergencia global de una familia de
mtodos iterativos de la forma
x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
)
1 L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
, R. (2.106)
Al sustituir el parmetro por la constante 1/2, = 1/2, obtenemos la funcin de itera-
cin del mtodo de Halley. El teorema que sigue, es una adaptacin del teorema anteriormente
mencionado.
Teorema 2.19. Supongamos que f(x) es una funcin decreciente y convexa en un intervalo
[0, x

], con f

(x) > 0 en [0, x

]. En estas condiciones, la sucesin dada por (2.59), empezando


en x
0
= 0 es creciente y converge a x

, solucin de f(x) = 0.
Demostracin. Llamamos
H(x) = x
_
1 +
1
2
L
f
(x)
1
1
2
L
f
(x)
_
f(x)
f

(x)
.
Se comprueba que H es creciente en [0, x

]. En efecto,
H

(x) = L
f
(x)
1
2
L

f
(x)
_
1
1
2
L
f
(x)
_
2
f(x)
f

(x)

1
2
L
f
(x)
1
1
2
L
f
(x)
_
1 L
f
(x)
_
= L
f
(x)
1
2
1
_
1
1
2
L
f
(x)
_
2
_
L
f
(x) +
f
2
(x)f

(x)
_
f

(x)
_
3
2L
2
f
(x)
_

1
2
L
f
(x)
1
1
2
L
f
(x)
+
1
2
L
2
f
(x)
1
1
2
L
f
(x)
=
1
2
1
_
1
1
2
L
f
(x)
_
2
f
2
(x)f

(x)
_
f

(x)
_
3
+
1
2
L
2
f
(x)
_
1
1
2
L
f
(x)
_
2
_
1
2
L
f
(x) +
3
2

1
2
L
2
f
(x)
_
.
El primer sumando es positivo ya que f

(x) 0 y f

(x) < 0 para x [0, x

]. El segundo
sumando es positivo si lo es
1
2
L
f
(x) +
3
2

1
2
L
2
f
(x) =
3
2
+
1
2
L
f
(x)(1 L
f
(x)).
De acuerdo al Lema2.28 de Altman [4], si f es decreciente y convexa, y adems verica
f

(x) 0 para x [0, x

], tenemos que 0 L
f
(x) < 1/2 si x [0, x

].
62 CAPTULO 2. MTODOS ITERATIVOS
En consecuencia H

(t) > 0 y H es una funcin creciente en el intervalo [0, x

]. De aqu se
sigue que la sucesin x
n
est acotada por x

. En efecto, x
1
= H(x
0
) = H(0) < H(x

) = x

,
y por induccin se sigue que x
n
< x

, n N. Como adems
x
n+1
x
n
=
_
1 +
1
2
L
f
(x
n
)
1
1
2
L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
0
se tiene que x
n
tambin es creciente, y por tanto convergente.
2.4. El mtodo de Chebyshev
Otro de los mtodos para aproximar la solucin de ecuaciones no lineales que vamos a
considerar en este trabajo es el mtodo de Chebyshev denido, a partir de un valor inicial
x
0
, por la recurrencia
x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
. n 0, (2.107)
Al igual que en la seccin dedicada al mtodo de Halley, hemos expresado el mtodo de
Chebyshev en trminos del grado de convexidad logartmico
L
f
(x
n
) =
f(x
n
)f

(x
n
)
f

(x
n
)
2
.
2.4.1. Notas histricas sobre el mtodo de Chebyshev
Histricamente hablando, el mtodo de Chebyshev (2.107), est contenido en una familia
de procesos iterativos de la forma x
n+1
= E
m
(x
n
), donde
E
m
(x) = x +
m1

n=1
(1)
n
f(x)
n
n!
(f
1
)
n
(f(x)), (2.108)
La familia de mtodos denida por (2.108) se conoce como mtodos de Schrder de
primer tipo. Recordar que el orden de convergencia de cada mtodo denido por (2.108) es
m. Notemos que para m = 2 se obtiene el mtodo de Newton-Raphson, mientras que para
m = 3, se obtiene el mtodo de Chebyshev.
Hemos de hacer notar que el nombre de mtodo de Chebyshev no se ha utilizado de
forma uniforme en la literatura matemtica. De hecho, en varias referencias bibliogrcas la
expresin (2.107) recibe varios nombres, como puede verse en el listado siguiente.
1. Mtodo de Euler: [25], [118], [180].
2. Mtodo de EulerChebyshev: [118], [180].
2.4. EL MTODO DE CHEBYSHEV 63
3. Mtodo Sper-Newton: [123].
4. Mtodo de Schrder: [82].
5. Mtodo de las parbolas tangentes: [10].
6. Mtodo de la interpolacin cuadrtica inversa: [14], [76], [98]
La controversia existente acerca de la autora de (2.107) (o de (2.108)) no es nueva.
En efecto, en el conocido libro de J. F. Traub [180, p. 81] sobre mtodos iterativos para
resolver ecuaciones algebraicas se arma que la familia E
m
se atribuye tanto a Euler como a
Chebyshev. En consecuencia, Traub usa ambos nombres de forma conjunta para referirse a
la familia E
m
.
Figura 2.11: P. Chebyshev, (1821 1894) y L. Euler, (1707 1783).
La duda sobre a quin atribuir el mtodo (2.107) es compartida por otros autores, como
por ejemplo M. S. Petkovi, L. D. Petkovi y D. Herceg [148, p. 1759], quienes advierten
que en la literatura rusa la secuencia E
m
denida en (2.108) se atribuye a un trabajo de
Chebyshev escrito en 1837 o 1838 titulado Clculo de las races de una ecuacin, y hacen
referencia a la cita anterior de Traub sobre este aspecto. Sin embargo, tambin indican que
otros autores como E. Bodewig [25] o S. Smale y M. Shub [167] adjudican E
m
a Euler y, en
concreto, a su Opera Omnia, Ser. I, Vol. X.
En el trabajo de M. Garca y J.M. Gutirrez, [78], se han pretendido resolver la disyuntiva
surgida en cuanto a la autora del mtodo de Chebyshev, analizando los textos histricos en
los que el mtodo pudo ser desarrollado por primera vez. Segn [78], la nica edicin existente
del Clculo de las races de una ecuacin es la que aparece en ruso en el Captulo 5 de las
obras completas de Chebyshev [38]. En la Seccin II de dicho trabajo, Chebyshev establece
un mtodo general que permita encontrar las races de una ecuacin de la forma
a
0
x
n
+ a
1
x
n1
+ + a
n1
x + a
n
= 0. (2.109)
64 CAPTULO 2. MTODOS ITERATIVOS
Para lograr dicho objetivo, se basa en la aplicacin de series de potencia, en concreto, dado
un desarrollo de la forma
Y =

n=1
c
n
X
n
,
indica un procedimiento para calcular el desarrollo en serie de
X =

n=1
d
n
Y
n
,
expresando los coecientes de d
n
en funcin de c
n
como
d
1
=
1
c
1
.
d
2
=
c
2
c
3
1
.
d
3
=
2c
2
2
c
1
c
3
c
5
1
.
d
4
=
5c
3
2
+ 5c
1
c
2
c
3
c
2
1
c
4
c
7
1
.
Para obtener la funcin inversa, Chebyshev aplic la misma idea. As, sea x
0
una aproxi-
macin inicial de la raz x

, luego
y = f(x) =

n=0
c
n
(x x
0
)
n
, (2.110)
donde
c
0
= = f(x
0
), c
n
=
f
(n)
(x
0
)
n!
(n 1).
Denido , Chebyshev aplica el desarrollo en serie de la funcin inversa en la forma
x = f
1
(y) =

n=0
d
n
(y )
n
, (2.111)
luego, en vez de hacer y = 0 en (2.110) y resolver la ecuacin obtenida con respecto a x,
Chebyshev sustituye y = 0 en (2.111), obteniendo
x = x

n=1
(1)
n
d
n

n
.
A partir de esta expresin, se obtiene el desarrollo
x

= x
0

f(x
0
)
f

(x
0
)

_
f(x
0
)
f

(x
0
)
_
2 f

(x
0
)
2f

(x
0
)

_
f(x
0
)
f

(x
0
)
_
3
_
f

(x
0
)
2
2f

(x
0
)
2

f

(x
0
)
6f

(x
0
)
_
. . . (2.112)
Segn [78] el desarrollo obtenido por Chebyshev (2.112), coincide con el obtenido por Eu-
ler, vase a [74], sin embargo, Chebyshev se apoya en argumentos matemticos para demostrar
que encontrar una x

tal que f(x

) = 0, es lo mismo que encontrar a f


1
(0). En sntesis, tanto
2.4. EL MTODO DE CHEBYSHEV 65
Euler como Chebyshev aplican un mtodo de aproximacin de la funcin inversa mediante
funciones polinomiales.
En la Seccin VI del Clculo de las races de una ecuacin, Chebyshev trunca en el tercer
trmino la frmula dada en (2.112), obteniendo
x

x
1
= x
0

f(x
0
)
f

(x
0
)

_
f(x
0
)
f

(x
0
)
_
2 f

(x
0
)
2f

(x
0
)
,
y la estimacin del error
[x

x
1
[ m ax

f(x
0
)
3
_
f

(x
0
)
2
6f(x
0
)
2

f

(x
0
)
6f(x
0
)
2
_

Es en esta seccin en donde Chebyshev estudia el mtodo denido por (2.107) tal y como
lo conocemos hoy en da. Adems, Chebyshev comenta que la aproximacin a la raz ser
mayor, si se consideran 5, 6 o ms trminos de la serie (2.112), advirtiendo que de hacerse as,
los clculos podran resultar ms costosos. Con estos comentarios, Chebyshev intuitivamente
se est reriendo a los conceptos de orden de convergencia y de eciencia computacional,
aspectos que posteriormente fueron formalizados por Schrder. Para mayores detalles de
estas formalizaciones, vase a [162] y [?].
2.4.2. Descripcin del mtodo de Chebyshev
El mtodo de Chebyshev, junto con sus mejoras y modicaciones ha llamado la atencin
de muchos investigadores. Por ejemplo, desde el punto de vista histrico, podemos encontrar
una forma equivalente para escribir (2.107) conocida como frmula de Schrder [162]. Como
una muestra de recientes publicaciones sobre este tema, podemos citar [5, 6], [42, 43, 44],
[90], [120], [132].
En el presente captulo, nos dedicaremos a mostrar la construccin del mtodo de Cheby-
shev de distintas maneras. En primer lugar, usaremos una forma clsica de construccin de
mtodos iterativos, que consiste en la aproximacin de la funcin inversa de f(x). Esta forma
se conoce como interpolacin cuadrtica inversa, la misma a sido estudiada por autores
como [4], [132] y [180]. Otra forma de deduccin del mtodo de Chebyshev que presentamos,
es el mtodo de la parbola tangente, vase [5], [157], [158] y [193]. Dicho mtodo consiste
en tomar una parbola que tenga algn punto de tangencia respecto a la funcin f(x), y
a continuacin con un poco de manipulacin algebraica se obtiene la funcin iterativa de
Chebyshev.
El captulo naliza con una forma muy particular de deducir una familia de mtodos
iterativos, entre los cuales est el mtodo de Chebyshev, para encontrar ceros de ecuaciones,
que tiene como base, los mtodos de Obreshkov, (rerase a [92], [125] y [140]), que son
mtodos para resolver ecuaciones diferenciales.
66 CAPTULO 2. MTODOS ITERATIVOS
Interpolacin cuadrtica inversa
A travs del tiempo se han desarrollado una gran variedad de tcnicas que permiten
construir un algoritmo iterativo numrico. Algunas de estas tcnicas, como la interpretacin
geomtrica, el desarrollo de polinomios en serie de Taylor, ya han sido aplicadas en este
sentido. Otra tcnica es la de aproximar una funcin inversa usando el desarrollo de Taylor
hasta un polinomio de segundo grado, la cual utilizaremos para encontrar la expresin del
mtodo de Chebyshev, conocido tambin como mtodo de la interpolacin cuadrtica inversa,
(vase nuevamente a [4], [132] y [180]).
Dada la funcin y = f(x), llamaremos x = (y) a la funcin inversa de f. Si la aproxi-
mamos en un punto y
0
, entonces
(y) (y
0
) +

(y
0
)(y y
0
) +
1
2

(y
0
)(y y
0
)
2
.
Encontrar la raz de la ecuacin f(x) = 0, es lo mismo que encontrar la imagen del cero
por medio de la funcin , es decir a (0). As, si x
0
es un valor prximo a y f(x
0
) = y
0
,
entonces,
(0) (y
0
)

(y
0
)y
0
+
1
2

(y
0
)(y
0
)
2
.
De aqu podemos deducir una nueva aproximacin de , que denotamos x
1
:
x
1
= x
0

(y
0
)f(x
0
) +
1
2

(y
0
)f(x
0
)
2
. (2.113)
Ahora calculamos

(y) y

(y) para sustituirlo en (2.113). De antemano sabemos que x =


(y), y

= f

(x) e y

= f

(x), de modo que ahora, por el teorema de la funcin inversa,

(y) =
dx
dy
=
1
dy
dx
=
1
y

=
1
f

(x)
, (2.114)
y

(y) =
d

(y)
dy
=
d(1/f

(x))
dx

dx
dy
=
y

(y

)
3
. (2.115)
Sustituyendo (2.115) y (2.114) en (2.113) se sigue
x
1
= x
0

_
1 +
1
2
L
f
(x
0
)
_
f(x
0
)
f

(x
0
)
.
Repitiendo para este punto x
1
el mismo proceso anterior conseguiremos la nueva aproximacin
x
2
, luego por recurrencia obtenemos a (2.107).
Mtodo de las parbolas tangentes
Una forma sencilla de obtener el mtodo iterativo de Chebyshev, es por medio de una
derivacin geomtrica a partir de una parbola tangente a la grca de la funcin cuya raz
se desea aproximar, como ilustramos en la Figura 2.12.
2.4. EL MTODO DE CHEBYSHEV 67
x
f(x)
x
0
x
1
x
1
Figura 2.12: Interpretacin geomtrica del mtodo de Chebyshev.
Consideramos una parbola de la forma
ay
2
+ y + bx + c = 0. (2.116)
La idea consiste en aproximar una funcin f(x) tomando un punto x
n
prximo a la raz
f(x) = 0. Si ahora se tomamos en cuenta que la funcin debe cumplir las condiciones de
tangencia siguientes
y(x
n
) = f(x
n
), (2.117)
y

(x
n
) = f

(x
n
), (2.118)
y

(x
n
) = f

(x
n
). (2.119)
Podemos escribir la parbola (2.116) de la forma conveniente
a(y f(x
n
))
2
+ (y f(x
n
)) +b(x x
n
) = 0 (2.120)
de modo que si x = x
n
, entonces y(x
n
) = f(x
n
), este hecho cumple la primera condicin
de tangencia, ahora determinamos los parmetros a y b para que y

(x
n
) = f

(x
n
), y

(x
n
) =
f

(x
n
). Si derivamos la expresin (2.120), nos queda
2a(y(x
n
) f(x
n
))y

(x
n
) +y

(x
n
) +b = 0 (2.121)
de modo que en (x
n
, f(x
n
)) nos queda slo
y

(x
n
) +b = 0
68 CAPTULO 2. MTODOS ITERATIVOS
o lo que es lo mismo
b = y

(x
n
) = f

(x
n
),
como podemos ver, slo falta derivar la expresin (2.121) y despejar a, como sigue
2a(y

(x
n
))
2
+ 2a(y(x
n
) f(x
n
))y

(x
n
) +y

(x
n
) = 0.
Esta expresin en el punto de interseccin (x
n
, f(x
n
)) es
2a(y

(x
n
))
2
+ y

(x
n
) = 0.
Si ahora despejamos a, se tiene que
a =
y

(x
n
)
2y

(x
n
)
2
=
f

(x
n
)
2f

(x
n
)
2
.
Luego de sustituir los valores a y b encontrados en la expresin (2.120), la podemos escribir
como

(x
n
)
2f

(x
n
)
2
(y f(x
n
))
2
+ y f(x
n
) f

(x
n
)(x x
n
) = 0.
La interseccin de esta curva con el eje OX, es decir cuando y = 0 nos dara la siguiente
iteracin del mtodo de Chebyshev:

f(x
n
)
2
f

(x
n
)
2f

(x
n
)
2
f(x
n
) f

(x
n
)(x x
n
) = 0
f

(x
n
)(x x
n
) =
f(x
n
)
2
f

(x
n
)
2f

(x
n
)
2
f(x
n
)
x x
n
=
f(x
n
)
2
f

(x
n
)
2f

(x
n
)
3

f(x
n
)
f

(x
n
)
x = x
n

_
1 +
f(x
n
)f

(x
n
)
2f

(x
n
)
2
_
f(x
n
)
f

(x
n
)
,
como puede verse, esta es la expresin del mtodo de Chebyshev.
La Figura 2.12 es la interpretacin geomtrica del mtodo de Chebyshev por medio de
la parbola tangente, donde la lnea recta en color rojo representa la recta tangente de la
primera iteracin del mtodo de Newton, la curva de color verde es la parabola aproximante
que emplea el mtodo de Chebyshev y la curva de color azul es la funcin cuyas races
queremos aproximar.
Para ilustrar esta tcnica tomamos como ejemplo la situacin que se reeja en la Figu-
ra 2.12. En este caso, se pretende aproximar la raz de la funcin f(x) = e
x
7. Luego
de hacer los clculos apropiados, aplicando tanto el mtodo de Newton como el mtodo de
Chebyshev, y tomando como punto de partida x
0
= 4, se han obtenido la recta tangente
y = f(x
0
) +f

(x
0
)(x x
0
) = 47.5982 + 54.5982(x 4)
2.4. EL MTODO DE CHEBYSHEV 69
y la parbola

(x
0
)
2f

(x
0
)
2
(y f(x
0
))
2
+ y f(x
0
) f

(x
0
)(x x
0
)
=
54.5982
2 54.5982
2
(y 47.5982)
2
+ y 47.5982 54.5982(x 4) = 0,
respectivamente. Calculando las intersecciones de ambas curvas con el eje y = 0, se obtienen
las aproximaciones x
1
= 3.12821 para el mtodo de Newton y x
1
= 2.7482 para el mtodo de
Chebyshev. Como vemos tanto grca como numricamente, en este caso, la aproximacin
dada por el mtodo de Chebyshev est ms cercana a la solucin exacta del problema que es
log 7 1.94591.
Otra interpretacin geomtrica: interpolacin exponencial
Siguiendo un procedimiento similar al aplicado por Kanwar en [23] y [112], pero conside-
rando ahora la curva de aproximacin
y(x) = e
a(yy(xn))
(b(x x
n
) +c), (2.122)
donde a, b y c son tres parmetros a determinar, llegamos a lo siguiente:
y(x
n
) = f(x
n
) c = f(x
n
)
y

(x
n
) = f

(x
n
) b = f

(x
n
)(1 af(x
n
))
Los nuevos mtodos iterativos de la forma x
n+1
= x
n
c/b se convierten ahora en
x
n+1
= x
n

1
1 af(x
n
)
f(x
n
)
f

(x
n
)
(2.123)
Si buscamos ahora que los modos de (2.122) tengan convergencia cbica, debemos exigir
que y

(x
n
) = f

(x
n
), es decir,
a
2
f(x
n
)f

(x
n
)
2
a(f(x
n
)f

(x
n
) + 2f

(x
n
)
2
) +f

(x
n
) = 0 (2.124)
Para valores de a muy prximos a cero y despreciando el trmino en a
2
de (2.124), se
obtiene que
a =
f

(x
n
)
f(x
n
)f

(x
n
) + 2f

(x
n
)
2
(2.125)
Sustituyendo (2.125) en (2.124) se obtiene el mtodo de Chebyshev
x
n+1
= x
n
[1 +
1
2
L
f
(x
n
)]
f(x
n
)
f

(x
n
)
70 CAPTULO 2. MTODOS ITERATIVOS
Siguiendo los mtodos de Obreshkov
Los mtodos de Obreshkov fueron introducidos en [92] con el objetivo de combinar los
atributos de los mtodos multipaso, mtodos multietapas y mtodos de derivadas mltiples
para la resolucin de ecuaciones diferenciales. En efecto, para una ecuacin autnoma y para
m 1, denimos los operadores diferenciales lineales L y /:
L(x(y); h, h
1
, . . . , h
m1
) = x(y + h) x(y) h
m

k=1
[
k
D(x)(y
k
)+
+
k
H
k
D
2
(x)(y
k
)
_
y
/(x(y); h, h
1
, . . . , h
m1
) = x(y + h) x(y) h
_
m

k=1

k
D(x)(y
k
)+
+
m1

k=1

k
H
k
D
2
(x)(y
k
)
_
,
donde
y
k
= y
k1

=1
h

,
k
y
k
, 1 k m
son constantes reales a determinar, y H
k
est denida por
H
k
=
_
h, si k = 1,
k1

=1
h

, si k > 1.
Consideremos una funcin x(y) sucientemente diferenciable en torno a y. Entonces al ex-
pandir x(y + h), x

(y
k
) y x

(y
k
) en torno a y, obtenemos el siguiente tipo de serie:

q0
C
q
x
(q)
(y)]
q
,
donde la C
q
es una constante real y ]
q
= h
q
0
h
q
1
1
h
q
m1
m1
con q
0
+q
1
+ +q
m1
= q. Decimos
que el proceso desarrollado es de orden d cuando C
0
= C
1
= = C
d
= 0 y C
d+1
,= 0.
Decimos que una funcin que depende de m variables x
0
, , x
m1
es de la forma
O
q
(x
0
, )
si resulta que
O
_
x
q
0
0
x
q
1
1
x
qm1
m1
_
,
donde
q
0
+ q
1
+ + q
m1
= q, q
i
0, i = 0, 1, . . . , m1.
Entonces, una eleccin adecuada de y nos permite encontrar el mximo orden de
convergencia.
2.4. EL MTODO DE CHEBYSHEV 71
Figura 2.13: N. Obreshkov, (1896 1963)
Nuestro objetivo en este apartado, es presentar una nueva tcnica para obtener el mtodo
de Chebyshev teniendo como base la esencia de los mtodos de Obreshkov (ver nuevamente
a [125], [140]), que fueron ideados, en principio, para la solucin numrica de problemas de
valor inicial.
La clave de la idea es la siguiente. Si f : R R es una funcin con una raz simple , es
decir, f() = 0 y f

() ,= 0 en una vecindad I

de . Entonces, la funcin inversa x = g(y)


est bien denida en J
0
f(I

) y satisface la relacin g(0) = . Al derivar la funcin x(y)


con respecto a la variable y, obtenemos
dx
dy
= g

(y) =
1
f

(x)
. (2.126)
La ecuacin (2.126) puede ser escrita como
D(x)(y) = x

(y) = F(x), (2.127)


donde
F(x) =
1
f

(x)
. (2.128)
Si x
0
es una primera aproximacin de , a la raz simple de f, y denotamos y
0
= f(x
0
).
Denimos ahora el operador L como
L(x(y); h, h
1
, . . . , h
m1
) = x(y + h) x(y) h

m
k=1
[
k
D(x)(y
k
)+
+
k
H
k
D
2
(x)(y
k
)] .
(2.129)
Ahora, siguiendo esta tcnica, deducimos el mtodo de Chebyshev en trminos del operador
L denido en (2.129). Para m = 1 la ecuacin (2.129) se convierte en
L(x(y); h) = x(y + h) x(y) h
_

1
D(x)(y) +h
1
D
(2)
(x)(y)
_
, (2.130)
72 CAPTULO 2. MTODOS ITERATIVOS
donde
1
y
1
son las constantes reales a determinar. Desarrollando L(x(y); h) en series de
Taylor en torno a y se obtiene
L(x(y); h) = (1 )hD(x)(y) +
_
1
2

1
_
h
2
D
(2)
(x)(y)O
3
(h).
Si en la ecuacin anterior hacemos = 1 y =
1
2
, entonces encontramos el mximo orden
de aproximacin de x(y +h). Sustituyendo este valor en (2.130) llegamos al mtodo iterativo
de la forma
x
+
= x
n
+ h
_
D(x)(y) +
h
2
D
(2)
(x)(y)
_
.
En otras palabras, iniciando con x
0
, la secuencia obtenida es denida por
x
n+1
= x
n
+ h
_
F(x
n
) +
h
2
F(x
n
)F

(x
n
)
_
.
Hemos tomado en cuenta el hecho de que D(x)(y) = F(x) y D
(2)
(x)(y) = F

(x)F(x), con
F(x) denida en (2.128).
Es importante observar que la clave de este aporte consiste en la eleccin del paso de
integracin h. En este caso, consideramos h = f(x
n
). Como F(x
n
) =
1
f

(xn)
y F

(x
n
) =

(xn)
f

(xn)
2
, el mtodo derivado correspondiente es el mtodo de Chebyshev (2.107).
2.4.3. Convergencia del mtodo de Chebyshev
Convergencia local del mtodo de Chebyshev
Como en el caso de los mtodos de Newton y Halley, mostramos a continuacin un teorema
de convergencia local para el mtodo de Chebyshev.
Teorema 2.20. Sea f : I R una funcin de variable real denida en un entorno I de
x

, una raz simple de f(x) = 0, (f(x

) = 0 y f

(x

) ,= 0). Supongamos que f es tres


veces derivable con continuidad en I. Entonces el mtodo de Chebyshev (2.107) denido por
x
n+1
= C
f
(x
n
),
C
f
(x) = x
_
1 +
1
2
L
f
(x)
_
f(x)
f

(x)
,
tiene al menos convergencia cbica localmente. Adems, se cumple la siguiente ecuacin del
error:
e
n+1
= (2A
2
2
A
3
)e
3
n
+ O
4
.
donde A
i
, e
n
y O
N
se han introducido en (2.12), (2.13) y (2.14) respectivamente.
Demostracin. (Usando el Teorema de Schrder) El clculo de las derivadas de C
f
nos per-
mite deducir que
C
f
(x

) = x

, C

f
(x

) = C

f
(x

) = 0, C

f
(x

) =
3f

(x)
2
f

(x)f
(3)
(x)
f

(x)
2
,= 0.
2.4. EL MTODO DE CHEBYSHEV 73
Por lo tanto,
e
n+1
= x
n+1
x

= C
f
(x
n
) x

=
C

f
(x

)
3!
(x
n
x

)
3
+ O
4
,
de donde se deduce que
lm
n
e
n+1
e
3
n
=
C

f
(x

)
3!
= 2A
2
2
A
3
.
Por lo tanto, el mtodo de Chebyshev es un mtodo con orden de convergencia local igual a
3 y contante de error asinttico 2A
2
2
A
3
.
Demostracin. (Usando desarrollos de Taylor) De nuevo, podemos obtener las mismas con-
clusiones del teorema siguiendo usando desarrollos en serie de Taylor. En concreto, teniendo
en cuenta las notaciones A
i
, e
n
y O
N
introducidas en (2.12), (2.13) y (2.14) respectivamente,
deducimos que
f(x
n
)
f

(x
n
)
= e
n
A
2
e
2
n
+ 2(A
2
2
A
3
)e
3
n
+ O
4
.
L
f
(x
n
)
2
= A
2
e
n
+ 3(A
3
A
2
2
)e
2
n
+ (14A
2
A
3
8A
2
2
)e
3
n
+ O
4
.
En consecuencia,
1
2
L
f
(x
n
)
f(x
n
)
f

(x
n
)
= A
2
e
2
n
+ (3A
3
4A
2
2
)e
3
n
+ O
4
.
Por lo tanto,
e
n+1
= x
n+1
x

= x
n
x

f(x
n
)
f

(x
n
)

1
2
L
f
(x
n
)
f(x
n
)
f

(x
n
)
.
= e
n

_
e
n
A
2
e
2
n
+ 2(A
2
2
A
3
)e
3
n
+ O
4
_

_
A
2
e
2
n
+ (3A
3
4A
2
2
)e
3
n
+ O
4
_
.
= (2A
2
2
A
3
)e
3
n
+ O
4
,
con lo que hemos demostrado el resultado.
Convergencia semilocal del mtodo de Chebyshev
En esta seccin demostraremos un teorema de convergencia semilocal del mtodo de
Chebyshev que aparece en [61], como una versin en R que podr ser extendida a espacios
ms generales.
A partir del estudio de la convergencia semilocal del mtodo de Chebyshev, podemos ver
que el tema ha sido ampliamente tratado, vase a [11], [14], [30], [68] y [72]. En esta seccin
aplicaremos nuevamente el anlisis de Kantorovich [110], para demostrar la convergencia
semilocal del mtodo de Chebyshev. En ese sentido, en esta seccin asumiremos las siguientes
condiciones:
74 CAPTULO 2. MTODOS ITERATIVOS
(i) Existe un punto x
0
R tal que f

(x
0
) ,= 0.
(ii) [
f

(x)f

(y)
f

(x
0
)
[ k[x y[, x, y R, k > 0.
(iii) [
f(x
0
)
f

(x
0
)
[ a, [
f

(x
0
)
f

(x
0
)
[ b.
(iv) El polinomio
p(t) =
k
6
t
3
+
b
2
t
2
t + a = 0, (2.131)
tiene una raz negativa y dos races positivas, r
1
y r
2
, con r
1
r
2
.
(v) S = x : [x x
0
[ r
1
R.
Previo a la demostracin, se presentaran los siguientes lemas tcnicos.
Lema 2.21. Denamos la sucesin escalar t
n
mediante
t
0
= 0, t
n+1
= H(t
n
) = t
n
(1 +
1
2
L
p
(t
n
))
p(t
n
)
p

(t
n
)
, n 0, (2.132)
donde p(t) est denido en (2.131) y L
p
(t) se ha denido en (2.11). Entonces t
n
es mon-
tonamente creciente y converge a r
1
, la cual es la raz positiva ms pequea de p(t).
Demostracin. Dado que p(t
0
) = a > 0, sabemos que t
0
< r
1
. Luego, en virtud del Teorema
del Valor Medio tenemos que para algn s
0
(t
0
, r
1
) se cumple que
t
1
r
1
= H

(s
0
)(t
0
) r
1
.
Notemos que
H

(t) =
L
p
(t)
2
2(1 L
p
(t))
2
(1 L
p
(t))
2
(3 L
p
(t)),
donde
L
p
(t) =
p

(t)p

(t)
p

(t)
2
.
Luego, tomando en cuenta que p(t) es positivo, decreciente y convexo en el intervalo [0, r
1
],
sigue que H

(t) 0 en [0, r
1
]. Por lo tanto t
1
r
1
.
Por otro lado, tenemos que
t
1
t
0
=
p(t0)
p

(t
0
)
(1 +
1
2
L
p
(t
0
)) 0.
Luego, para todo n 1, por induccin matemtica se obtiene que t
n
r
1
y t
n1
t
n
, ya
que (t
n1
, r
1
) (t
0
, r
1
). Luego la sucesin (2.132) converge a r
1
.
2.4. EL MTODO DE CHEBYSHEV 75
Lema 2.22. Sea la nica raz positiva de p

(t) = 0, donde p(t) es el polinomio denido por


(2.131). Bajo las condiciones (i) (v) denidas anteriormente, si
[x x
0
[ ,
entonces 1/f

(x) existe y se cumple que

(x
0
)
f

(x)


1
p

([x x
0
[)
,

(x
n
)
f

(x
0
)

([x x
0
[)
Demostracin. Notemos que
p

(t) =
k
2
t
2
+ bt 1
tiene dos races reales dadas por
t
+
=
b +

b
2
2k
k
, t

=
b

b
2
2k
k
.
Entonces, cuando [x x
0
[ < t
+
sigue que
p

([x x
0
[) =
k
2
[x x
0
[
2
+ b[x x
0
[ 1 < 0.
As, bajo las condiciones del teorema de Kantorovich tenemos que
[
f

(x
0
)(x x
0
)
f

(x
0
)
+
_
1
0
f

(x
0
+ t(x x
0
)) f

(x
0
)
f

(x
0
)
dt(x x
0
)[ b[x x
0
[ +
k
2
[x x
0
[
2
< 1.
Tomando en cuenta el Teorema del Valor Medio, sigue que
f

(x) = f

(x
0
) +
_
1
0
f

(x
0
+ t(x x
0
))dt(x x
0
),
de donde
f

(x)
f

(x
0
)
= 1 +
f

(x
0
)(x x
0
)
f

(x
0
)
+
_
1
0
f

(x
0
+ t(x x
0
)) f

(x
0
)
f

(x
0
)
dt(x x
0
).
Luego, en virtud del Lema de Neumann,
f

(x
0
)
f

(x)
existe. Entonces
[
f(x
0
)
f

(x)
[
1
1 b[x x
0
[
k
2
[x x
0
[
2
=
1
p

(t)
y
[
f

(x)
f

(x
0
)
[ [
f

(x
0
)
f

(x
0
)
[ +[
f

(x
0
) f

(x)
f

(x
0
)
[ b + k[x x
0
[ = p

([x x
0
[).
Luego el Lema est probado.
76 CAPTULO 2. MTODOS ITERATIVOS
Lema 2.23. Con la misma notacin y supuestos anteriores, podemos escribir f(x
n+1
) de la
manera siguiente
f(x
n+1
) =
1
8
f

(x
n
)y
2
n
+
1
2
f

(x
n
)f(x
n
)y
n
f

(x
n
)
+
_
x
n+1
xn
[f

(x) f

(x
n
)](x
n+1
x)dx, (2.133)
donde
y
n
=
L
f
(x
n
)f(x
n
)
f

(x
n
)
.
Demostracin. Por la frmula de Taylor y tomando en cuenta a ((2.11)) deducimos que
f(x
n+1
) = f(x
n
)+f

(x
n
)(x
n+1
x
n
)+
1
2
f

(x
n
)(x
n+1
x
n
)
2
+
_
x
n+1
xn
(f

(x)f

(x
n
))(x
n+1
x)dx
=
1
2
f

(x
n
)(f(x
n
))
2
(f

(x
n
))
2
+
1
2
f

(x
n
)(f(x
n
))
2
(f

(x
n
))
2
+
1
8
f

(x
n
)y
2
n
+
1
2
f

(x
n
)f(x
n
)y
n
f

(x
n
)
+
_
x
n+1
xn
[f

(x) f

(x
n
)](x
n+1
x)dx,
cumplindose as el Lema.
Veamos a continuacin el teorema
Teorema 2.24. Asumamos que se cumplen las condiciones (i) (v). Entonces la sucesin
x
n
denida por el mtodo de Chebyshev, (2.107), est bien denida, pertenece a S y con-
verge a x

solucin de f(x) = 0. Adems se satisface la siguiente estimacin de error


[x

x
n
[ r
1
t
n
,
donde t
n
es la sucesin denida en (2.132) y r
1
es la raz positiva ms pequea de p(t).
Demostracin. Siguiendo a [200] probaremos que para todo entero no negativo n, se cumplen
las siguientes condiciones:
1. x
n
S = x : [x x
0
[ r
1
.
2. 1/f

(x
n
) existe.
3. [
f(xn)
f

(x
0
)
[ p(t
n
)
4. [
f

(x
0
)
f

(xn)
[
1
p(tn)
5. [
f

(xn)
f

(x
0
)
[ p

(t
n
)
6. [x
n+1
x
n
[ t
n+1
t
n
.
2.4. EL MTODO DE CHEBYSHEV 77
Notemos que la condicin 6 es inmediata de las otras cinco, adems, las condiciones
(i) (v) garantizan que las condiciones 1 5 se cumplan para n = 0. Asumamos que las
condiciones 1 5 se cumplen para n k, luego la condicin 6 tambin se cumple, por tanto
[x
n+1
x
0
[ t
n+1
t
0
< r
1
,
en consecuencia x
n+1
S.
Por el Lema 2.22 tenemos que 1/f

(x
n+1
) existe, luego las condiciones 4 y 5 se cumplen
para n = k + 1.
Por otro lado, en virtud del Lema 2.23 sigue que
[
f(
k+1
)
f

(x
0
)
[ =
1
8
[
f

(x
k
)y
2
k
f

x
0
[ +
1
2
[
f

(x
k
)f(x
k
)y
k
f

x
0
f

(x
k
)
[
+[
_
1
0
f

(x
k
+ u(x
k+1
x
k
) f

(x
k
))
f

(x
0
)
(1 u)du(x
k+1
x
k
)[

1
8
L
p
(t
k
)
3
p(t
k
) +
1
2
L
p
(t
k
)
2
p(t
k
) +
k
6
(t
k+1
t
k
)
3
= p(t
k+1
),
por tanto la condicin 3 tambin se cumple para n = k + 1. Luego las condiciones 1 5 se
cumplen para todo n 0, y como consecuencia de esto, la condicin 6 tambin se cumple
para todo n 0.
Como t
n
es una sucesin convergente, la condicin 6 implica que x
n
tambin es
convergente. Llamemos x

al lmite de x
n
, luego, por la condicin 3 se deduce que cuando
n se cumple que f(x

) = 0, por tanto x

es solucin de f(x) = 0.
Finalmente, la estimacin del error se deduce aplicando recursivamente la condicin
[x
n+j
x
n
[ t
n+j
t
n
, j 1,
cuando hacemos que j .
Convergencia global del mtodo de Chebyshev
En [6] encontramos un novedoso teorema de convergencia global. Parte del mismo se
presenta a continuacin.
Teorema 2.25. Sea f(x) una funcin tal que f

(x) es continua en un intervalo I que


contiene la raz x

de f(x). Sea f

(x) ,= 0, L
f
(x) > 2 y
_
(n/f

(x))
2
_

0 en I, con
n = sgn(f

(x)). Entonces (2.107), desde cualquier punto de I, converge montonamente a la


solucin x

Demostracin. La demostracin estar limitada al caso en que f

(x) > 0 en I, pues para


f

(x) < 0 la demostracin es similar.


78 CAPTULO 2. MTODOS ITERATIVOS
En primer lugar partiremos de un punto que est a la izquierda de x

, es decir, asumiremos
que x
0
x

, para demostrar que la interseccin x de la parbola y(x) dada en (2.120) con el


eje OX estar en [x
0
, x

].
Por hiptesis sabemos que L
f
(x
0
) > 2, luego
x
0
x = x
0

_
1 +
1
2
L
f
(x
0
)
f(x
0
)
f

(x
0
)
_
0 x
0
x.
Por tanto, ser suciente que x x
0
para que se cumpla
y(x) =
1 +
_
1 4a(bx + c)
2a
f(x). (2.134)
En ese caso, obtendremos una secuencia montona creciente, acotada por arriba por x

,
luego converge en el lmite x

. Por lo tanto, debido a la construccin del mtodo y la


continuidad de f(x) se obtiene la convergencia = x

.
Por otro lado, notemos que (2.134) es equivalente a
1 +
_
1 4a(bx + c)
2a

1 +
_
1 4a(bx
0
+ c)
2a
f(x) f(x
0
)
o
_
x
x
0
b
_
1 4a(bt + c)
dt
_
x
x
0
f

(t)dt. (2.135)
Como f

(x) > 0, entonces, por hiptesis se cumple que ((1/f

(x))
2
)

0 en I, luego
(1/f

(x))
2
es convexa, por tanto
_
1
f

(x)
_
2

1 4a(bx + c)
(b)
2
,
porque (1 4a(bx + c))/(b)
2
aproxima a (1/f

(x))
2
hasta el segundo orden.
As,
b
_
1 4a(bx + c)
f

(x) > 0,
y en consecuencia la expresin (2.135) se cumple.
Por ltimo, si comenzamos desde cualquier punto ubicado a la derecha de la raz, se
obtendr que
1 +
_
1 4a(bx + c)
2a
f(x),
luego la convergencia ser montona por la derecha.
Otro teorema de convergencia global de la autora de M. Hernndez y A. Salanova aparece
en [98]. Parte del mismo ha sido tomado para demostrar el siguiente teorema.
2.4. EL MTODO DE CHEBYSHEV 79
Teorema 2.26. Sea f(x) una funcin tal que en [a, b] se cumple que L
f
(x) 3. Si f(x) > 0,
entonces la sucesin x
n
denida por (2.107) es decreciente y converge a x

. Adems, si
f(x
0
) < 0 y L
f
(x
0
) 2 en [a, b], entonces la sucesin x
n
es creciente y convergente a x

.
Demostracin. La demostracin estar limitada al caso en que f(x
0
) > 0, pues para f(x
0
) < 0
la demostracin es anloga.
Asumamos que x
0
[a, b] tal que f(x
0
) > 0, probaremos que x
n
x

para todo n N.
Notar que x
0
x

0, pues por hiptesis f(x


0
) > 0, adems
x
1
x

= F(x
0
) F(x

) = F

(
0
)(x
0
x

), con
0
(x

, x
0
),
y F(x) = x
n+1
denida por (2.107).
Por otro lado, como L
f
(x) 3 y
F

(x) = L
f
(x)
2
3 L
f
(x)
2
, (2.136)
luego F

(x) 0 en [a, b]. Entonces x


1
x

, y por induccin sigue que x


n
x

para todo
n N.
Por otra parte, como f(x
n
) > 0 para todo n N, luego
x
n
x
n1
=
f(x
n1
)
f

(x
n1
)
[1 +
L
f
(x
n1
)
2
] 0 x
n1
x
n
,
luego x
n
es decreciente y pasando al lmite de (2.107), sigue que converge a la nica raz
x

de f(x) = 0.
El teorema que sigue, es una adaptacin de un resultado que aparece en [88] para una
familia de procesos iterativos que incluye como caso particular al mtodo de Chebyshev. Se
trata de un resultado de convergencia global para dicho mtodo, con condiciones diferentes
a las dadas en el teorema anterior.
Teorema 2.27. Supongamos que f(x) es una funcin decreciente y convexa en un inter-
valo [0, x

], con f

(x) > 0 en [0, x

]. En estas condiciones, la sucesin dada por (2.107),


empezando en x
0
= 0 es creciente y converge a x

, solucin de f(x) = 0.
Demostracin. Primero comprobaremos que
C
f
(x
n
) = x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
, (2.137)
es creciente en [0, x

]. En efecto,
C

f
(x
n
) =
1
2
f(x
n
)
2
f

(x
n
)
f

(x
n
)
3
+
3
2
f(x
n
)
2
f

(x
n
)
2
f

(x
n
)
4
=
1
2
f(x
n
)
2
f

(x
n
)
f

(x
n
)
3
+
3
2
L
2
f
(x
n
)
80 CAPTULO 2. MTODOS ITERATIVOS
El primer sumando es positivo ya que f

(x
n
) 0 y f

(x
n
) < 0 para x [0, x

]. El
segundo sumando tambin es positivo por tener un exponente par. En consecuencia tenemos
que C

f
(x
n
) > 0. Luego es una funcin creciente en el intervalo [0, x

]. De aqu se sigue que


la sucesin 2.137 est acotada por x

. En efecto, x
1
= C(x
0
) = C(0) < C(x

) = x

, y por
induccin se sigue que x
n
< x

, n N. Como adems
x
n+1
x
n
=
_
1 +
1
2
L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
0
se tiene que x
n
tambin es creciente, y por tanto convergente.
2.5. El mtodo super-Halley
La aceleracin convexa del mtodo de Newton, tambin conocida como mtodo super-
Halley, es un novedoso algoritmo iterativo que tambin se aplica para resolver una ecuacin
no lineal de la forma (1.1). Aunque en los trabajos iniciales de Hernndez et al. ( [69], [85],
[87], [88]) el mtodo recibe el nombre de aceleracin convexa del mtodo de Newton, a partir
de la publicacin de Argyros, Chen y Qian, [41], que data del ao 1994, dicho mtodo ha sido
estudiado por varios autores y recibe mayoritariamente el nombre de mtodo super-Halley.
Por ejemplo, este mtodo ha sido ampliamente estudiado en [13], [18], [45], [121] y [122].
Por ltimo, destacar que el estudio de la convergencia del mtodo super-Halley o aceleracin
convexa del mtodo de Newton ha sido una parte fundamental de la tesis doctoral del Dr.
Gutirrez [83].
2.5.1. Notas histricas sobre el mtodo super-Halley
En [98], M. A. Hernndez y M. A. Salanova introducen el grado de convexidad logartmico
como una medida puntual de la convexidad de una funcin y lo utilizan para un problema
de localizacin de neuronas.
Esta forma de medir la convexidad surge del Teorema de Bohr-Mollerup [29], para la
denicin de la funcin gamma. En este resultado aparece el concepto de funcin logartmi-
camente convexa, es decir, una funcin cuyo logaritmo es una funcin convexa. El grado de
convexidad logartmico es una medida puntual de la convexidad, dada por la resistencia de
una funcin a ser concavizada por el operador logartmico, es decir, el nmero de veces que
hay que aplicar el operador logartmico a una funcin convexa para obtener como resultado
una funcin cncava. En [97] se relaciona dicho grado de convexidad con la velocidad de
convergencia del mtodo de Newton.
Si bien el concepto de grado de convexidad logartmico puede considerarse como reciente,
y su aplicacin al estudio de la velocidad de convergencia de procesos iterativos tenga como
origen [102], podemos encontrar algn antecedente en la bibliografa matemtica. As, por
2.5. EL MTODO SUPER-HALLEY 81
ejemplo, B. Neta [136] da la expresin de diversos mtodos iterativos de tercer orden en
funcin del grado de convexidad logartmico, y en el trabajo de M. Altman [4] nos encontramos
con la expresin
L
f
(t) =
f(t)f

(t)
f

(t)
2
, (2.138)
que el autor utiliza para probar la convergencia de un proceso iterativo de orden tres. Adems,
en dicho trabajo se dan unas propiedades sobre el grado de convexidad logartmico que
destacamos por su utilidad posterior.
Lema 2.28 (Lema de Altman). Sea f una funcin que satisface las condiciones f(t) 0,
f

(t) ,= 0 y f

(t) 0 en [0, x

] y f(x

) = 0. Entonces
L
f
(t) <
1
2
, t [0, x

].
Corolario 2.29. Si exigimos que f

(t) ,= 0 en [0, x

), entonces se tiene que


L
f
(t)
1
2
, t [0, x

].
2.5.2. Descripcin del mtodo super-Halley
El mtodo super-Halley es menos conocido que los anteriormente considerados en esta
memoria y, hasta donde nosotros conocemos, no existen tantas formas de obtenerlo como
tienen, por ejemplo, los mtodos de Newton o Halley. No obstante, mostramos a continuacin
tres construcciones que dan lugar al mtodo super-Halley.
Como aceleracin convexa del mtodo de Newton
El mtodo super-Halley surge al estudiar la inuencia de la convexidad en el mtodo de
Newton t
n
para resolver una ecuacin f(t) = 0.
Dada la importancia que tiene para esta seccin, damos a continuacin la siguiente
Denicin 2.8 (Funcin convexa o cncava hacia arriba). Sea S R un conjunto convexo
no vaco, y sea f : S R, f es una funcin convexa en S si y slo si
t [0, 1] x, y S : f(tx + (1 t)y) tf(x) + (1 t)f(y).
Consideramos, sin prdida de generalidad, una funcin f decreciente y convexa en un
intervalo [a, b] tal que f(a)f(b) < 0. En estas condiciones, tomando t
0
[a, b] tal que f(t
0
) >
0, se garantiza la convergencia de la sucesin t
n
a x

, la nica raz de f(t) = 0 en [a, b].


Adems, la sucesin t
n
es creciente a x

.
Sea g una funcin en las mismas condiciones que f en [a, b], tal que g(x

) = 0. Conside-
ramos la sucesin s
n
obtenida aplicando el mtodo de Newton a g(t) = 0, con s
0
= t
0
.
82 CAPTULO 2. MTODOS ITERATIVOS
Hernndez y Salanova, [97], [102], utilizan el grado de convexidad logartmico para com-
parar las sucesiones t
n
y s
n
. En concreto, prueban que si L
g
(t) < L
f
(t) para t [t
0
, x

),
entonces la sucesin s
n
converge a x

ms rpidamente que t
n
. Es ms, se tiene que
t
n
< s
n
< x

para n 1.
Utilizando este resultado intentaremos obtener una aceleracin punto a punto para el
mtodo de Newton-Raphson. Es decir, dada t
n
tratamos de denir una aceleracin s
n

tal que s
n+1
= G(t
n
), a partir de un operador G. Este tipo de aceleraciones tienen gran
inters, ya que una vez construido G nos permiten denir nuevos procesos iterativos de la
forma
z
n+1
= G(z
n
)
independientemente de la sucesin t
n
.
Con esta idea en la mente, obsrvese que el grado de convexidad logartmico de una
recta es cero y, por tanto, es el menor grado de convexidad logartmico que puede tener una
funcin convexa. As, la recta g(t) = f

(x

)(t x

) cumple las condiciones exigidas para f y


su grado de convexidad logartmico es cero. Obviamente, la sucesin obtenida por el mtodo
de Newton-Raphson para esta recta converge ms rpidamente que la sucesin obtenida para
la funcin f.
Teniendo en cuenta el desarrollo de Taylor para la funcin f, tomaremos la cantidad
f(t)
f

(x

)
2
(t x

)
2
como aproximacin de la recta f

(x

)(t x

).
El problema que surge es que x

, en principio, es desconocido. Por ello hacemos las


siguientes estimaciones.
Si consideramos g(t) = f(t)
f

(x

)
2
(t x

)
2
entonces podemos aproximar
g(t
n
) f(t
n
)
f

(t
n
)
2
(t
n
t
n+1
)
2
,
ya que f

(t
n
) f

(x

), la sucesin t
n
converge a x

y (t
n
t
n+1
)
2
(t
n
x

)
2
debido a
que
lm
n
t
n
x

t
n
t
n+1
= 1,
como se comprueba fcilmente.
Por otra parte, como g

(t) = f

(t) f

(x

)(t x

) entonces
g

(t
n
) f

(t
n
) f

(t
n
)(t
n
t
n+1
).
Con estas aproximaciones tratamos de construir una aceleracin para el mtodo de Newton
s
n+1
= t
n

g(t
n
)
g

(t
n
)
= t
n

f(t
n
)
f

(tn)
2
_
f(tn)
f

(tn)
_
2
f

(t
n
) f

(t
n
)
f(tn)
f

(tn)
2.5. EL MTODO SUPER-HALLEY 83
s
n+1
= t
n

f(t
n
)
2f

(t
n
)
2 L
f
(t
n
)
1 L
f
(t
n
)
. (2.139)
Es una comprobacin inmediata ver que si f es una funcin que satisface las condiciones
anteriores, entonces la sucesin s
n
denida por (2.139) es una aceleracin de la sucesin
de Newton. En efecto, denotando
F(t) = t
f(t)
f

(t)
y
G(t) = t
f(t)
2f

(t)
2 L
f
(t)
1 L
f
(t)
= t
f(t)
2f

(t)
_
1 +
1
1 L
f
(t)
_
, (2.140)
tenemos que
F

(t) = L
f
(t), G

(t) =
L
2
f
(t)(L
f
(t) L
f
(t))
2(1 L
f
(t))
2
.
Por lo tanto,
lm
n
x

s
n+1
x

t
n+1
= lm
n
x

G(t
n
)
x

F(t
n
)
= lm
tx

G(t)
x

F(t)
= lm
tx

(t)
F

(t)
= lm
tx

L
f
(t)(L
f
(t) L
f
(t))
2(1 L
f
(t))
2
= 0.
La aceleracin anterior nos permite denir un nuevo proceso iterativo de la forma
t
n+1
= G(t
n
)
con t
0
[a, b] y G denida en (2.140). Notemos que la sucesin obtenida no es otra que la
conocido como mtodo super-Halley.
Construccin geomtrica del mtodo super-Halley
Una forma elegante de obtener el mtodo iterativo super-Halley es mediante su derivacin
a partir de la tangente de una hiprbola con el grco de la funcin en el punto (x
n
, f(x
n
)).
Esta idea a sido aplicada en los artculos de diversos autores, [5], [132], [165], teniendo en
comn la obtencin de una familia de mtodos iterativos de convergencia cbica.
Consideremos una hiprbola de la forma
ay
2
+ bxy + y + cx + d = 0, (2.141)
En lo adelante deberemos encontrar la forma de los parmetros a, b y c, para los cuales
se cumplen las condiciones de tangencias dadas en (2.117), (2.118) y (2.119). Para tal n,
escribimos a (2.141) de la forma
a
n
(y f(x
n
))
2
+ b
n
(x x
n
)(y f(x
n
)) + (y f(x
n
)) +c
n
(x x
n
) = 0. (2.142)
84 CAPTULO 2. MTODOS ITERATIVOS
De donde
x x
n
= (y f(x
n
))
1 +a
n
(y f(x
n
))
b
n
(y f(x
n
)) +c
n
(2.143)
En la interseccin de esta curva con el eje OX, se cumple que y = 0, luego (2.143) se
transforma en
x x
n
= f(x
n
)
1 a
n
f(x
n
)
b
n
f(x
n
) +c
n
(2.144)
Fijando el valor de
c
n
= f

(x
n
), (2.145)
y derivando 2 veces a (2.142) se obtiene
a
n
=
f

(x
n
)
2f

(x
n
)
2

b
n
f

(x
n
)
(2.146)
Sustituyendo a (2.145) y (2.146) en (2.144) sigue
x
n+1
= x
n

_
_
1 +
1
2
L
f
(x
n
)
1 +b
n
_
f(xn)
f

(xn)
_
_
_
f(x
n
)
f

(x
n
)
, n 0 (2.147)
La expresin (2.147) representa una familia de mtodos iterativos de orden tres. Tomando
a b
n
=
f

(xn)
f

(xn)
, obtenemos el mtodo
x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
)
1 L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
, n 0
el cual representa al mtodo de super-Halley.
Otra construccin geomtrica: usando funciones exponenciales
En la seccin 2.3.2, siguiendo a [5], [23] y [112], describimos el mtodo de Halley a partir
de una construccin geomtrica que se obtuvo a partir de la funcin osculatriz denida por
(2.66), la cual servi para obtener la familia uniparamtrica
x
n+1
= x
n

f(x
n
)
f

(x
n
) af(x
n
)
. a R. (2.148)
Si ahora aplicamos el mtodo de Newton a la funcin de iteracin
G(x) = x
f(x)
f

(x) af(x)
,
introducida en (2.148,) obtenemos una nueva funcin de iteracin:
x
n+1
= x
n

G(x
n
)
G

(x
n
)
= x
n

1 aU
f
(x
n
)
1 L
f
(x
n
)
f(x
n
)
f

(x
n
)
, (2.149)
2.5. EL MTODO SUPER-HALLEY 85
donde U
f
(x
n
) =
f(x)
f

(x)
.
De nuevo, para lograr que (2.148)) tenga convergencia cbica, se exige que
a
2
f(x
n
) 2af

(x
n
) +f

(x
n
) = 0. (2.150)
Siguiendo los mismos pasos que en el mtodo de Halley, considerando que para valores de
a ,= 0, muy prximos a cero, el trmino a
2
dado en (2.150) puede ser despreciado, se obtiene
la solucin aprximada
a =
f

(x
n
)
2f

(x
n
)
. (2.151)
Sustituyendo el valor de a dado en (2.151) en la frmula (2.149) se obtiene el mtodo
super-Halley:
x
n+1
= x
n

1 1/2L
f
(x
n
)
1 L
f
(x
n
)
f(x
n
)
f

(x
n
)
= x
n

_
1 +
1
2
1
1 L
f
(x
n
)
f(x
n
)
f

(x
n
)
_
La misma nota realizada para el mtodo de Halley acerca de los valores de a dados por
(2.150) es vlida. Tericamente deben ser muy prximos a 0, pero, en general, el proceso
obtenido tiene convergencia cbica para funciones f(x) con races simples.
2.5.3. Convergencia del mtodo super-Halley
Convergencia local del mtodo super-Halley
Para demostrar la convergencia local de un mtodo existen diversos teoremas tales como
el de Teorema de Gander, [76], Schrder, [162] o Taylor, [179]. Mostramos a continuacin un
teorema de convergencia local para el mtodo super-Halley a partir [162] y [179].
Teorema 2.30. Sea f : I R una funcin de variable real denida en un entorno I de
x

, una raz simple de f(x) = 0, (f(x

) = 0 y f

(x

) ,= 0). Supongamos que f es tres veces


derivable con continuidad en I. Entonces el mtodo de super-Halley (2.140) denido por
x
n+1
= G
f
(x
n
),
G
f
(x) = x
f(x)
2f

(x)
_
1 +
1
1 L
f
(x)
_
, (2.152)
tiene al menos convergencia cbica localmente. Adems, se cumple la siguiente ecuacin del
error:
e
n+1
= (A
3
)e
3
n
+ O
4
.
donde A
i
, e
n
y O
N
se han introducido en (2.12), (2.13) y (2.14) respectivamente.
86 CAPTULO 2. MTODOS ITERATIVOS
Demostracin. (Usando el Teorema de Schrder) El clculo de las derivadas de G
f
nos per-
mite deducir que
G
f
(x

) = x

, G

f
(x

) = G

f
(x

) = 0, G

f
(x

) =
f

(x)
f

(x)
,= 0.
Por lo tanto,
e
n+1
= x
n+1
x

= G
f
(x
n
) x

=
G

f
(x

)
3!
(x
n
x

)
3
+ O
4
,
de donde se deduce que
lm
n
e
n+1
e
3
n
=
G

f
(x

)
3!
= A
3
.
Por lo tanto, el mtodo super-Halley es un mtodo con orden de convergencia local igual a 3
y contante de error asinttico A
3
.
Demostracin. (Usando desarrollos de Taylor) A partir de aplicar el desarrollo en serie de
Taylor, podemos llegar a la conclusin anterior. En concreto, teniendo en cuenta las notaciones
A
i
, e
n
y O
N
introducidas en (2.12), (2.13) y (2.14) respectivamente, deducimos que
f(x
n
)
f

(x
n
)
= e
n
A
2
e
2
n
+ 2(A
2
2
A
3
)e
3
n
+ O
4
.
1
2
L
f
(x
n
)
1 L
f
(x
n
)
f(x
n
)
f

(x
n
)
= A
2
e
2
n
+ (2A
2
+ 3A
3
4A
2
2
)e
3
n
+ O
4
.
Por lo tanto,
e
n+1
= x
n+1
x

= x
n
x

f(x
n
)
f

(x
n
)

f(x
n
)
2f

(x
n
)
_
L
f
(x
n
)
1 L
f
(x
n
)
_
.
= e
n

_
e
n
A
2
e
2
n
+ 2(A
2
2
A
3
)e
3
n
_

_
A
2
e
2
n
+ (2A
2
+ 3A
3
4A
2
2
)e
3
n
_
+ O
4
= (A
3
)e
3
n
+ O
4
,
con lo que hemos demostrado el resultado.
Convergencia semilocal del mtodo super-Halley
En este acpite presentaremos un teorema de convergencia semilocal que aparece en la
tesis doctoral de [83]. En dicha tesis, el teorema aparece para funciones denidas en espacios
de Banach. En lo posterior daremos una versin para R. Al igual que en ocaciones anteriores,
para la convergencia semilocal del mtodo super-Halley asumiremos condiciones tipo Kanto-
rovich. En ese sentido, supondremos que f(x) es una funcin convexa dos veces diferenciable
en un conjunto convexo S R y adems que se cumplen las siguientes condiciones:
2.5. EL MTODO SUPER-HALLEY 87
[C
1
] Existe un punto x
0
S tal que 1/f

(x
0
) ,= 0.
[C
2
] [
f

(x)f

(y)
f

(x
0
)
[ k[x y[, x, y S, k 0.
[C
3
] El polinomio
p(t) =
k
6
t
3
+
b
2
t
2
t + a, a = [
f(x
0
)
f

(x
0
)
[, b = [
f

(x
0
)
f

(x
0
)
[,
tiene una raz negativa y 2 races positivas, r
1
, r
2
con r
1
< r
2
.
Teorema 2.31. Sea t
n
denida por
t
0
= 0, t
n+1
= t
n

f(t
n
)
2f

(t
n
)
2 L
f
(t
n
)
1 L
f
(t
n
)
,
la sucesin construida al aplicar el mtodo super-Halley al polinomio p(t). Si bajo las condi-
ciones 1) 3) se verica que
[x
n+1
x
n
[ t
n+1
t
n
, n 0,
entonces el mtodo super-Halley est bien denido y converge a x

solucin de f(x) = 0.
Demostracin. En lo adelante probaremos que para todo n 0 se cumple que
[I
n
] Existe un punto x
n
S tal que f

(x
n
) ,= 0.
[II
n
] [
f

(xn)
f

(x
0
)
[
p

(tn)
p

(t
0
)
.
[III
n
] [
f

(x
0
)
f

(xn)
[
p

(t
0
)
p

(tn)
.
[IV
n
] [
f(xn)
f

(x
0
)
[
p(tn)
p

(t
0
)
.
La demostracin se har por induccin. Notemos que para n = 0 se verican inmedia-
tamente las hiptesis. Asumamos que [I
n
],. . . ,[IV
n
] se cumplen, luego debemos probar que
[I
n+1
],. . . ,[IV
n+1
] tambin se verican.
Tomando en cuenta que L
f
(x
n
) ,= 0, en virtud del Lema de Altman sigue que
[L
f
(x
n
)[ [
f

(x
0
)
f

(x
n
)
[[
f

(x
n
)
f

(x
0
)
[[
f

(x
0
)
f

(x
n
)
[[
f(x
n
)
f

(x
0
)
[
p

(t
n
)p(t
n
)
p

(t
n
)
2
= L
p
(t
n
) <
1
2
.
En consecuencia, por el Lema de Banach se cumple
1
1L
f
(xn)
,= 0 y que
[1 L
f
(x
n
)[
1
1 L
p
(t
n
)
.
Esto garantiza la existencia del trmino siguiente, x
n+1
, en la sucesin.
88 CAPTULO 2. MTODOS ITERATIVOS
Comprobemos ahora que f

(n + 1) ,= 0. Notar que
1
f

(n + 1)
f

(x
0
)
=
_
x
n+1
x
0
f

(x)
f

(x
0
)
dx =
_
x
n+1
x
0
f

(x) f

(x
0
)
f

(x
0
)
dx
f

(x
x
0
)(x
n+1
x
0
)
f

(x
0
)
.
Luego, considerando a [C
1
], [C
2
] y [C
3
], sigue que
[1
f

(x
n+1
)
f

(x
0
)
[ [
_
1
0
f

(x
0
+ t(x
n+1
x
0
)) f

(x
0
)
f

(x
0
)
(x
n+1
x
0
)dt[ +[
f

(x
0
)
f

(x
0
)
[[x
n+1
x
0
[

k
2
[x
n+1
x
0
[
2
+ b[x
n+1
x
0
[
k
2
t
2
n+1
+ bt
n+1
= p

(t
n+1
) + 1 < 1.
Entonces, en virtud del Lema de Banach, se cumple que
f

(x
0
)
f

(x
n+1
)
,= 0 y adems
[
f

(x
0
)
f

(x
n+1
)
[
1
1 [1
f

(x
n+1
)
f

(x
0
)
[

1
p

(t
n+1
)
. (2.153)
Luego sigue que
1
f

(x
n+1
)
=
f

(x
0
)
f

(x
n+1
)
f

(x
0
) ,= 0.
Adems, tomando en cuenta a (2.153) sigue que
[
f

(x
0
)
f

(x
n+1
)
[ = [
f

(x
0
)
f

(x
n+1
)
[
1
p

(t
n+1
)
=
p

(t
0
)
p

(t
n+1
)
,
luego se verica [III
n+1
].
Finalmente, veamos que [IV
n+1
] tambin se cumple. Aplicando la tcnica de Altman y
aplicando el desarrollo de Taylor a f en relacin con x
n
sigue que
f(x
n+1
) = f(x
n
)+f

(x
n
)(x
n+1
x
n
)+
1
2
f

(x
n
)(x
n+1
x
n
)
2
+
_
x
n+1
xn
[f

(x)f

(x
n
)](x
n+1
x
n
)dx.
Como
x
n+1
x
n
= [1 +
1
2
L
f
(x
n
)
1
1 L
f
(x
n
)
]
f(x
n
)
f

(x
n
)
,
se sigue
f

(x
n
)(x
n+1
x
n
) = f(x
n
)
1
2
f

(x
n
)L
f
(x
n
)
1
1 L
f
(x
n
)
f(x
n
)
f

(x
n
)
= f(x
n
)
1
2
f

(x
n
)f(x
n
)f(x
n
)
f

(x
n
)f

(x
n
)
1
1 L
f
(x
n
)
.
Por tanto
f(x
n+1
) =
1
2
f

(x
n
)f(x
n
)f(x
n
)
f

(x
n
)f

(x
n
)
1
1 L
f
(x
n
)
+
1
2
f

(x
n
)(x
n+1
x
n
)
2
+
_
x
n+1
xn
[f

(x) f

(x
n
)](x
n+1
x
n
)dx =
1
2
f

(x
n
)f(x
n
)f(x
n
)
f

(x
n
)f

(x
n
)
1
1 L
f
(x
n
)
+
1
2
f

(x
n
)(
f(x
n
)
f

(x
n
)
)
2
+
1
8
f

(x
n
)(
L
f
(x
n
)f(x
n
)
f

(x
n
)
1
1 L
f
(x
n
)
)
2
+
1
2
f

(x
n
)f(x
n
)L
f
(x
n
)f(x
n
)
f

(x
n
)f

(x
n
)
1
1 L
f
(x
n
)
+
_
x
n+1
xn
[f

(x) f

(x
n
)](x
n+1
x
n
)dx.
2.5. EL MTODO SUPER-HALLEY 89
Haciendo
n
=
1
1L
f
(xn)
y y
n
=
L
f
(xn)f(xn)
f

(xn)

n
, sigue que
f(x
n+1
) =
1
8
f

(x
n
)(y
n
)
2
+
_
x
n+1
xn
[f

(x) f

(x
n
)](x
n+1
x
n
)dx.
As, usando que
[y
n
[ [L
f
(x
n
)[[
n
[[
f(x
n
)
f

(x
n
)
[
a
n
p(t
n
)
(1 a
n
)p

(t
n
)
,
donde a
n
= L
p
(t
n
) se tiene que
[
f(x
n+1
)
f

(x
0
)
[
1
8
p

(t
n
)
a
2
n
p(t
n
)
2
(1 a
n
)
2
p

(t
n
)
2
+[
_
1
0
f

(x
n
+ t(x
n+1
x
n
)) f

(x
n
)
f

(x
0
)
(x
n+1
x
0
)
2
(1 t)dt[

1
8
a
3
n
p(t
n
)
(1 a
n
)
2
+
k
6
[x
n+1
x
n
[
3

1
8
a
3
n
p(t
n
)
(1 a
n
)
2
+
k
6
(t
n+1
t
n
)
3
.
Notemos que procediendo de forma anloga con el polinomio p(t) se obtiene que
p(t
n+1
) =
1
8
a
3
n
p(t
n
)
(1 a
n
)
2
+
k
6
(t
n+1
t
n
)
3
,
luego
[
f(x
n+1
)
f

(x
0
)
[ p(t
n+1
),
por tanto se verica a [IV
n+1
], quedando demostrado teorema.
Convergencia global del mtodo super-Halley
En esta seccin nos referiremos nuevamente al teorema de convergencia global que aparece
en [88]. Notar que al sustituir en (2.106) el parmetro por la constante uno, = 1,
obtenemos la funcin de iteracin del mtodo super-Halley.
Teorema 2.32. Supongamos que f(x) es una funcin decreciente y convexa en un inter-
valo [0, x

], con f

(x) > 0 en [0, x

]. En estas condiciones, la sucesin dada por (2.152),


empezando en x
0
= 0 es creciente y converge a x

, solucin de f(x) = 0.
Demostracin. Llamamos
G(x) = x
_
1 +
1
2
L
f
(t)
1 L
f
(x)
_
f(x)
f

(x)
.
Se comprueba que G(x) es creciente en [0, x

]. En efecto,
G

(x) = L
f
(x)
1
2
L

f
(x)
_
1 L
f
(x)
_
2
f(x)
f

(x)

1
2
L
f
(x)
1 L
f
(x)
_
1 L
f
(x)
_
90 CAPTULO 2. MTODOS ITERATIVOS
= L
f
(x)
1
2
1
_
1 L
f
(x)
_
2
_
L
f
(x) +
f
2
(x)f

(x)
_
f

(x)
_
3
2L
2
f
(x)
_

1
2
L
f
(x)
1 L
f
(x)
+
1
2
L
2
f
(x)
1 L
f
(x)
=
1
2
1
_
1 L
f
(x)
_
2
f
2
(x)f

(x)
_
f

(x)
_
3
+
1
2
L
2
f
(x)
_
1 L
f
(x)
_
2
_
2L
f
(x) L
2
f
(x)
_
.
El primer sumando es positivo ya que f

(x) 0 y f

(x) < 0 para x [0, x

]. El segundo
sumando es positivo si lo es
2L
f
(x) L
2
f
(x) = L
f
(x).
Por el lema de Altman, si f es decreciente y convexa, y adems verica f

(x) 0 para
x [0, x

], tenemos que 0 L
f
(x) < 1/2 si x [0, x

].
En consecuencia tenemos que G

(x) > 0.
Luego, G(x) es una funcin creciente en el intervalo [0, x

]. De aqu se sigue que la sucesin


x
n
est acotada por x

. En efecto, x
1
= G(x
0
) = G(0) < G(x

) = x

, y por induccin se
sigue que x
n
< x

, n N. Como adems
x
n+1
x
n
=
_
1 +
1
2
L
f
(x
n
)
1 L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
0
se tiene que x
n
tambin es creciente, y por tanto convergente.
2.6. El mtodo de la Secante
Uno de los mtodos ms utilizados para resolver ecuaciones no lineales es el mtodo de
Newton:
x
n+1
= x
n

f(x
n
)
f

(x
n
)
, n = 0, 1, 2, 3, . . . (2.154)
Sin embargo, si la funcin no es diferenciable o es difcil de calcular su derivada, este
mtodo no es favorable. Una alternativa para solucionar este inconveniente es considerar las
diferencias divididas. La denicin de diferencia dividida de un operador fue introducida
por J. Schrder, consltese [162] y representa una generalizacin de la denicin usual de
diferencia dividida de una funcin escalar. De acuerdo con [162], una funcin lineal y acotada
[x, y; f] : I R se dice que es una diferencia dividida de primer orden para la funcin f en
los puntos x e y, x ,= y, si cumple la igualdad siguiente:
[x, y; f] =
f(x) f(y)
(x y)
.
Para conocer ms sobre la existencia de las diferencias divididas, vase tambin a [21] y [181].
Esta funcin se ha aplicado para estudiar el mtodo de la Secante, el cual parte de dos puntos
y estima su tangente de acuerdo a la ecuacin
f

(x) =
f(x
n
) f(x
n1
)
x
n
x
n1
. (2.155)
2.6. EL MTODO DE LA SECANTE 91
Sustituyendo (2.155) en la ecuacin (2.5) del mtodo de Newton-Raphson, se obtiene como
resultado la recurrencia
x
n+1
= x
n

x
n
x
n1
f(x
n
) f(x
n1
)
f(x
n
), n 1. (2.156)
Continuando con los esquemas anteriores, en lo adelante revisaremos la evolucin histrica
del mtodo de la Secante, la tcnica para deducirlo y analizaremos algunos resultados que
garanticen su convergencia.
2.6.1. Notas histricas sobre el mtodo de la Secante
En [195] encontramos que este mtodo fue utilizado en el siglo XV I por Vite (15401603)
y ms tarde por Descartes (1596 1650).
Figura 2.14: Francis Vite (1540 1603) y Ren Descartes (1596 1650).
De acuerdo a [195], los trabajos de Vite, concernientes a la solucin numrica de una
ecuacin polinomial mnica no lineal, fueron publicados por primera vez en 1600, en el libro
De numerosa potestatum, en la ciudad de Pars. Luego, en 1646 apareci en una coleccin
de trabajos de Vite recopilada por Fran Van Schooten bajo el ttulo Francisci Vietae Opera
Mathematica y ms tarde, en 1647, fueron publicados en varias ediciones de los trabajos de
Oughtred bajo el ttulo Clavis Mathematicae. Newton tuvo acceso, tanto a la coleccin de
Schooten como a la tercera edicin del libro de Oughtred, publicada en Oxford en 1652, lo
cual constituye una primera seal de que l estaba muy interesado en el estudio de la solucin
numrica de una ecuacin no lineal.
No fue sino hasta el ao 1665 cuando en una coleccin de notas no publicadas tituladas
El libro de los residuos de Newton, que apareci la demostracin de una tcnica dada por
Newton que podra ser identicada como el mtodo de la Secante para resolver ecuaciones
92 CAPTULO 2. MTODOS ITERATIVOS
no lineales. La misma se basa en la semejanza de los tringulos que se forman cuando una
Secante corta a la curva de una funcin.
Por otro lado, existe una informacin, documentada por Carlos Surez Alemn [176],
en la cual se establece la invencin del mtodo de la Secante al matemtico espaol Jos
Mariano Vallejo y Ortega (17791846). Vallejo naci en Albuuelas, Granada. De acuerdo
a esta fuente, Vallejo, en su obra Compendio de Matemticas puras y mixtas, publicada en
1819, en concreto, en la edicin de 1835 formula el mtodo de manera completa.
Figura 2.15: Sir Isaac Newton (1643 1727) y Jos Mariano Vallejo (1779 1846).
Tras un breve recorrido histrico de los diferentes mtodos de resolucin numrica de
ecuaciones y sus variantes aportados por Vite, Harriot, Ougtred, Pell, Newton, Halley, Lag-
ni, Raphson, Jacques y Johann Bernoulli, Daniel Bernoulli, Euler, Lagrange y Budan de
Boislaurent, Vallejo indica que estos mtodos necesitan de los conocimientos ms sublimes de
las Matemticas mientras que su propio mtodo slo necesita de conocimientos elementales
de la Aritmtica. Tomando esto en cuenta, Surez [176] considera a Jos Mariano Vallejo y
Ortega como el primero que enuncia el mtodo de la Secante para resolver numricamente
ecuaciones polinmicas de cualquier grado, ya que no se ha encontrado ningn otro autor
que incluya este mtodo en alguna obra de fecha anterior a 1835.
El mtodo de Vallejo est basado en la combinacin de dos importantes ideas: el mtodo
de la Falsa Posicin y la iteracin. De acuerdo a [176], antes de dar inicio a la demostracin
de su mtodo, Vallejo [184] enuncia los siguientes resultados, los cuales eran conocidos a esa
fecha:
1. Toda ecuacin de grado impar, tiene al menos una raz real de signo contrario al de su
ltimo trmino.
2.6. EL MTODO DE LA SECANTE 93
2. Toda ecuacin de grado par, cuyo ltimo trmino es negativo, tiene al menos dos races
reales, una positiva y otra negativa.
3. La ecuacin en que todos los exponentes de la incgnita sean nmeros pares, y su ltimo
trmino sea negativo, tendra al menos dos races reales de igual valor numrico; una
positiva y otra negativa.
4. La ecuacin en que todos los exponentes sean nmeros pares y todos los coecientes
sean nmeros positivos, no tiene ninguna raz real; y todas sern imaginarias.
De acuerdo a [176], Vallejo [184], para resolver una ecuacin polinmica con coecientes
reales de cualquier grado, establece el siguiente procedimiento:
1. Sea f(x) = 0, siendo f(x) una ecuacin polinmica con coecientes reales. Considrese
como primeras aproximaciones de la raz 1 y 2. En caso de que sus imgenes sean
iguales, se toman como aproximaciones a 1 y 3 o 1 y 4, etc. As hasta que las dos
primeras tengan imgenes distintas.
2. Procedimiento para determinar una nueva aproximacin a partir de las dos ltimas
aproximaciones a
i
y b
i
.
a) Si [f(a
i
)[ [f(b
i
)[, entonces
c
i
= a
i
+
f(a
i
)(b
i
a
i
)
f(a
i
) f(b
i
)
.
b) Si [f(a
i
)[ > [f(b
i
)[, entonces
c
i
= b
i
+
f(b
i
)(a
i
b
i
)
f(b
i
) f(a
i
)
.
3. Comprobacin de la raz.
Se considera que c
i
es una raz si [f(c
i
)[ < 10
n
, n N, en cuyo caso se divide a f(x)
por x c
i
y se inicia el procedimiento de nuevo con el cociente.
4. Eleccin del nuevo intervalo.
a) En el caso de que f(c
i
) f(a
i
) < 0 y f(c
i
) f(b
i
) > 0, el nuevo intervalo es [a
i
, c
i
],
esto es a
i+1
= a
i
y b
i+1
= c
i
.
b) En el caso de que f(c
i
) f(a
i
) > 0 y f(c
i
) f(b
i
) < 0, el nuevo intervalo es [c
i
, b
i
],
esto es a
i+1
= c
i
y b
i+1
= b
i
.
c) En el caso de que f(c
i
) f(a
i
) < 0 y f(c
i
) f(b
i
) < 0, puede adoptarse uno
cualquiera de los casos siguientes:
94 CAPTULO 2. MTODOS ITERATIVOS
a
i+1
= c
i
y b
i+1
= a
i
, si c
i
< a
i
.
a
i+1
= a
i
y b
i+1
= c
i
, si a
i
< c
i
< b
i
y [c
i
a
i
[ < [b
i
c
i
[.
a
i+1
= c
i
y b
i+1
= b
i
, si a
i
< c
i
< b
i
y [c
i
a
i
[ > [b
i
c
i
[.
a
i+1
= b
i
y b
i+1
= c
i
, si b
i
< c
i
.
d) En el caso de que f(c
i
) f(a
i
) > 0 y f(c
i
) f(b
i
) > 0, es decir, los tres valores
tienen el mismo signo:
1) Si [f(c
i
)[ mn[f(a
i
)[, [f(b
i
)[
(a) Si existe N, con N = 10
k
con k N tal que:
f(N) f(a
i
) < 0, entonces se toma como nuevo lmite del intervalo
a
i+1
= a
i
y b
i+1
= N.
f(N) f(b
i
) < 0, entonces se toma como nuevo lmite del intervalo
a
i+1
= N y b
i+1
= b
i
.
(b) En caso contrario se busca una raz real r de f

(r) tal que f(r)f(a


i
) < 0
y se toma como nuevo intervalo el formado por r y el valor ms cercano a
l de todos los a
i
, b
i
, c
i
encontrados anteriormente.
(c) Si no existe raz real, r, de f

(x) tal que f(r) f(a


i
) < 0, el polinomio
f(x) no tiene races reales.
2) Si [f(c
i
)[ < mn[f(a
i
)[, [f(b
i
)[, se toma como nuevo intervalo el formado
por:
Si [f(a
i
)[ < [f(b
i
)[, entonces a
i+1
= a
1
y b
i+1
= c
i
.
Si [f(a
i
)[ > [f(b
i
)[, entonces a
i+1
= c
1
y b
i+1
= b
i
.
Para un anlisis ms profundo del mtodo de la Secante, segn Vallejo, lase nuevamente
a [176] y [184]
2.6.2. Descripcin del mtodo de la Secante
El mtodo de la Secante, es una relacin recurrente que se aplica para resolver ecuaciones
no lineales, teniendo como principal ventaja el hecho de que tan slo necesita que la funcin
sea de variable real. En lo que sigue mostraremos algunas construcciones que desembocan en
la obtencin del mtodo de la Secante.
Construccin analtica del mtodo de la Secante
El mtodo de la Secante puede ser obtenido analizando la frmula que se obtiene cuando
una recta toca dos puntos de la grca de una funcin. Existen una inmensa cantidad de
libros y artculos en los que se presenta esta forma de deducir la expresin (2.156). Parte de
la deduccin siguiente aparece en [77], [107], [113], [133], [135], [138], [141], [153] y [163].
2.6. EL MTODO DE LA SECANTE 95
Sean x
0
y x
1
dos puntos, entonces la ecuacin de la secante que pasa a travs de esos
puntos a la curva y = f(x) es
y f(x) =
f(x
1
) f(x
0
)
x
1
x
0
(x x
1
).
Si y = 0, entonces obtenemos una nueva aproximacin dada por
x
2
= x
1

x
1
x
0
f(x
1
) f(x
0
)
f(x
1
).
Repitiendo el proceso, se llega a la frmula general de las aproximaciones sucesivas cono-
cida como el mtodo de la Secante:
x
n+1
= x
n

x
n
x
n1
f(x
n
) f(x
n1
)
f(x
n
), n 1. (2.157)
Construccin geomtrica del mtodo de la Secante
El mtodo de la Secante, tal y como se muestra en la Figura 2.16, puede ser derivado
geomtricamente.
x
f x
f xn
f x
n1

B
A
xn x
n1
x
n1
C
D M
Figura 2.16: Interpretacin geomtrica del mtodo de la Secante
Tomando 2 puntos iniciales, x
n1
y x
n
, dibujamos una lnea recta entre f(x
n
) y f(x
n1
)
pasando a travs del eje X en x
n+1
, obtenindose que ABM DCM, por lo tanto
AB
AM
=
DC
DM

f(x
n
)
x
n
x
n+1
=
f(x
n1
)
x
n1
x
n+1
.
De donde se obtiene a (2.157)
Aproximando la derivada del mtodo de Newton
Al principio de esta seccin sealamos que una de las mayores desventajas que presenta
el mtodo de Newton es que aplica la derivada de la funcin que se plantea resolver. Con
96 CAPTULO 2. MTODOS ITERATIVOS
la intencin superar esta desventaja se han propuesto una serie de mtodos, como el de
Steensen [172], cuya funcin de iteracin viene dada por
x
n+1
= x
n

f(x
n
)
2
f(x
n
+ f(x
n
)) f(x
n
)
.
Pero el mtodo de Steensen es de limitada aplicacin, pues su extensin a operadores
denidos en espacios de Banach slo es posible cuando el espacio donde est contenido el
dominio es el mismo que el de llegada.
Otra manera de mejorar el mtodo de Newton es aproximar la derivada de la funcin
mediante una frmula numrica dada por
f

(x
n
)
f(x
n
) f(x
n1
)
x
n
x
n1
,
que al ser sustituida en (2.5) se obtiene el algoritmo del mtodo de la Secante.
Por otro lado, notemos que podemos derivar el mtodo de la Secante a partir del anlisis
de una familia uniparamtrica de procesos iterativos denidos por
_
_
_
S
n
= x
n
+ (1 )x
n1
, [0, 1], n 0.
x
n+1
= x
n

Snxn
f(Sn)f(xn)
f(x
n
), n 0.
Notemos que para = 0 obtenemos el mtodo de la Secante, mientras que para = 1, el
mtodo de Newton.
2.6.3. Convergencia del mtodo de la Secante
Dado el hecho de que el mtodo de la secante no siempre converge, se hace necesario
establecer una serie de condiciones que aseguren dicha convergencia. En este acpite mostra-
remos algunos ejemplos de convergencia local y semilocal y global. No es de nuestro inters
hacer un estudio profundo de estos ejemplos, sino dar una visin bsica de los mismos. Para
un estudio profundo de los mismos ver [15], [16], [17], [36], [59], [77], [107], [113], [133], [135],
[138], [141], [153], [163], [173] [177] y [194].
Convergencia local del mtodo de la Secante
La convergencia local del mtodo de la Secante puede ser vista como una variacin del
mtodo de Newton-Raphson, en donde la derivada de la funcin es reemplazada por su
incremento:
f

(x
n
) =
f(x
n
) f(x
n1
)
x
n
x
n1
. (2.158)
El anlisis de convergencia de un mtodo est basado en la caracterizacin de la evolucin
de la sucesin del error. e
0
, e
1
, e
2
, . . . , donde e
n
= x

x
n
. Recordar que un mtodo es
convergente si cumple que
lm
n
[e
n
[ = 0. (2.159)
2.6. EL MTODO DE LA SECANTE 97
En trminos ms precisos, decimos que un mtodo tiene un orden de convergencia p, si
existe C
n
tal que
lm
n
[e
n+1
[ C
n
, (2.160)
donde C
n
representa la constante de error asinttico.
Asumiendo que el mtodo es convergente, el orden de convergencia se analiza aplicando
los siguientes polinomios de Taylor:
f(x
n
) = f

(x

)e
n
+
1
2
f

(x

)(e
n
)
2
+ O([e
n
[
3
) (2.161)
f

(x
n
) = f

(x

) f

(x

)(e
n
) +O([e
n
[
2
). (2.162)
Parte del teorema que presentamos a continuacin aparece en [59].
Teorema 2.33. Sean x
0
y x
1
dos aproximaciones a una raz simple x

de f(x) = 0, tales
que f(x
1
)f(x
2
) > 0, entonces
x
n+1
= x
n

x
n
x
n1
f(x
n
) f(x
n1
)
f(x
n
) para n 1, (2.163)
converge a x

con una constante de error asinttico igual a

(x

)
2f

(x

1/p
,
donde p =
1+

5
2
es el orden de convergencia.
Demostracin. De (2.155) obtenemos
e
n+1
=
(e
n1
)f(x
n
) (e
n
)f(x
n1
)
f(x
n
) f(x
n1
)
. (2.164)
Luego, sustituyendo (2.161) y (2.162) en (2.164) sigue
e
n+1
=
1
2
f

(x

)e
n
e
n1
+ O([e
n
[
4
)
f

(x

) +
1
2
f

(x

)(e
n
+ e
n1
) +O([e
n
[
3
)
. (2.165)
Notar que O([e
n1
[
r
) mayoriza al trmino O([e
n
[
r
) para r = 3 y r = 4. Luego, la forma
asinttica de (2.165), cuando n es
e
n+1

=
e
n1
e
n
2!
f

(x

)
f

(x

)
, (2.166)
luego
[e
n+1
[ = C
n
[e
n
e
n1
[, donde C = lm
n
C
n
= 1/2[f

(x

)f

(x)[,
por tanto (2.163) converge a x

.
Para determinar el orden de convergencia necesitamos determinar un numero p tal que
lm
n
[e
n+1
[
[e
n
[
p
= C,
98 CAPTULO 2. MTODOS ITERATIVOS
para cualquier constante C no nula. Como
[e
n+1
[
[e
n
[
p
= C
n
[e
n
[
1p
[e
n1
[ = Cn
_
[e
n
[
[e
n1
[
p
_

, (2.167)
haciendo a = 1 p p = 1, esto es, haciendo que p
2
p 1 = 0.
La ecuacin p
2
p 1 = 0 tiene como raz simple a p =
1+

5
2
= 1.618 . . . .
Esto muestra que
[e
n+1
[
[e
n
[
p

= C
1
p
=

(x

)
2f

(x

1
p
,
con n lo sucientemente grande y p = 1.618 . . . .
Por tanto el mtodo de la Secante exhibe una convergencia superlineal y su constante de
error asinttica es

(x

)
2f

(x

1/p
.
En [191] aparece un interesante teorema de convergencia local en el cual se aplica la
teora. Dado lo novedoso del mismo, lo presentamos a continuacin, pero para funciones
reales.
Previo a la demostracin del teorema de convergencia local aplicando la teora, Ya-
koubsohn demuestra la siguiente
Proposicin 2.34. Sea x

una raz de f. Para y, z R consideremos las cantidades


u = (f, f

(x

), x

)[x

y[.
v = (f, f

(x

), x

)[x

z[.
Supongamos que (u, v) > 0, entonces, el punto
z

= z
f(z)(z y)
f(z) f(y)
,
est bien denido y
[z

[ S(u, v)[z x

[
Adems toma en cuenta las siguientes cantidades:
u = (f, f

(x

), x

)[x
0
x

[ y v = (f, f

(x

), x

)[x
1
x

[,
donde x

es una raz de f y x
0
, x
1
son dos puntos en R. Tambin aplica la funcin
S(u, v) =
u
(1 2u 2v + 2uv)
, (u, v) = 1 2u 2v + 2uv
y la sucesin de Fibonacci
i
1
= 0, i
0
= 1, i
n+1
= i
n
+ i
n1
, n 0.
2.6. EL MTODO DE LA SECANTE 99
Teorema 2.35 (Teorema de convergencia local de Yakoubsohn, aplicando la teora). Sean
x
0
, x
1
R dos puntos tales que para
u = (f, f

(x

), x

)[x
0
x

[ y v = (f, f

(x

), x

)[x
1
x

[,
se cumple que
1 3u 2v + 2uv > 0, y 1 2u 3v + 2uv > 0.
Entonces la sucesin del mtodo de la Secante denida por
x
n+1
= x
n

f(x
n
)
[x
n
, x
n1
]
, n 1,
est bien denida y para todo n 2 se cumple que
[x
n
x

[ S(u, v)
i
n1
1
S(u, v)
i
n2
[x
1
x

[
S(u, v)
i
n1
S(u, v)
i
n2
1
[x
0
x

[. (2.168)
Demostracin. La demostracin se har por induccin.
Notemos que la desigualdad 1 3u 2v +2uv > 0 implica que S(u, v) < 1 y (u, v) > 0.
Asimismo, la desigualdad 1 2u 3v + 2uv > 0 implica que S(u, v) < 1.
Por otro lado tenemos que
[x
1
x

[ = S(u, v)
i
0
1
S(u, v)
i
1
[x
1
x

[ = S(u, v)
i
0
S(u, v)
i
1
1
[x
0
x

[,
de ah se cumple que para n = 1.
Supongamos que la desigualdad 2.168 se cumple i, 2 i n. En consecuencia tenemos
que
[x
i
x

[ [x
1
x

[ y [x
i
x

[ [x
0
x

[.
Por lo tanto el punto
((f, f

(x

), x

)[x
i1
x

[, (f, f

(x

), x

)[x
i
x

[) (u, v) > 0.
y por la Proposicin 2.34, el punto x
n+1
est bien denido y cumple que
[x
n+1
x

[ S((f, f

(x

), x

)[x
n1
x

[, (f, f

(x

), x

)[x
n
x

[)[x
n
x

[.
Por ltimo, aplicando la hiptesis de induccin y la denicin de sucesin de Fibonacci,
sigue
[x
n+1
x

[
(f, f

(x

), x

)
((f, f

(x

), x

)[x
n1
x

[, (f, f

(x

), x

)[x
n
x

[))
[x
n1
x

[[x
n
x

[.


(u, v)
S(v, u)
i
n1
1
S(u, v)
i
n2
[x
1
x

[S(v, u)
i
n2
1
S(u, v)
i
n3
[x
1
x

[.
S(v, u)
in1
S(u, v)
i
n1
[x
1
x

[.
La desigualdad
[x
n+1
x

[ S(v, u)
in
S(u, v)
i
n1
1
[x
0
x

[,
se obtiene de forma similar a la anterior y con ella se completa la demostracin.
100 CAPTULO 2. MTODOS ITERATIVOS
Convergencia semilocal del mtodo de la Secante
El estudio de la convergencia semilocal del mtodo de la Secante ha sido ampliamente
desarrollado, para muestra, vase a [100], [101], [155], [191]. En esta seccin demostraremos
algunos teoremas de convergencia semilocal del mtodo de la Secante que aparecen en [191],
como una versin en R que podrn ser extendida a espacios generales o ecuaciones denidas
en espacios de Banach.
En lo que sigue aplicaremos el anlisis de Kantorovich y la teora de Smale tal y como
se se presenta en [111] y [169]. Recordemos que las condiciones de convergencia semilocal tipo
Kantorovich estn condicionadas por la convergencia de una sucesin real s
n

n=0
asociada
a la funcin mayorizante h(t) denida por
h(t) = b 2t +
t
1 gt
, (2.169)
donde b y g son dos nmero positivos y reales. Por, conveniencia representaremos a (2.169)
mediante una funcin denida por
h

() = gh(

g
) = a 2 +

1
, (2.170)
donde a = bg.
Notar que (2.170) es una funcin convexa en el intervalo [0, 1[. A lo largo de esta seccin
asumiremos que la desigualdad a < 3 3

2 se cumple. Notemos tambin que bajo estas


condiciones, la funcin (2.170) tiene dos races
1
<
2
dadas por

i
=
a + 1
_
(a + 1)
2
8a
4
, i = 1, 2, . . . (2.171)
Recordar tambin que la la funcin de iteracin del mtodo de la Secante, en trminos de
diferencia dividida est dada por
x
n+1
= x
n

f(x
n
)
[x
n
, x
n1
]
, [x
n
, x
n1
] =
f(x
n
) f(x
n1
)
x
n
x
n1
, (2.172)
luego, el mtodo de la Secante aplicado a la funcin mayorizante (2.170) viene dado a partir
de
_

_
x
0
= 0, 0 < x
1
<
1
,
x
n+1
= x
n

(x
n
x
n1
)h(x
n
)
h(x
n
) h(x
n1
)
,
(2.173)
Teorema 2.36 (Teorema de Yakoubsohn bajo condiciones tipo Kantorovich). Consideremos
la sucesin del mtodo de la Secante x
n

n0
asociada a la funcin h

() :
x
0
= 0, 0 < x
1
<
1
,
2.6. EL MTODO DE LA SECANTE 101
x
n+1
= x
n

(x
n
)
[x
n
, x
n1
]h

. (2.174)
Denamos tambin para todo n 0 las sucesiones
u
n
=
(x
n

1
)
(x
n

2
)
(2.175)
q =
(1
2
)
1
(1
1
)
2
. (2.176)
Adems consideremos la sucesin de Fibonacci:
i
0
= i
1
= 1, y i
n+1
= i
n
+ i
n1
, n 1.
Entonces la sucesin x
n

n>0
es estrictamente creciente y converge hacia
1
. La velocidad
de convergencia de esta sucesin est dada por:
u
n+1
= (
q
u
0
)u
n
u
n1
(
u
0
q
)q
i
n+1
, n 1. (2.177)

1
x
n+1
= (
(
2

1
)
(1 u
n+1
)
)u
n+1
(

1
1 u
1
)u
1
q
i
n+1
1
= (
1
x
1
)q
i
n+1
1
, n 0. (2.178)
x
n+1
x
n
= (
(
2

1
)
(1 u
n
)(1 u
n+1
)
)(1 (
q
u
0
)u
n1
)u
n
aq
in1
, n 1 (2.179)
s
n
=
x
n
g.
(2.180)
Demostracin. Sea h

() =
2(
1
)(
2
)
1
. Sustituyendo en (2.174) se sigue
x
n+1
= x
n

2(xn
1
)(xn
2
)
1xn
h

(xn)h

(x
n1
)
xnx
n1
= x
n

(x
n

1
)(x
n

2
)(x
n
x
n1
)(1 x
n1
)
(x
n

1
)(x
n

2
)(1 x
n1
) (x
n1

1
)(x
n1

2
)(1 x
n
)
.
=
x
n1
(x
n

1
)(x
n

2
)(1 x
n1
) x
n
(x
n1

1
)(x
n1

2
)(1 x
n
)
(x
n

1
)(x
n

2
)(1 x
n1
) (x
n1

1
)(x
n1

2
)(1 x
n
)
Luego
x
n+1

1
=
(x
n

1
)(x
n1

1
)[(x
n1

2
)(1 x
n
) (x
n

2
)(1 x
n1
)]
(x
n1

1
)(x
n1

2
)(1 x
n
) (x
n

1
)(x
n

2
)(1 x
n1
)
(2.181)
Notar que
[(x
n1

2
)(1 x
n
) (x
n

2
)(1 x
n1
)] = x
n1
+ x
n

2
x
n
x
n1

2
.
= x
n1
(1
2
) x
n
(1
2
).
= (1
2
)(x
n1
x
n
). (2.182)
102 CAPTULO 2. MTODOS ITERATIVOS
Por otro lado, del denominador de la parte derecha de (2.181) se obtiene
= (x
2
n1
x
n1

2
x
n1

1
+
1

2
)(1 x
n
) (x
2
n
x
n

2
x
n

1
+
1

2
)(1 x
n1
).
= x
2
n1
x
2
n
x
n1

2
+ x
n

2
x
n1

1
+ x
n

1
x
2
n1
x
n
+ x
2
n
x
n1
x
n

2
+ x
n1

2
.
= (x
n1
x
n
)(x
n
+ x
n1
x
n
x
n1
+
1

2
). (2.183)
Luego, sustituyendo (2.182) y (2.183) en (2.181), sigue que
x
n+1

1
=
(x
n

1
)(x
n1

1
)(1
2
)
x
n
+ x
n1
x
n
x
n1
+
1

2
. (2.184)
De forma similar se obtiene para x
n+1

2
la expresin:
x
n+1

2
=
(x
n

2
)(x
n1

2
)(1
1
)
x
n
+ x
n1
x
n
x
n1
+
1

2
. (2.185)
De (2.175) sigue que
u
n+1
=
x
n+1

1
x
n+1

2
(2.186)
u
n1
=
x
n1

1
x
n1

2
u
0
=

1

2
Sustituyendo a (2.184) y (2.185) en (2.186) sigue que
u
n+1
= cu
n
u
n1
, (2.187)
donde c = q/u
0
.
Si u
1
< u
0
, luego en (2.187) se cumple que
u
n+1
=
1
c
(cu
1
)
in
(cu
0
)
i
n1

1
c
(cu
0
)
i
n+1
= (
u
0
q
)q
i
n+1
.
Con esto se comprueba la primera parte del teorema.
Notemos que
(
2

1
)
(1 u
n+1
)
u
n+1
=

2

1
1
x
n+1

1
x
n+1

2
x
n+1

1
x
n+1

2
=
(
2

1
)(x
n+1

1
)
(
1

2
)
=
1
x
n+1
.
Recordar que para u
1
< u
2
, se cumple que (cu
1
)
in
(cu
0
)
i
n1
(cu
0
)
i
n+1
= q
i
n+1
q
i
n+1
/q
Luego,

1
x
n+1


2

1
1 u
1
u
1
q
i
n+1
1
= (
1
x
1
)q
i
n+1
1
, n 0.
2.6. EL MTODO DE LA SECANTE 103
Luego la segunda parte del teorema est demostrada.
La tercera parte del teorema se deriva de clculos sencillos. Vamos a probar la desigualdad
de la tercera parte.
Dado que la sucesin u
n
es decreciente y que para c = q/u
0
la funcin u (1cu/(1
u)) es creciente, en consecuencia

1
(1 u
n
)(1 u
n+1
)
(1cu
n1
)

2

1
(1 u
n
)(1 u
n+1
)
(1cu
n
)

2

1
(1 u
0
)(1 qu
0
)
(1q) = a
Por otra parte, tenemos que Yakoubsohn, [191], tambin nos presenta un novedoso teorema
de convergencia semilocal a partir de las condiciones de la teora de Smale, [170]. Recordar
que los criterios de convergencia semilocal de la teora de Smale vienen dados a partir de
3 invariantes de la forma:
(f, f

(x
0
), x) = [[f

(x
0
)
1
f(x)[[.
(f, f

(x
0
), x) = sup
n2
_
[[
f

(x
0
)
1
f
n
(x)
n!
[[
_ 1
(n1)
,
(f, f

(x
0
), x) = (f, f

(x
0
), x)(f, f

(x
0
), x).
donde x E y f

(x
0
) : E F es un un operador lineal invertible y acotado denido entre
dos espacios de Banach.
Previo a la demostracin de dicho teorema, Yakoubsohn demuestra los siguientes
Lema 2.37. Sea
b =
1 2(
0

1
)
1 (
0

1
)

0
, (2.188)
g = (f, A, x
0
). (2.189)
Supongamos que bg < 3 2

2. Si 0 < t < t
1
, entonces:
a) 1 = h

(0) <
h(t)h(0)
t0
< 0.
b) 0 <
h(t)h(0)
t0
+ 1 < 1.
Lema 2.38. Sea x
0
R, luego
1. Para algn x
1
R supongamos que
A :=
f(x
1
) f(x
0
)
x
1
x
0
es invertible.
104 CAPTULO 2. MTODOS ITERATIVOS
Para i 0, 1 denimos a
i
= (f, A, x
i
), y asumamos que
1
i
[x
0
x
1
[ > 0, 1
i
[y x
i
[ > 0,
para algn y R. Adems, supongamos que
B :=
f(y) f(x
0
)
y x
0
,
para algn y R. Entonces
[
B
A
1[

i
[y x
1
[
(1
i
[x
0
x
1
[)(1
i
[y x
i
[)
.
En adiccin, si
(1
i
[x
0
x
1
[)(1
i
[y x
i
[) >
i
[y x
1
[,
entonces B es invertible y se cumple que
[
A
B
[
(1
i
[x
0
x
1
[)(1
i
[y x
i
[)
(1
i
[x
0
x
1
[)(1
i
[y x
i
[)
i
[y x
1
[
.
2. Supongamos que f

(x
i
) es invertible para i 0, 1, y denamos a = (f, f

(x
i
), x
i
).
Asumamos que para algunos x, y R se dene

B :=
f(y)f(x)
yx
y se cumple que
1 [x x
i
[ > 0, 1 [y x
i
[ > 0.
Entonces
[

B
f

(x
i
)
1[
1
(1 [x x
i
[)(1 [y x
i
[)
1.
Adems, si
2(1 [x x
i
[)(1 [y x
i
[) 1 > 0,
entonces

B tiene inversa y se cumple que
[
f

(x
i
)

B
[
(1 [x x
i
[)(1 [y x
i
[)
2(1 [x x
i
[)(1 [y x
i
[) 1
3. En particular, si f

(x
0
) es invertible, entonces

B :=
f(y) f(x
0
)
y x
0
es invertible para todo y tal que
2[y x
0
[ < 1, = (f, f

(x
0
), x
0
).
Por otra parte tenemos que
[
f

(x
0
)

B
[
1 [y x
0
[
1 2[y x
0
[
.
2.6. EL MTODO DE LA SECANTE 105
4. Recprocamente, si A es invertible y si
2
0
[x
0
x
1
[ < 1,
0
= (f, A, x
0
),
entonces f

(x
0
) es invertible y se cumple que
[
A
f

(x
0
)
[
1
0
[x
1
x
0
[
1 2
0
[x
1
x
0
[
.
Lema 2.39. Sea A un operador lineal acotado de R y
i
= (f, A, x
i
), i o, 1. Asumamos
que
x
2
= x
1

(x
1
x
0
)f(x
1
)
f(x
1
) f(x
0
)
,
entonces se cumple que
[
f(x
2
)
A
[

i
[x
2
x
1
[[x
2
x
0
[
(1
i
[x
2
x
i
[)(1
i
[x
1
x
i
[)(1
i
[x
0
x
i
[)
, i 0, 1.
En esta parte seguiremos considerando la funcin h(t) dada en (2.169) con b, g dados en
(2.188 ) y (2.189). Adems, consideraremos la sucesin s
n

n0
con s
0
= 0 y s
1
=
0

1
.
Veamos a continuacin el teorema
Teorema 2.40 (Teorema de Yakoubsohn bajo condiciones de Smale). Sean x
0
y x
1
dos
puntos dados en R tales que f

(x
0
) es invertible. Si
2[x
1
x
0
[ < 1. (2.190)
b < 3 2

2. (2.191)
0
0

1
t
1
. (2.192)
Entonces
1. La funcin h(t) tiene dos races positivas, t
1
< t
2
y la sucesin s
n

n0
converge a t
1
.
2. La funcin analtica f tiene una solucin x

(x
0
, t
1
).
3. La sucesin del mtodo de la Secante est bien denida y converge a x

. Adems, para
toda n 1
[x
n+1
x
n
[ s
n+1
s
n
y [x
n
x

[ t
1
s
n
Vamos a dar la signicacin de las hiptesis del teorema anterior. La condicin (2.190)
asegura que la diferencia dividida
[x
1
, x
0
] :=
f(x
1
f(x
0
))
x
1
x
0
es invertible. La desigualdad dada a partir de (2.191) implica que la funcin h(t) tiene dos
races positivas, por tanto se pueden asumir las condiciones de Kantorovich. La condicin
(2.192) nos permite establecer que s
n

n0
es una sucesin creciente y convergente a t
1
106 CAPTULO 2. MTODOS ITERATIVOS
Demostracin. Para demostrar que
[x
n+1
x
n
[ s
n+1
s
n
,
procederemos por induccin. Por la hiptesis sabemos que la derivada en el punto x
0
es
invertible, y por el Lema 2.38, parte 3, y tomando en cuenta que
1 2[x
1
x
0
[ > 0,
podemos armar que [x
1
, x
0
] es invertible y que el punto x
2
est bien denido. Notemos que
la funcin h(t) y la sucesin s
n

n0
nos permiten establecer que
[x
2
x
0
[ =
0
= s
2
s
0
= s
2
y [x
2
x
1
[ =
1
= s
2
s
1
.
La desigualdad (2.191) implica que la funcin h(t) tiene dos races positivas, t
1
< t
2
.
Luego, de 0 s
1
=
0

1
< t
1
, sigue que la sucesin s
n

n0
es creciente y converge a t
1
.
Supongamos ahora que para toda j, con 2 j n se cumple que
[x
j
x
j1
[ s
j
s
j1
.
Primero demostraremos que x
n+1
est bien denido, es decir, que [x
n
, x
0
] es invertible. En
ese sentido tenemos que
[x
n
x
0
[
n

j=3
[x
j
x
j1
[ +[x
2
x
0
[. (2.193)

j=3
s
j
s
j1
+ s
2
s
0
= s
n
. (2.194)
Esto implica que
[x
n
x
0
[ < t
1
<
(b + 1)
4
.
De b < 3 1

2 sigue que
[x
n
x
0
[ < 1

2
2
.
Esta desigualdad tambin se cumple para n 1. Por tanto
[x
n
x
0
[ < 1 < 1
1
2(1 [x
n1
x
0
[)
.
de ah que la desigualdad
2(1 [x
n
x
0
[)(1 [x
n1
x
0
[) 1 > 0
se cumple.
2.6. EL MTODO DE LA SECANTE 107
Por el Lema 2.38, parte 2 aplicado a los puntos x
n
, x
n1
, x
0
, la diferencia dividida [x
n
, x
n1
]
es invertible. Por lo tanto el punto x
n+1
est bien denido y se cumple que
[
f

(x
0
)
[x
n
, x
n1
]
[
(1 [x
n
x
0
[)(1 [x
n1
x
0
[)
2(1 [x
n
x
0
[)(1 [x
n1
x
0
[) 1
.

(1 s
n
)(1 s
n1
)
2(1 s
n
)(1 s
n1
) 1
.

1(s
n
s
n1
)
h(s
n
) h(s
n1
)
=
1
[s
n
, s
n1
]h
. (2.195)
Ahora probaremos que [x
n+1
x
n
[ s
n+1
s
n
. Notemos que
[x
n+1
x
n
[ =
f(x
n
)
[x
n
, x
n1
]
[
f

(x
0
)
[x
n
, x
n1
]
[[
f(x
n
)
f

(x
0
)
[
Hemos obtenido previamente una cota superior para f

(x
0
)/[x
n
, x
n1
]. Para n 2, el
Lema 2.39 da una cota superior para [f(x
n
)/f

(x
0
)[ denida por
[f(x
n
)/f

(x
0
)[
[x
n
x
n1
[[x
n
x
n2
[
(1 [x
n
x
0
[)(1 [x
n1
x
0
[)(1 [x
n2
x
0
[)
.

(s
n
s
n1
)(s
n
s
n2
)
(1 s
n
)(1 s
n1
)(1 s
n2
)
. (2.196)
Como s
n2
= s
0
= 0 y considerando el Lema 2.37, sigue
[
f(x
n
)
f

(x
0
)
[
(s
n
s
n1
)s
n
(1 s
n
)(1 s
n1
)
= h(s
n
).
Por ltimo, las estimaciones puntuales dadas por (2.195)y (2.196) implican que
[x
n+1
x
n
[
h(s
n
)
[s
n
, s
n1
]h
= s
n+1
s
n
.
Luego el teorema se deduce fcilmente.
Convergencia global del mtodo de la Secante
En lo adelante presentamos un teorema de convergencia global, parte del mismo aparece
en [107] y [194] respectivamente. Recordemos que la convergencia global impone condiciones
sobre el intervalo donde aparece la solucin x

de la ecuacin. Recordemos tambin que e


n
es el error que se d entre el valor exacto x
n
de la sucesin x
n

n=0
y x

.
Teorema 2.41. Sea x

una raz simple de f(x) = 0, donde f

(x) y f

(x) existen y son


continua en un intervalo apropiado alrededor de x

. Asumamos tambin que para ese intervalo


[f

(x)[ m
1
> 0 y [f

(x)[ M
2
,
108 CAPTULO 2. MTODOS ITERATIVOS
siendo m
1
y M
2
el mnimo y el mximo respectivamente del intervalo en cuestin, entonces
x
n
= x
n1

x
n1
x
n2
f(x
n1
) f(x
n2
)
f(x
n1
) para n 2,
converge a x

con un orden de convergencia superlineal, pues su orden es igual a


1+

5
2
.
Demostracin. Por (2.156) obtenemos
e
n+1
=
e
n1
f(x
n
) e
n
f(x
n1
)
f(x
n
) f(x
n1
)
. (2.197)
Ahora estudiemos el comportamiento de la expresin
(y x

)f(x) (x x

)f(y), (2.198)
para todo x y y prximos a x

. Si ha esta expresin le aplicamos el teorema del resto de


Taylor en su forma integral, se obtiene que
_

_
f(x) = f(x

) + (x x

)f

(x

) +
_
x
x
(x t)f

(t)dt
f(y) = f(x

) + (y x

)f

(x

) +
_
y
x
(y t)f

(t)dt.
(2.199)
En lo adelante asumamos primeramente que x

y x y si f(x

) = 0, entonces (2.198) se
convierte en
(y x

)f(x) (xx

)f(y) =
_
y
x

(t)(xy)(t x

)dt +
_
x
y
f

(t)(xt)(y x

)dt. (2.200)
Si (x y)(t x

) 0 y (x t)(y x

) 0 en el intervalo x

t x entonces (2.200) es
igual a
f

(c)
_ _
y
x

(x y)(t x

)dt +
_
x
y
(x t)(y x

)dt
_
=
= f

(c)
_
(x y)
(y x

)
2
2
+
(x y)
2
2
(y x

)
_
=
1
2
f

(c)(x y)(y x

)(x x

).
Luego
(y x

)f(x) (x x

)f(y) =
1
2
f

(c)(x y)(y x

)(x x

).
Ahora, por el teorema del valor medio sabemos que
f(x
n
) f(x
n1
) = (x
n
x
n1
)f

(), (2.201)
2.6. EL MTODO DE LA SECANTE 109
donde est entre x
n
y x
n1
. Por lo tanto, de (2.197) obtenemos que
e
n+1
=
1
2
f

(c)
2f

()
e
n
e
n1
,
que al tomar en cuenta las hiptesis del inicio del planteamiento se transforma en
[e
n+1
[
M
2
2m
1
[e
n
[[e
n1
[. (2.202)
Asumamos ahora, como segunda opcin, que x x

y que y x

. De (2.199) obtenemos
(y x

)f(x) (x x

)f(y) =
_
x
x

(y x

)(x t)f

(t)dt
_
y
x

(x x

)(y t)f

(t)dt
=
_
x
y
f

(t)g(t)dt,
donde
g(t) =
_

_
(y x

)(x t), x

t x,
(x x

)(y t), y t x

.
Es claro que para y t x

se cumple que g(t) 0, luego, por el teorema del valor


medio para integrales obtenemos que
(y x

)f(x) (x x

)f(y) = f

(c)
_
x
y
g(t)dt
= f

(c)
_
(y x

)
(x x

)
2
2
(x x

)
(y x

)
2
2
_
= f

(c)
(x

y)(x x

)(x y)
2
,
de ah que (2.201) se cumple.
Ahora resolvamos la siguiente ecuacin recurrente
q
n+1
= q
n
q
n1
,
si tomamos a q
0
y q
1
arbitrariamente e introducimos un cambio de variable z
n
= log q
n
se
obtiene
z
n+1
= z
n
+ z
n1
, (2.203)
la cual es una ecuacin en recurrencia lineal cuya solucin se obtiene a partir de
z
n
= c
1

n
1
+ c
2

n
2
, (2.204)
110 CAPTULO 2. MTODOS ITERATIVOS
donde

1
=
1 +

5
2

2
=
1

5
2
son las races de la ecuacin caracterstica

2
1 = 0,
que se construye a partir de (2.204). Para determinar a c
1
y c
2
hacemos a z
0
= log q
0
y
z
1
= log q
1
y obtenemos que
z
0
= c
1
+ c
2
, z
1
= c
1

1
+ c
2
,
por tanto
c
1
=

2
z
0
z
1

1
, c
2
=
z
1

1
z
0

2
=
1
,
luego
z
n
=
1

1
_

n
1
log
q

2
0
q
1
+
n
2
log
q
1
q

1
0
_
,
como

1
=

5,
1

2
= 1,
entonces
q
n
=
__
q

2
0
q
1
_

n
1
_
q
1
q

1
0
_

n
2
_
1/

5
=
_
q

n1
1
+
n1
2
0
q

n
1

n
2
1
_
1/

5
,
luego
q
n
= q
(
n1
1

n1
2
)
1/

5
0
q
(
n
1

n
2
)
1/

5
1
, (2.205)
como
1
.
= 1.618 y
2
.
= 0.618, luego, para n lo sucientemente grande se obtiene que
q
n

_
(q
1/
1
0
q
1
)
1/

5
_

n
1
, q
n+1
q

1
n
,
Tomando en cuenta a (2.202) y (2.205) sigue que
[e
n+1
[
2m
1
M
2
_
_
__
[e
0
[M
2
2m
1
_
1/
1
_
[e
1
[M
2
2m
1
__
1/

5
_
_

n+1
1
,
por tanto, para [e
0
[ y e
1
lo sucientemente pequeo, se sigue que
2.7. OTROS MTODOS ITERATIVOS 111

[e
n
[M
2
2m
1

< 1, n = 0, 1. (2.206)
De esta forma, si (2.206) se cumple, entonces el mtodo converger con un orden
p =
1 +

5
2
.
2.7. Otros mtodos iterativos
En la literatura matemtica se pueden encontrar un gran nmero de procesos iterativos de
diversos tipos (punto a punto, multipunto, con o sin memoria, usando derivadas o diferencias
divididas, hbridos, etc.) para resolver ecuaciones no lineales. Por lo tanto, somos conscientes
de que un estudio detallado de estos mtodos al nivel de lo realizado en las secciones anteriores
sera una labor ardua y prolongada en el tiempo. Dicha tarea escapa, por tanto de los objetivos
de esta memoria. El lector interesado puede consultar algunas referencias especializadas en
este mbito, como por ejemplo [8], [19] o [180]. No obstante, en esta seccin se presentan
un par de mtodos iterativos que se emplearn en la resolucin de la ecuacin de Kepler.
Se realiza un estudio de su construccin y de su convergencia, aunque sin seguir el esquema
desarrollado para los mtodos de las secciones anteriores. La eleccin de estos dos mtodos y
no la de muchos otros (Steensen, Schrder, Stirling, etc.) ha sido motivada por los siguientes
hechos:
Se ha tomado el mtodo de Yun-Petkovi [197] porque es una generalizacin directa
de otros de los mtodos ms conocidos para resolver ecuaciones no lineales, como es
el mtodo de la biseccin. De hecho, lo que el mtodo de Yun-Petkovi consigue es
mejorar el orden de convergencia del mtodo de la biseccin.
El mtodo de Danby (tambin conocido como de Danby-Burkardt) se ha elegido como
representante de los muchos mtodos con orden de convergencia mayor que tres. Se
ha tomado porque ha sido empleado por otros autores([51], [147]) en la resolucin de
la ecuacin de Kepler. De hecho, el propio Danby, recomienda el uso de mtodos de
alto orden para resolver la ecuacin de Kepler debido a que, en este caso, es sencillo el
clculo de las derivadas de la funcin que dene dicha ecuacin.
2.7.1. El mtodo de Yun-Petkovi
El mtodo de Yun-Petkovi es un mtodo para hallar las races de una ecuacin no lineal
de convergencia cuadrtica que tiene como ventaja principal el hecho de que no necesita de la
112 CAPTULO 2. MTODOS ITERATIVOS
derivada de la funcin, ni del esfuerzo que implica elegir un valor inicial adecuado. El mismo
viene dado a partir de la expresin
x
n+1
= x
n

_
2h
n
f(b
n
) f(a
n
)
_
f(x
n
), n = 0, 1, 2, . . . (2.207)
donde, para n 1,
a
n
= x
n
h
n
(2.208)
b
n
= x
n
+ h
n
(2.209)
h
n
= x
n
x
n1
, (2.210)
El mtodo de Yun-Petkovi parece ser una variante del mtodo de la Secante, (2.156),
que requiere una evaluacin de la funcin adicional b
n
= 2x
n
x
n1
en cada iteracin, en
comparacin del mtodo de la Secante tradicional. Recordar que el mtodo de la Secante,
para races simples posee un orden de convergencia superlineal, (1 +

5)/2. Ahora bien, el


presente mtodo, con el paso h
n
:= x
n
x
n1
tendr, como lmite inferior de convergencia
a la convergencia del mtodo de la Secante. Para mayores detalles de este mtodo, vase a
[197].
Notas histricas sobre el mtodo de Yun-Petkovi
Hoy en da, la mayora de los mtodos iterativos que se conocen tienen como base al
mtodo de Newton-Raphson o en al mtodo de la Secante. Cabe sealar que la fortaleza
del mtodo de Newton-Raphson depende principalmente de dos condiciones: una estimacin
inicial adecuada y el comportamiento de la funcin cerca de la raz. Adems, es necesario
conocer explcitamente a la derivada de la funcin. Aunque el mtodo de la Secante supera
las dicultades mencionadas anteriormente, la aplicacin del mismo requiere un coste de ms
lenta velocidad de convergencia.
Para superar estas dicultades, Yun, [196], desarroll en el 2008 un nuevo mtodo ite-
rativo, el cual est basado en la transformada de la funcin f(x) a travs de una funcin
tangente hiperblica. Se debe destacar que la evaluacin numrica de la integracin de la
transformada de la funcin para encontrar una aproximacin inicial, se puede realizar direc-
tamente. El error de este mtodo slo depende de la exactitud de la integracin numrica.
Sin embargo, para obtener una integracin numrica lo sucientemente precisa, se requiere
un gran nmero de puntos de integracin porque el integrando o funcin transformada es una
funcin escalonada.
Tres aos despus, Yun y Petkovi, [197], unieron esfuerzos con el propcito de desarrollar
un nuevo y sencillo mtodo iterativo que remediara los inconvenientes del mtodo de Newton-
Raphson y el de la Secante. Como resultado de sus esfuerzos obtuvieron el mtodo iterativo
denido por (2.215), de convergencia cuadrtica y que adems puede aumentar su velocidad
2.7. OTROS MTODOS ITERATIVOS 113
Figura 2.17: Miodrag S. Petkovi, (1948).
de convergencia, reemplazando en dicho mtodo un intervalo inicial de los que se utilizan en
el mtodo iterativo planteado por Yun, [196].
Descripcin del mtodo de Yun-Petkovi
Para desarrollar su mtodo, Yun y Petkovi, asumieron que la funcin f(x) sea continua
con solucin nica en un intervalo [a, b] con f(a)f(b) < 0. Adems que x
n
(a, b) sea un
punto inicial prximo a la raz x

de la funcin f(x

)=0, de forma tal que la raz x

est
incluida en el subintervalo [a
n
, b
n
] o [b
n
, a
n
] de [a, b] para algn h
n
,= 0.
Luego denieron a Y (x

, x) y P(x
n
, x) como dos funciones lineales a trozos de la forma
Y (x

, x) :=
_

_
f(an)
anx

(x x

), x x

;
f(bn)
bnx

(x x

), x > x

.
(2.211)
y
P(x
n
, x) :=
_

_
f(an)f(xn)
anxn
(x x
n
) +f(x
n
), x x
n
;
f(bn)f(xn)
bnxn
(x x
n
) +f(x
n
), x > x
n
.
(2.212)
Luego denieron dos integrales de la forma
I
n
(x

) : =
_
bn
an
Y (x

, x)dx =
1
2
(x

a
n
)f(a
n
) + (b
n
x

)f(b
n
)
=
1
2
(x

x
n
)[f(a
n
) f(b
n
)] +h
n
[f(a
n
) +f(b
n
)] (2.213)
y
J
n
(x
n
) :=
_
bn
an
P(x
n
, x)dx =
h
n
2
2f(x
n
) + [f(a
n
) +f(b
n
)], (2.214)
Donde a, b y h estn denido por (2.208), (2.209) y (2.210) respectivamente.
114 CAPTULO 2. MTODOS ITERATIVOS
Notar que las integrales I
n
(x

) y J
n
(x
n
), las cuales inician muy prximas al radio [h
n
[ del
intervalo [a
n
, b
n
] o [b
n
, a
n
], son decrecientes, por lo que reemplazaron a la raz x

por x
n+1
en
(2.213). Luego, resolvieron la ecuacin I
n
(x
n+1
) = J
n
(x
n
), obteniendo, para el punto inicial
x
0
= (a + b)/2 la frmula de iteracin
x
n+1
= x
n

_
2h
n
f(b
n
) f(a
n
)
_
f(x
n
), n = 0, 1, 2, . . . (2.215)
donde a
n
, b
n
y h
n
se denen en (2.208), (2.209) y (2.210) respectivamente. La funcin de
iteracin dada por (2.215) dene al mtodo iterativo de Yun-Petkovi.
Es importante resaltar que este mtodo incluye un punto de aproximacin ms preciso
que el de la Secante, dado por
_
2h
n
f(b
n
) f(a
n
)
_
1
=
1
2
_
f(b
n
) f(x
n
)
h
n
+
f(x
n
) f(a
n
)
h
n
_
f

(x
n
),
el cual es un promedio de las pendientes de dos lneas rectas que pasan respectivamente a
travs de los puntos denidos por (a
n
, f(a
n
)), (x
n
, f(x
n
)) y (b
n
, f(b
n
)), (x
n
, f(x
n
)), mientras
que el mtodo de la Secante tiene una aproximacin dada por la pendiente de una lnea que
pasa por los puntos (a
n
, f(a
n
)) y (x
n
, f(x
n
)).
Para demostrar la efectividad de su mtodo, Yun y Petkovi lo aplicaron a diferentes
funciones. A modo de ilustracin presentamos el caso en que
f(x) = x
4
+ x 1, 0 x 2. (2.216)
A diferencia del resto de mtodos analizados en este captulo, para los cuales existen nu-
merosas referencias a cdigos en diversos lenguajes de programacin y programas de clculo,
para el mtodo de Yun-Petkovi no hemos encontrado una implementacin adecuada. Por es-
te motivo, en el Cuadro ?? presentamos el cdigo Mathematica del mtodo de Yun-Petkovi
que hemos desarrollado nosotros y que emplearemos en los experimentos numricos que se
desarrollan.
Los resultados de aplicar el mtodo de Yun-Petkovi a (2.216), estn representados en el
Cuadro 2.1. Notar que para (2.216), a = 0, b = 2, x
0
=
a + b
2
= 1 y h
0
= 1. Luego, para la
primera iteracin se obtiene que
x
1
= x
0

2h
0
f(b) f(a)
f(x
0
) = 1
2
18
=
8
9
, luego f(x
1
) 0.513184
Para la segunda iteracin se tiene que h
1
= x
1
x
0
=
8
9
1 =
1
9
, a
1
= x
1
h
1
=
8
9
+
1
9
= 1,
b
1
= x
1
+ h
1
=
8
9

1
9
=
7
9
. Por tanto
x
2
= x
1

2h
1
f(b
1
) f(a
1
)
f(x
1
) =
8
9
+
2/9
0.143 1
0.513184 0.755706. As, f(2) 0.081852
2.7. OTROS MTODOS ITERATIVOS 115
Cuadro 2.1: Iteraciones obtenidas al aplicar el mtodo de Yun-Petkovi a (2.216).
n x
n
a
n
b
n
f(x
n
)
0 1 0. 2 1
1 0.88888 1. 0.77777 0.51318
2 0.7557 0.8888 0.62252 0.08185
3 0.7262 0.7557 0.6968 0.0044
4 0.7244 0.7262 0.7227 0.00001
En el Cuadro 2.2 se presentan los diversos valores de a
n
, b
n
, x
n
y f(x
n
) obtenidos al
aplicar dicho mtodo a la funcin
f(x) = x 0.9 sen(x) 3 (2.217)
en el intervalo [0, ].
Cuadro 2.2: Iteraciones obtenidas al aplicar el mtodo de Yun-Petkovi a (2.217).
n x
n
a
n
b
n
f(x
n
)
0 1.5707963 0. 3.1415926 1.5192036
1 3.09 1.5707963 4.6092036 0.0853587
2 3.0094032 3.09 2.9288065 0.0024591
3 3.0116612 3.0094032 3.0139191 2.4808637
4 3.0116609 3.0116612 3.0116607 1.6818144
Con la nalidad de comparar los mtodos de la Secante, Biseccin y Yun-Petkovi, en el
Cuadro 2.3 y el Cuadro 2.4 presentamos los resultados obtenidos por el mtodo de Bisecccin
aplicados a (2.216) y (2.217). Asimismo, en el Cuadro 2.5 y el Cuadro 2.6 aparecen los resul-
tados obtenidos por el mtodo de la Secante aplicados a ecuaciones citadas anteriormente.
Convergencia local del mtodo de Yun-Petkovi
El teorema siguiente demuestra que el orden de convergencia del mtodo iterativo de
Yun-Petkovi es cuadrtico. Parte del mismo a sido tomado de [197].
Teorema 2.42 (Teorema de Yun-Petkovi). Sea f(x) una funcin dos veces continuamente
diferenciable sobre un intervalo [a, b] y que f

(x) existe en el intervalo (a, b). Supongamos que


f(x) tiene a x

como solucin nica y que f

(x) ,= 0 en el intervalo [a, b]. Entonces el mtodo


iterativo denido por (2.215) es cuadrticamente convergente una vez que una iteracin x
n
para algn n est lo sucientemente prximo a x

.
116 CAPTULO 2. MTODOS ITERATIVOS
Cuadro 2.3: Iteraciones obtenidas al aplicar el mtodo de Biseccin a (2.216).
n a
n
x
n
b
n
f(x
n
)
0 0 1 2 1
1 0 0.5 1 0.4375
2 0.5 0.75 1 0.06640
3 0.5 0.625 0.75 0.2224
4 0.625 0.6875 0.75 0.0890
5 0.6875 0.7187 0.75 0.0143
6 0.7187 0.7343 0.75 0.0252
7 0.7187 0.7265 0.7343 0.00523
8 0.7187 0.7226 0.7265 0.0046
Cuadro 2.4: Iteraciones obtenidas al aplicar el mtodo de Biseccin a (2.217).
n a
n
x
n
b
n
f(x
n
)
0 0 1 2 2.7573
1 0 0.5 1 2.9314
2 0 0.25 0.5 2.9726
3 0 0.125 0.25 2.9872
4 0 0.625 0.125 2.9937
5 0 0.03125 0.0625 2.9968
6 0 0.0156 0.03125 2.9984
7 0 0.0078 0.0156 2.9992
8 0 0.0039 0.0078 2.9996
Cuadro 2.5: Iteraciones obtenidas al aplicar el mtodo de la Secante a (2.216).
n a
n
b
n
f(a
n
) f(b
n
)
0 0 2 1 17
1 0.1111 0.2049 0.8887 0.7932
2 0.9848 0.5648 0.9255 0.3332
3 0.6760 0.7346 0.1150 0.0259
4 0.7238 0.7244 0.0015 0.00001
Demostracin. De la ecuacin (2.215), usando la notacin de la primera diferencia dividida
2.7. OTROS MTODOS ITERATIVOS 117
Cuadro 2.6: Iteraciones obtenidas al aplicar el mtodo de la Secante a (2.216).
n a
n
b
n
f(a
n
) f(b
n
)
0 0 2 3 1.8183
1 5.0777 3.1815 2.9183 0.2174
2 3.0288 3.0669 0.0723 0.00009
3 3.0670 3.0670 7.6 10
8
6.8 10
14
4 3.0670 3.0670 5.5 10
17
5.5 10
17
de Newton y la ecuacin f(x

) = 0, obtenemos que
x

x
n+1
= x

x
n
+
_
b
n
a
n
f(b
n
) f(a
n
)
_
f(x
n
)
= x

x
n
+
f(x
n
)
f[a
n
, b
n
]
=
x

x
n
f[a
n
, b
n
]
_
f[a
n
, b
n
]
f(x

) f(x
n
)
x

x
n
_
=
(x

x
n
)(x

b
n
)
f[a
n
, b
n
]
f[x
n
, x

] f[a
n
, b
n
]/(x

b
n
)
=
(x

x
n
)(x

b
n
)
f[a
n
, b
n
]
_
f[x
n
, x

] f[b
n
, x
n
]
x

b
n
+
f[b
n
, x
n
] f[a
n
, b
n
]
x

b
n
_
Introduciendo la diferencia dividida de segundo orden de Newton, sigue
x

x
n+1
=
(x

x
n
)(x

b
n
)
f[a
n
, b
n
]
_
f[b
n
, x
n
, x

]
f[b
n
, a
n
] f[x
n
, b
n
]
a
n
x
n

a
n
x
n
x

b
n
_
=
(x

x
n
)(x

b
n
)
f[a
n
, b
n
]
_
f[b
n
, x
n
, x

] f[x
n
, b
n
, a
n
]
a
n
x
n
x

b
n
_
=
(x

x
n
)(x

b
n
)
2f

(
n
)
_
f

(
n,1
) f

(
n,2
)
a
n
x
n
x

b
n
_
(2.218)
para algn
n
,
n,1
y
n,2
que estn en un entorno de x

que contiene el intervalo [a


n
, b
n
].
En (2.218) se aplicaron las siguientes identidades:
f[, ] = f

(), f[, , ] =
1
2
f

()
para algn entre y , y entre el mximo y el mnimo de , y .
Por otro lado, por el teorema del valor medio para f

, sigue
f

(
n,2
) = f

(
n,1
) + (
n,2

n,1
)f

(w
n
)
para algn w
n
entre
n,1
y
n,2
.
118 CAPTULO 2. MTODOS ITERATIVOS
As obtenemos que
f

(
n,1
) f

(
n,2
)
a
n
x
n
x

b
n
= f

(
n,1
) [f

(
n,1
) + (
n,2

n,1
)f

(w
n
)]
a
n
x
n
x

b
n
= f

(
n,1
)
x

x
n
x

b
n
(
n,2

n,1
)f

(w
n
)]
a
n
x
n
x

b
n
,
De modo que (2.218) se convierte en
x

x
n+1
=
(x

x
n
)
2
2f

(
n
)
f

(
n,1
)
(x

x
n
)
2f

(
n
)
(a
n
x
n
)(
n,2

n,1
)f

(w
n
). (2.219)
Estableciendo que e
n
= [x

x
n
[, a continuacin podemos ver que
[a
n
x
n
[ = [h
n
[ = [x
n
x
n1
[ = [x
n
x

+ x

x
n1
[ e
n
+ e
n1
. (2.220)
Adems, suponiendo, sin prdida de generalidad, que h
n
> 0 para x
n
prximo a x

en la
vecindad de U
n
de x

, sigue que
U
n
:= [a
n
m
n
h
n
, b
n
+ m
n
h
n
],
donde m
n
= O(1) es un multiplicador positivo, de tal manera que
x

U
n
,
n,1
,
n,2
U
n
, [a
n
, b
n
] U
n
.
Entonces
[
n,2

n,1
[ (b
n
+ m
n
h
n
) (a
n
m
n
h
n
)
= (b
n
a
n
) + 2m
n
h
n
= 2h
n
+ 2m
n
h
n
(2m
n
+ 2)(e
n
+ e
n1
). (2.221)
Sustituyendo (2.220) y (2.221) en (2.219), sigue
e
n+1
c
1
e
2
n
+ c
2
e
n
(e
2
n
+ 2e
n
e
n1
+ e
2
n1
) (2.222)
para algunas constantes positivas c
1
y c
2
. Si los errores e
n
y e
n1
son lo suciente pequeos,
se deduce que
e
n+1
d
1
e
2
n
+ d
2
e
n
e
2
n1
(2.223)
para algunas constantes positivas d
1
y d
2
.
Supongamos que el orden de convergencia de (2.215) es r > 0, esto es que para algunas
constantes positivas q
1
y q
2
se cumple que
e
n+1
= q
1
e
r
n
, e
n
= q
2
e
r
n1
.
Entonces (2.223) se convierte en
(q
1
q
r
2
)e
r
2
n1
(d
1
q
2
2
)e
2r
n1
+ (d
2
q
2
)e
r+2
n1
,
2.7. OTROS MTODOS ITERATIVOS 119
lo que implica que
r
2
= mn2r, r + 2.
Por lo tanto tenemos que r = 2, luego la prueba de la convergencia cuadrtica est
completa.
A continuacin presentamos el cdigo Mathematica del mtodo de Yun-Petkovi. Est
desarrollado para el caso particular de la funcin f(x) = x
4
+ x 1 en el intervalo [0, 2].
yun[a0_, b0_, m_] :=
Module[{},
a = N[a0]; b = N[b0]; x0 = (a + b)/2; h =
(a + b)/2;
k = 0;
output = {{k, x0, a, b, f[x0]}};
While[k < m,
x1 = x0 - 2 h*f[x0]/(f[b] - f[a]);
h = x1 - x0;
a = x1 - h;
b = x1 + h;
x0 = x1;
k = k + 1;
output = Append[output, {k, x0, a, b, f[x0]}];];
Print[NumberForm[TableForm[output,
TableHeadings -> {None, {"k", "xk", "a", "b", "f[xk]"}}], 16]];
]
f[x_] = x^4 + x - 1; yun[0, 2, 5]
2.7.2. El mtodo de Danby
Recordemos que la ecuacin de Kepler da la relacin entre las coordenadas polares de
un cuerpo celeste y el tiempo transcurrido desde un punto inicial dado. Cuando la anomala
media M, no es un mltiplo de , la ecuacin de Kepler tiene una solucin nica, pero dado
que es una ecuacin trascendental, la misma no puede ser resuelta directamente. Sin embargo,
como resultado de su importancia en la mecnica celeste, se han derivado muchos mtodos
para resolver dicha ecuacin.
El mtodo de Danby, tambin conocido como mtodo de Danby-Burkardt, es un proceso
iterativo presentado en [51] como alternativa a otros mtodos iterativos (Newton, Halley,
Steensen) para resolver la ecuacin de Kepler (vase tambin [147]). A diferencia de estos
120 CAPTULO 2. MTODOS ITERATIVOS
ltimos, el mtodo de Danby es un algoritmo especialmente diseado para resolver la equacin
en cuestin. Incluso, junto con la descripcin de la funcin de iteracin, se sugiere una eleccin
adecuada de puntos de partida, en funcin de la excentricidad media M que aparece en la
ecuacin de Kepler.
En este captulo, vamos a considerar la formulacin general del mtodo de Danby para
resolver una ecuacin lineal cualquiera f(x) = 0. Teniendo en cuenta las notaciones
L
f
(x) =
f(x)f

(x)
f

(x)
2
, L
f
(x) =
f

(x)f

(x)
f

(x)
2
introducidas en secciones anteriores, el mtodo de Danby y Burkardt puede expresarse como
sigue:
x
n+1
= x
n

3
2
(2 L
f
(x
n
))
2
6 9L
f
(x
n
) + 3L
f
(x
n
)
2
+ L
f
(x
n
)
2
L
f
(x
n
)
f(x
n
)
f

(x
n
)
. (2.224)
Notas histricas y descripcin del mtodo de Danby
De acuerdo con [201], Danby naci en 1929 y muri en 2009 en Londres, pero pas
sus primeros 6 aos en Palestina. Realiz un doctorado en Astronoma en la Universidad
de Manchester. En 1957 acept una oferta para ensear astronoma en la Universidad de
Minnesota, y cuatro aos despus ingres al Departamento de Astronoma de la Universidad
de Yale, donde fue compaero de Brouwer Dirk. Luego, en 1967, se incorpor, como profesor
de Matemticas, de la Universidad Estatal de Carolina del Norte, donde permaneci hasta
su jubilacin en 1998.
Figura 2.18: J. M. A. Danby (1929 2009).
El mtodo de Danby es un mtodo de uso bastante especco y de creacin relativamente
reciente, as que todo el apartado histrico y su desarrollo posterior es el que se puede
2.7. OTROS MTODOS ITERATIVOS 121
encontrar en el artculo de Danby y Burkardt [51]. El mismo fue publicado en 1983 por la
revista Celestial Mechanics, apareciendo en las pginas 95 107 del volumen 31.
En realidad, lo que hace Danby en [51], es obtener una familia de mtodos iterativos con
orden k para resolver una ecuacin no lineal f(x) = 0.
En concreto, sea x

una solucin de f(x) = 0, x


n
una aproximacin de x

y
n
= x

x
n
el error cometido. Entonces
0 = f(x

) = f(x
n
+
n
) = f(x
n
) +f

(x
n
)
n
+ +
f
(k)
(x
n
)
k!

k
n
+ . . .
Supongamos que el desarrollo de Taylor truncado en el trmino ksimo tiene una raz,
que denotaremos
n
, es decir
0 = f(x
n
) +f

(x
n
)
n
+ +
f
(k)
(x
n
)
k!

k
n
. (2.225)
Entonces, Danby dene el proceso iterativo
x
n+1
= x
n
+
n
, (2.226)
con
n
solucin de (2.225), y comprueba que converge a x

con orden k + 1.
Notemos que para k = 1, el mtodo obtenido en (2.226) no es otro que el mtodo de
Newton. Cuando k = 2, se obtiene el mtodo de Euler o mtodo de Halley irracional ([132],
[180]).
x
n+1
= x
n

2
1 +
_
1 2L
f
(x
n
)
f(x
n
)
f

(x
n
)
Para evitar el clculo de radicales, se puede seguir la idea vista en la construccin del
mtodo de Halley, (vase tambin a [70])
0 = f(x
n
) +f

(x
n
)
n
+
1
2
f

(x
n
)
n
,
de donde

n
=
f(x
n
)
f

(x
n
) +
1
2
f

(x
n
)
n
.
Como vemos, tomando como aproximacin del
n
que aparece en el segundo trmino de
la igualdad
f(xn)
f

(xn)
, se llega al mtodo de Halley.
La idea de Danby consiste en dar un paso ms en este proceso. En concreto, para k = 3,
la ecuacin (2.225) puede escribirse como

n
=
f(x
n
)
f

(x
n
) +
1
2
f

(x
n
)
n
+
1
6
f

(x
n
)
2
n
. (2.227)
La clave ahora es elegir las aproximaciones
n
de la parte derecha de la frmula (2.227).
Danby [51], propone una eleccin en dos pasos:
122 CAPTULO 2. MTODOS ITERATIVOS

n
1
=
f(x
n
)
f

(x
n
)
(2.228)

n
2
=
f(x
n
)
f

(x
n
) +
1
2
f

(x
n
)
n
1
, (2.229)
y as

n
=
f(x
n
)
f

(x
n
) +
1
2
f

(x
n
)
n
2
+
1
6
f

(x
n
)
2
n
2
. (2.230)
El mtodo de hacer
x
n+1
= x
n
+
n
, (2.231)
con
n
denido por (2.228), (2.229) y (2.230), es el que toma Palacios [147] como base para
artculo, comparndolo con otros procesos iterativos.
El mtodo (2.231), teniendo en cuenta las notaciones L
f
y L
f
, puede escribirse como
(2.224). Notemos que (2.224) es un proceso iterativo de orden de convergencia 4. El propio
Danby justica el uso de mtodos con alto nivel de convergencia para resolver la ecuacin de
Kepler, ya que en este caso, el calculo de la derivada de la funcin es relativamente sencillo.
Siguiendo a Palacios [147], nosotros tambin consideraremos el mtodo (2.224) como re-
ferente para el estudio de la ecuacin de Kepler y nos referiremos a l como el mtodo de
Danby.
No obstante, Danby tambin propone el uso de mtodos con orden ce convergencia 5, in-
crementando un poco ms el proceso visto anteriormente. Tambin propone usar el desarrollo
en serie de la funcin
3
2
(2 x)
2
6 9x + 3x
2
+ x
2
y
= 1 +
x
2
+
x
2
2

x
2
y
6
+ O(x
3
).
Haciendo x = L
f
(x
n
), y = L
f
(x
n
) y despreciando los trminos que contengan a f
4
(x
n
)
se obtiene una variacin de (2.224) de la forma
x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
) +
1
2
L
f
(x
n
)
2

1
6
L
f
(x
n
)
2
L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
,
que tambin tiene orden 4.
Convergencia local del mtodo de Danby
Teorema 2.43. Sea f : I R una funcin de variable real denida en un entorno I de
x

, una raz simple de f(x) = 0, (f(x

) = 0 y f

(x

) ,= 0). Supongamos que f es cuatro


veces derivable con continuidad en I. Entonces el mtodo de Danby (2.224) denido por
x
n+1
= D
f
(x
n
),
D
f
(x) = x
3
2
(2 L
f
(x))
2
6 9L
f
(x) + 3L
f
(x)
2
+ L
f
(x)
2
L
f
(x)
f(x)
f

(x)
, (2.232)
2.7. OTROS MTODOS ITERATIVOS 123
tiene convergencia local de, al menos, orden 4. Adems, se cumple la siguiente ecuacin del
error:
e
n+1
= A
3
2
A
2
A
3
+ A
4
+ O
5
,
donde A
i
, e
n
y O
N
se han introducido en (2.12), (2.13) y (2.14) respectivamente.
Demostracin. (Usando el Teorema de Schrder) El clculo de las derivadas de D
f
nos per-
mite deducir que
D
f
(x

) = x

, D
(i)
f
(x

) = 0, i = 1, 2, 3,
D
(4)
f
(x

) =
3f

(x

)
3
2f

(x

)f
(3)
(x

)f

(x

) +f

(x

)
2
f
(4)
(x

)
f

(x

)
3
,= 0.
Por lo tanto,
e
n+1
= x
n+1
x

= D
f
(x
n
) x

=
D
(4)
f
(x

)
4!
(x
n
x

)
4
+ O
5
,
de donde se deduce que
lm
n
e
n+1
e
4
n
=
D
(4)
f
(x

)
4!
= 27A
3
3
A
2
A
3
+ A
4
.
Por lo tanto, el mtodo de Danby es un mtodo con orden de convergencia local igual a 4 y
contante de error asinttico A
3
2
A
2
A
3
+ A
4
.
124 CAPTULO 2. MTODOS ITERATIVOS
Captulo 3
Mtodos iterativos y la ecuacin de
Kepler
3.1. Introduccin
Fue alrededor del ao 1609, cuando Kepler, en su libro Astronomia Nova, enunci la ley
horaria del movimiento elptico, que requiere la resolucin de una ecuacin algebraica no
lineal de la forma
f(E) = 0, con f(E) = E e sen E M. (3.1)
Para la solucin de esta ecuacin, es necesario conocer los valores de la anomala media,
M, y de la excentricidad, e, de una rbita elptica.
Aunque la ecuacin anterior podra formularse en un lenguaje puramente algebraico,
f(x) = x a sen x b, con a y b constantes arbitrarias, en este apartado mantendremos la
formulacin inicial (3.1), donde los parmetros e y M tienen claras interpretaciones astron-
micas (vase [49] para ms informacin). En concreto, tanto E como M son ngulos entre 0
y 2 radianes, mientras que la excentricidad es un valor comprendido entre 0 y 1. Adems,
debido a la simetra de la elipse respecto a su eje mayor, podemos reducir nuestro estudio a
anomalas medias comprendidas entre 0 y .
Existen muchas maneras de resolver la ecuacin de Kepler (vase de nuevo el texto de [49]
para una informacin ms detallada a este respecto), pero en este captulo nos centraremos
en su resolucin mediante mtodos iterativos, tal y como se hace, por ejemplo, en los artculos
de Charles y Tatum [35], Danby y Burkardt [51], [52] o Palacios [147]. En concreto, vamos
a analizar el comportamiento de diversos procesos iterativos para resolver la ecuacin de
Kepler (3.1): mtodo de Newton, mtodo de Halley, mtodo de Chebyshev, mtodo de Danby,
etc.
En consecuencia, en este acpite consideraremos la famosa ecuacin de Kepler (3.1) como
funcin test para comparar el comportamiento de diversos mtodos iterativos. En concreto,
125
126 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
junto con el conocido mtodo de Newton
x
n+1
= x
n

f(x
n
)
f

(x
n
)
, n 0 (3.2)
se consideran tambin los mtodos de la familia uniparamtrica
x
n+1
= x
n

_
1 +
1
2
L
f
(x
n
)
1 L
f
(x
n
)
_
f(x
n
)
f

(x
n
)
, R (3.3)
introducida en [5]. En la frmula anterior, y durante todo este acpite, se usa la notacin
L
f
(x) =
f(x)f

(x)
f

(x)
2
. (3.4)
La familia (3.3) incluye alguno de los mtodos iterativos de tercer orden ms conocidos,
como el mtodo de Chebyshev ( = 0), el mtodo de Halley ( = 1/2) o el mtodo super-
Halley ( = 1). Adems, como un caso lmite cuando el parmetro tiende a ( a ),
se obtiene el mtodo de Newton (3.2).
Por ltimo, tambin consideraremos el mtodo recomendado por Danby y Burkardt [51]
para la resolucin de la ecuacin de Kepler (3.1). Con la notacin introducida en (3.4), el
mtodo de Danby y Burkardt puede expresarse como sigue:
x
n+1
= x
n

3
2
(2 L
f
(x
n
))
2
6 9L
f
(x
n
) + 3L
f
(x
n
)
2
+ L
f
(x
n
)
2
L
f
(x
n
)
f(x
n
)
f

(x
n
)
. (3.5)
Ntese que en la expresin anterior hemos usado la notacin L
f
(x) que consiste en aplicar
la frmula (3.4) a f

(x) en lugar de a f(x), es decir,


L
f
(x) =
f

(x)f

(x)
f

(x)
2
.
Llegados a este punto nos gustara destacar que el mtodo de Danby y Burkardt (3.5)
no est contenido en la familia (3.3) para ningn valor de . De hecho, (3.5) es un mtodo
con orden de convergencia 4, mientras que los mtodos de la familia (3.3) tienen orden de
convergencia 3 y el mtodo de Newton (3.2) tiene convergencia cuadrtica.
Para determinar la efectividad de los mtodos sealados anteriormente, tomaremos en
cuenta diversos puntos iniciales, los cuales estarn relacionados con la excentricidad e y la
desviacin media M.
En el Cuadro 3.1, presentamos las funciones de iteracin de los mtodos que vamos a
considerar en esta seccin para estudiar la ecuacin de Kepler (3.1), as como algunas de sus
caractersticas principales. Notemos que la constante asnttica de error, , de cada mtodo
esta expresada en trminos de las constantes A
k
, denidas por:
A
k
=
f
(k)
(x

)
k!f

(x

)
. (3.6)
3.2. MTODOS ITERATIVOS PUNTO A PUNTO Y LA ECUACIN DE KEPLER 127
Cuadro 3.1: Funcin de iteracin, orden de convergencia (p), constante asinttica del error
() e ndice de eciencia () de los distintos mtodos iterativos que vamos a aplicar a la
ecuacin de Kepler, donde las constantes A
k
estn denidas en (3.6).
Mtodo Funcin de iteracin p
Newton N(xn) = xn
f(xn)
f

(xn)
2 A
2

2
Chebyshev C(xn) = xn
_
1 +
1
2
L
f
(xn)
_
f(xn)
f

(xn)
3 2A
2
2
A
3
3

3
Halley H(xn) = xn
_
2
2L
f
(xn)
_
f(xn)
f

(xn)
3 A
2
2
A
3
3

3
Super-Halley SH(xn) = xn
_
1 +
1
2
_
L
f
(xn)
1L
f
(xn)
__
f(xn)
f

(xn)
3 A
3
3

3
= 3/2 F
3/2
(xn) = xn
_
1 +
1
2
_
L
f
(xn)
1
3
2
L
f
(xn)
__
f(xn)
f

(xn)
3 A
2
2
A
3
3

3
= 2 F
2
(xn) = xn
_
1 +
1
2
_
L
f
(xn)
12L
f
(xn)
__
f(xn)
f

(xn)
3 2A
2
2
A
3
3

3
Danby D(xn) = xn
3
2
(2L
f
(xn))
2
69L
f
(xn)+3L
f
(xn)
2
+L
f
(xn)
2
L
f
xn)
f(xn)
f

(xn)
4 9A
3
2
+ 10A
3
A
2
+ A
4
4

4
3.2. Mtodos iterativos punto a punto aplicados a la
ecuacin de Kepler
Con el objetivo de comparar las funciones de iteracin presentadas en el Cuadro 3.1 cuando
se aplican a la ecuacin de Kepler (3.1), hemos seleccionado (vase el Cuadro 3.2) algunos
valores de los parmetros e y M que han sido utilizados por otros autores: [49], [51], [62],
[147] y [198]. Adems, hemos complementado esta seleccin con una muestra formada por
valores reales asociados a los asteroides Amor, Apollo, Chiron, Damocles, Hidalgo, Hungaria,
Pholus y al Planeta Mercurio [208]. Debemos resaltar que los valores considerados en [147]
corresponden a situaciones extremas para el mtodo de Danby. As, el caso (2), en el que M
est prximo a cero, e est prximo a uno y f

(E) es casi nula, puede presentar dicultad


cuando el valor inicial es menor que la solucin alcanzada por el mtodo.
Como nota importante, debemos sealar que todos los mtodos iterativos fueron aplicados
utilizando el paquete informtico Mathematica, versin 7, los clculos se realizaron tomando
10 cifras signicativas.
Un aspecto clave a la hora de estudiar la convergencia de un proceso iterativo a la solucin
de una ecuacin no lineal, es la eleccin del punto de partida. En el caso de la ecuacin
de Kepler (3.1), algunos autores, como Dilon y Gutirrez [62], Zhen-Shi-Ming [198], han
considerado la anomala media como punto de partida E
0
= M. Otros autores, como Danby-
Burkardt [51] o Palacios [147], sugieren una eleccin de puntos de partida ms sosticada:
_
_
_
E
0
= M + (
3

6M M)e
2
si M < 0.1
E
0
= M + 0.85e si M 0.1.
(3.7)
Con las elecciones de puntos de partida anteriores, no se garantiza siempre la convergencia
128 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Cuadro 3.2: Valores de la anomala media y de la excentricidad utilizados por M. Pala-
cios [147].
Casos M e
Caso (1) 0.05 0.09
Caso (2) 0.05 0.95
Caso (3) 0.9 0.09
Caso (4) 1.5 0.5
Caso (5) 3.0 0.09
Caso (6) 3.0 0.9
Cuadro 3.3: Valores reales asociados a la anomala media y a la excentricidad de diferentes
asteroides y el planeta Mercurio [208].
Casos M e
Caso (7) Asteroide Amor 0.51 0.4353621
Caso (8) Asteroide Apollo 0.088 0.5600245
Caso (9) Asteroide Chiron 0.29 0.3821080
Caso (10) Asteroide Damocles 0.29 0.8662750
Caso (11) Asteroide Hidalgo 0.81 0.6581069
Caso (12) Asteroide Hungaria 0.69 0.0736162
Caso (13) Asteroide Pholus 0.11 0.5717136
Caso (14) Planeta Mercurio 0.0067 0.205635
del mtodo de Newton (3.2) a una solucin de la ecuacin de Kepler (3.1). Por ello, Charles
y Tatum [35], proponen tomar E
0
= , ya que justican que para ese valor se puede asegurar
la convergencia del mtodo de Newton (3.2) a una solucin de la ecuacin de Kepler (3.1)
para cualquier eleccin de M y e.
En este captulo mostramos varios experimentos numricos para ilustrar el comporta-
miento dinmico de otros mtodos iterativos, en particular los recogidos en el Cuadro 3.1,
cuando se aplican a la ecuacin de Kepler (3.1). En concreto, en el Cuadro 4.5 se muestra
el comportamiento de dichos mtodos cuando se toma como punto de partida E
0
= M. De
forma anloga en los Cuadros 4.6 y 4.7 se analizan las situaciones E
0
= yE
0
dado por
(3.7). En los tres cuadros se muestra el nmero total de iteraciones necesarias para alcanzar
la solucin para cada uno de los mtodos iterativos recogidos en el Cuadro 3.1 y para los 14
pares de valores (e, M) dados en los Cuadros 3.3 y 4.5.
Junto al nmero total de iteraciones, T, aparece la media de las mismas, m. Notemos que
el nmero de iteraciones no es un criterio muy razonable para comparar mtodos con distinto
orden de convergencia pues, evidentemente, los mtodos con orden ms elevado necesitarn
3.2. MTODOS ITERATIVOS PUNTO A PUNTO Y LA ECUACIN DE KEPLER 129
menor nmero de iteraciones para alcanzar la solucin (en el caso de que haya convergencia
en todos los casos). Por este motivo en este trabajo introducimos una media modicada, m,
calculada de la siguiente manera. Supongamos que para alcanzar una precisin prejada con
un mtodo de orden q se necesitan j iteraciones. Entonces, para alcanzar la misma precisin
con un mtodo de orden p se necesitaran del orden de j
log q
log p
iteraciones. Con este criterio,
comparamos las medias obtenidas con la del mtodo de Newton, modicando la media por
log 3
log 2
para los mtodos de orden 3 y por
log 4
log 2
= 2 para el mtodo de Danby (orden 4).
En el caso de que un mtodo iterativo no genere una sucesin convergente a una raz de
la ecuacin de Kepler (3.1), lo indicaremos con el smbolo NC.
Lo primero que observamos (consltese el Cuadro 4.5) es que no se obtiene una sucesin
convergente en todos los casos. As, se comprob que el mtodo de Chebyshev, bajo las
condiciones del asteroide Damocles, present una divergencia oscilatoria.
Adems, la media ponderada sita al mtodo de Newton en mejor posicin que el resto de
los mtodos considerados. En cuanto a los mtodos de tercer orden, los mejor posicionados
son los de Halley y super-Halley. La utilizacin de mtodos de la familia (3.3) con valores de
> 1 parece no aportar, en este sentido, ninguna ventaja. Del mismo modo, y atendiendo de
nuevo a la media ponderada, el mtodo de Danby, tampoco aporta ninguna mejora sustancial.
Los casos ms conictivos
En la seccin anterior hemos analizado el comportamiento de diversos mtodos iterativos
para resolver la ecuacin de Kepler, para distintos pares (e, M). Como se ha podido observar,
slo en un caso, en concreto para el mtodo de Chebyshev bajo las condiciones del asteroide
Damocles, se present un comportamiento no convergente. Para todos los dems casos, los
mtodos considerados han convergido a una solucin de (3.1).
Sin embargo, si se profundiza un poco ms, se pueden detectar comportamientos no con-
vergentes, incluso para el mtodo de Newton. As, tal y como indica Conway [48], tambin
existen pares (e, M) para los cuales el mtodo de Newton no converge a una solucin de (3.1).
Esto ocurre, por ejemplo, para e = 0.992, M = 0.13. Por ese motivo, en esta seccin particu-
larizamos el estudio de los mtodos iterativos para resolver la ecuacin de Kepler aplicndolos
a los pares (e, M), en donde e [0.980, 0.999] y M [0.02, 0.2]. Para cada uno de los m-
todos iterativos del Cuadro 3.1 realizaremos tres experimentos numricos, tomando como
puntos de partida E
0
= M, E
0
= y E
0
dado por las frmulas (3.7). Dichos experimentos
se muestran en los cuadros del Anexo II.
Los cuadros 3.4, 3.5 y 3.6 muestran de forma resumida la informacin obtenida a partir
de los cuadros del Anexo II.
130 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Cuadro 3.4: Media m del nmero de iteraciones de diversos mtodos iterativos aplicados a la
ecuacin de Kepler, en funcin de los puntos de partida.
E
0
Newton Chebyshev Halley Super-Halley Danby
E
0
= M 13.76 () 4.61 4.43 4.23
E
0
= 5.4 4.04 4.01 3.83 3.63
E
0
= (3.7) 3.77 2.86 2.77 2.76 2.73
() Media no calculada debido al elevado nmero de situaciones de no convergencia.
Cuadro 3.5: Media ponderada m del nmero de iteraciones de de diversos mtodos iterativos
aplicados a la ecuacin de Kepler, en funcin de los puntos de partida.
E
0
Newton Chebyshev Halley Super-Halley Danby
E
0
= M 20.7 () 8.93 7.02 8.46
E
0
= 7.22 6.38 6.36 5.74 7.26
E
0
= (3.7) 5.04 4.54 4.39 4.37 5.46
() Media no calculada debido al elevado nmero de situaciones de no convergencia.
Cuadro 3.6: Porcentaje de fracasos de diversos mtodos iterativos aplicados a la ecuacin de
Kepler, en funcin de los puntos de partida.
E
0
Newton Chebyshev Halley Super-Halley =
3
2
= 2 Danby
E
0
= M 0 97.5 0 0 0 0.5 0
E
0
= 0 0 0 0 0 0 0
E
0
= (3.7) 0 0 0 0 0 0 0
Conclusiones
A la vista de los cuadros 3.4, 3.5 y 3.6, obtenemos las siguientes conclusiones:
1. Los peores resultados se presentaron cuando los mtodo iterativos fueron aplicados a
partir de la condicin inicial E
0
= M. Adems de obtener el mayor porcentaje de
fracasos (especialmente llamativo es el caso del mtodo de Chebyshev, como se aprecia
en el Cuadro 4.11), cuando lograron converger, obtuvieron las medias de iteraciones
ms altas, consltese el Cuadro 3.4.
2. El porcentaje de fracasos del mtodo de Chebyshev fue de un 97.5 por ciento, equiva-
lentes a 195 casos de los 200 considerados, vase el Cuadro 3.6. Para dicho porcentaje,
el mtodo present una divergencia oscilatoria. Por ejemplo, para e = 0.99, M = /10
y x
0
= M, las primeras iteraciones del mtodo de Chebyshev aplicado a la ecuacin de
3.2. MTODOS ITERATIVOS PUNTO A PUNTO Y LA ECUACIN DE KEPLER 131
Kepler dan lugar a la siguiente sucesin:
0.31416, 66.1291, 76.4247, 21154.9, 3.41 10
10
, 2.5 10
19
, 5.85 10
37
,
9.46 10
75
, 1.8 10
150
, 3.06 10
299
, 1.95 10
602
, . . .
Como puede verse, se obtiene una sucesin que tiende a innito en valor absoluto, pero
con signos que pueden ser tanto positivos como negativos.
3. El mtodo obtenido al sustituir a = 2 en (3.3), vase el Cuadro 4.23, no logr
converger en todos los casos. En concreto su porcentaje de fracasos, como se aprecia en
el Cuadro 3.6, fue un 0.5 por ciento, equivalente a un caso de los 200 considerados. El
mismo present un ciclo atractor, y se obtuvo cuando e = 0.996 y M = 0.04.
0.1256, 8.0357, 3.7986, 1.7757, 0.20402, . . .
3.64608, 1.788161, 0.204782, 3.64608, 1.788161, 0.204782, . . .
2 4 6 8
1
2
3
4
5
6
7
Figura 3.1: Ciclo atractor del mtodo obtenido al sustituir = 2 en (3.3), para e = 0.996,
M = 0.04 y x
0
= M
4. Todos los dems mtodos lograron su convergencia, pero en cada uno de ellos se pre-
sentaron situaciones para las cuales se necesitaron hasta 200 iteraciones para converger,
consltese el Cuadro 4.8, Cuadro 4.17, Cuadro 4.20 y el Cuadro 4.26. En concreto, el
mtodo de Newton, el Cuadro 3.4, obtuvo la media de las medias de las iteraciones
ms elevada m
Newton
= 23.73. Se destaca que para muchos pares, vase nuevamente
el Cuadro 4.8, se necesitaron ms de 100 iteraciones para que dicho mtodo lograra
converger. Con respecto al mtodo de Super-Halley, vase el Cuadro 4.17, para el par
(0.999, 0.2) dicho mtodo realiz ms de 200 iteraciones para converger. En cuanto al
mtodo obtenido al sustituir a = 3/2 en (3.3), consltese el Cuadro 4.20, se destaca
el hecho de que para los pares (0.996, 0.02) y (0.996, 0.04), dicho mtodo necesito ms
de 200 iteraciones para converger. El mtodo de Danby, vase el Cuadro 4.26, fue el que
obtuvo el mejor desempeo, aunque es conveniente destacar que para los pares (e, M)
con e [0.993, 0.998] y M = 0.06, dicho mtodo necesito entre 14 y 56 iteraciones
para converger.
132 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
5. Bajo las condiciones iniciales dadas en (3.7), vase el Cuadro 4.10, Cuadro 4.13, Cua-
dro 4.16, Cuadro 4.19, Cuadro 4.22, Cuadro 4.25 y Cuadro 4.28, los mtodos iterativos,
aplicados a la ecuacin de Kepler, experimentaron su mejor comportamiento de con-
vergencia, esto as porque para tal condicin inicial, los mtodos iterativos obtuvieron
la menor media m del nmero de de iteraciones, consltese el Cuadro 3.4.
6. Asimismo, para la condicin inicial E
0
= M, rerase al Cuadro 4.5, Cuadro 4.8,
Cuadro 4.11, Cuadro 4.14, Cuadro 4.17, Cuadro 4.20, Cuadro 4.23 y Cuadro 4.26,
los mtodos iterativos, al ser aplicados a la ecuacin de Kepler, mostraron su peor
comportamiento de convergencia, esto as porque para tal condicin inicial, los mtodos
iterativos presentaron el mayor porcentaje de fracasos y cuando lograron converger,
presentaron la mayor media m de iteraciones, consltese el Cuadro 3.4 y el Cuadro 3.6.
7. Por otro lado, para la condicin inicial E
0
= M, vase el Cuadro 3.4, se veric que
el mtodo de Danby supera a los dems mtodos, pues obtuvo la menor media m del
nmero de iteraciones m
danby
= 5.6. Asimismo, para las condiciones iniciales E
0
= y
las dadas en (3.7), consltese nuevamente el Cuadro 3.4, se comprueba que el mtodo
de super-Halley es el ms efectivo, pues en ambos casos obtuvo la menor media m del
nmero de iteraciones, m
superHalley
= 4.23 y m
superHalley
= 3.18 respectivamente.
8. Para algunos casos, consltese el Cuadro 4.5, el Cuadro 4.11, el Cuadro 4.12 y el
Cuadro 4.23, el comportamiento dinmico de la ecuacin de Kepler presenta ciclos
o comportamiento catico. Estos comportamientos pueden ser motivos de posteriores
estudios. Por ejemplo, en la seccin 3.5 mostramos la existencia de ciclos atractores
para el mtodo de Newton aplicado a la ecuacin de Kepler.
Para nalizar esta seccin, a continuacin presentamos un anlisis grco de la conver-
gencia de los mtodos iterativos aplicados a la ecuacin de Kepler. Para tal accin hemos
seleccionado como punto de inicio a x
0
= M. Los grcos estn en blanco y negro. Se de-
be destacar que para el anlisis de los grcos asumimos que el blanco indica que se ha
encontrado una raz y el negro que no se ha encontrado raz.
Visto as, en la Figura 3.2, podemos apreciar las grcas generadas por el mtodo de
Newton aplicado a la ecuacin de Kepler. Notemos que en la esquina superior izquierda de
la Figura 3.2 de la izquierda, aparecen unos puntos negros. La Figura 3.2 de la derecha, es
una ampliacin que nos permite precisar ms la resolucin del grco. En dicha ampliacin
se observa una nube de puntos negros asociados a puntos de partida donde el mtodo de
Newton aplicado a la ecuacin de Kepler no converge. Tal parece que dichos puntos estn
localizados dentro de una curva, la cual sera interesante caracterizar.
Al experimentar con el mtodo de Halley, obtuvimos el grco que aparece a la izquierda
de la Figura 3.3. Notemos que en la misma no aparecen manchas negras, por lo que parecera
que el mtodo de Halley, sin importar el punto de partida, siempre converge. En cuanto al
3.3. MTODOS ITERATIVOS MULTIPUNTO Y LA ECUACIN DE KEPLER 133
mtodo de super-Halley, ver Figura 3.3 a la derecha, tambin presenta una nube de puntos
negros que se encuentra delimitada por una curva. Notemos que la misma posee un radio de
curvatura menor que la del mtodo de Newton.
Repitiendo el experimento para el mtodo de Chebyshev, se obtienen cosas interesantes.
en la Figura 3.4 se verica la existencia de bandas negras muy acentuadas. Observemos que
en la curva del grco en donde la excentricidad est entre 1 y 0.93, ya no se presenta una
nube de puntos negros, sino ms bien una banda de escasos puntos blancos.
Los experimentos realizados para otros mtodos considerados en esta seccin, como por
ejemplo para la familia con = 3/2 o = 2 aparece una situacin similar a la obtenida para
el mtodo de Halley.
0 0.5 1 1.5 2 2.5 3
0
0.2
0.4
0.6
0.8
1
0 0.1 0.2 0.3 0.4 0.5 0.6
0.96
0.97
0.98
0.99
1
Figura 3.2: A la izquierda, grco de densidad del mtodo de Newton aplicado a la ecuacin
de Kepler. A la derecha, grco de densidad ampliado del mtodo de Newton aplicado a la
ecuacin de Kepler.
3.3. Mtodos iterativos multipunto aplicados a la ecua-
cin de Kepler
En esta seccin se analizar el comportamiento de los mtodos de la Secante, Yun-Petkovi
y Biseccin aplicado a la ecuacin de Kepler. La nalidad de incluir el mtodo de Biseccin
es tomarlo como referencia para compararlos con el mtodo de la Secante y el mtodo de
Yun-Petkovi. Esto es as porque todos ellos inician sus iteraciones a partir de dos valores.
El mtodo de Biseccin nos sirve para encontrar una raz de una funcin f(x) continua
en un intervalo [a, b]. Para encontrar la raz, determinamos una sucesin de intervalos, cada
uno la mitad del anterior, y cada uno conteniendo al menos una raz de f(x).
Su principal desventaja es que su convergencia es muy lenta, pues los clculos aumentan
considerablemente cuando se desea una buena aproximacin de la raz. Este inconveniente
134 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
0 0.02 0.04 0.06 0.08 0.1
0.95
0.96
0.97
0.98
0.99
1
0 0.05 0.1 0.15 0.2 0.25
0.98
0.985
0.99
0.995
1
Figura 3.3: A la izquierda, grco de densidad ampliado del mtodo de Halley aplicado a
la ecuacin de Kepler. A la derecha, grco de densidad ampliado del mtodo super-Halley
aplicado a la ecuacin de Kepler.
0 0.2 0.4 0.6 0.8 1 1.2
0.8
0.85
0.9
0.95
1
Figura 3.4: Grco de densidad ampliado del mtodo de Chebyshev aplicado a la ecuacin
de Kepler.
hace que este mtodo se aplique como un paso previo en la implementacin de otros mtodos
iterativos de mayor orden de convergencia. Tiene la ventaja de que siempre converge a alguna
de las races de la funcin f(x) en [a, b]. En concreto, se busca una solucin de una ecuacin
f(x) = 0, donde f(x) es una funcin continua en un intervalo cerrado [a, b], tal que f(a)f(b) <
0. En este caso, el teorema de Bolzano garantiza la existencia de soluciones de dicha ecuacin.
Adems, si f(x) es creciente (o decreciente en [a, b]), dicha solucin es nica.
Con la intencin de describir este mtodo, asumamos que
a
0
= a y b
0
= b,
y estimemos un punto inicial dado a partir del punto medio de [a, b], es decir
x
0
=
a
0
+ b
0
2
.
Si f(x
0
) = 0, naliza el proceso. En caso contrario, la raz buscada debe estar en uno
de los intervalos [a
0
, x
0
], [x
0
, b
0
]. En concreto, la raz estar en aquel intervalo en el que el
3.3. MTODOS ITERATIVOS MULTIPUNTO Y LA ECUACIN DE KEPLER 135
producto de los valores de f(x) en sus extremos sea negativo. Por tanto, hallamos f(a
0
)f(x
0
).
Si f(a
0
)f(x
0
) < 0, ponemos
_
_
_
a
1
= a
0
,
b
1
= x
0
.
mientras que si f(a
0
)f(x
0
) > 0, tomamos
_
_
_
a
1
= x
0
,
b
1
= b
0
,
Entonces calculamos
x
1
=
a
1
+ b
1
2
.
En general, dados a
n
, b
n
y x
n
, si f(a
n
)f(x
n
) < 0, tomamos
_
_
_
a
n+1
= a
n
,
b
n+1
= x
n
,
mientras que si f(a
n
)f(x
n
) > 0, elegimos a
_
_
_
a
n+1
= x
n
,
b
n+1
= b
n
,
y determinamos la iteracin n + 1 mediante la sucecin
x
n+1
=
a
n+1
+ b
n+1
2
, (3.8)
la cual dene la funcin de iteracin del mtodo de Biseccin.
Cuadro 3.7: Funcin de iteracin, orden de convergencia (p) e ndice de eciencia () de los
mtodos iterativos de la Secante, Yun-Petkovi y Biseccin.
Mtodo Funcin de iteracin p
Secante x
n+1
= x
n

xnx
n1
f(xn)f(x
n1
)
f(x
n
)
1+

5
2
1+

5
2
Yun-Petkovi x
n+1
= x
n

_
2hn
f(bn)f(an)
_
f(x
n
) 2

2
Biseccin x
n+1
=
a
n+1
+b
n+1
2
1 1
Notemos que en cada paso, la longitud del intervalo que encierra la raz se reduce a la
mitad, de forma que la convergencia del mtodo de Biseccin siempre est asegurada. Esto
queda demostrado en el siguiente resultado. Parte de la demostracin que presentamos a
continuacin aparece en [58] y [194].
136 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Teorema 3.1. Sea f(x) una funcin continua en un intervalo [a, b] tal que f(a)f(b) < 0,
entonces la sucesin denida por (3.8) converge a una raz de f(x) = 0.
Demostracin. La sucesin
_
a
n
_
es una sucesin no decreciente y acotada, mientras que la
sucesin
_
b
n
_
es no creciente y acotada, por lo tanto, ambas son convergentes. Sean y
sus lmites respectivos. Toda vez que
lm
n
[a
n
b
n
[ = 0,
se sigue que = . Adems
a
n
< x
n
< b
n
,
as que
lm
n
x
n
= .
Ms an, como f(a
n
)f(b
n
) < 0, para n 0, se tiene que
0 lm
n
f(a
n
)f(b
n
) = lm
n
f(a
n
) lm
n
f(b
n
) = f()
2
,
luego
f() = 0
y la sucesin generada por (3.8) converge a una raz de f(x).
A continuacin presentamos una demostracin alternativa del teorema anterior.
Demostracin. Por el teorema de Bolzano existe, al menos, (a, b) tal que F() = 0.
Suponiendo que se han separado las races de la ecuacin y que es la nica raz de
f(x) = 0 en [a, b], (3.9)
dividimos el intervalo [a, b] por la mitad. Por lo que se pueden presentar dos casos
1. En el caso de que
f
_
a + b
2
_
= 0,
entonces
=
a + b
2
.
2. Pero si se cumple que
f
_
a + b
2
_
,= 0,
se elige el intervalo
_
a,
a + b
2
_

_
a + b
2
, b
_
,
en cuyos extremos la funcin f toma signos opuestos. Esto se producir porque al ser
la nica raz de f en [a, b] slo uno de estos intervalos tendr la propiedad de que f
cambie de signo en los extremos del mismo.
3.3. MTODOS ITERATIVOS MULTIPUNTO Y LA ECUACIN DE KEPLER 137
Denotando a ste intervalo por [a
1
, b
1
], lo dividimos por la mitad y procedemos de forma
anloga a la anterior.
Reiterando este proceso podemos obtener la raz exacta de f(x) o conseguir una sucesin
de intervalos cerrados [a
n
, b
n
]

n=1
, encajonados, es decir
a a
1
a
n
a
n+1
b
n+1
b
1
b, n N (3.10)
en los cuales
f(a
n
)f(b
n
) < 0, (3.11)
y
b
n
a
n
=
b a
2
n
, n N. (3.12)
La propiedad (3.10), indica que a
n

n=1
es una sucesin montona creciente y acotada y que
b
n

n=1
es una sucesin montona decreciente y acotada. Por tanto existen

n
[a, b], n = 1, 2, . . .
tales que

1
= lm
n+
a
n
lm
n+
b
n
=
2
. (3.13)
Ahora, aplicando (3.12) se tiene que
lm
n+
(b
n
a
n
) = 0, luego
1
=
2
= ,
por lo que la continuidad de f junto con la condicin dada en (3.13) hacen que
(F())
2
0,
de donde f() = 0. As que = es la nica raz de la ecuacin f(x) = 0.
Anlisis numricos
En esta seccin compararemos las funciones de iteracin presentadas en el Cuadro 3.7,
cuando se aplican a la ecuacin de Kepler. Para ello, continuaremos utilizando las 14 condi-
ciones establecidas para los valores de los parmetros e y M dados en el Cuadro 3.2 y en el
Cuadro 3.3.
En concreto, en el Cuadro 3.8 se muestra la media m del nmero de iteraciones necesarias
para la convergencia de los mtodos de la Secante, Yun-Petkovi y Biseccin aplicados a
la ecuacin de Kepler, tomando como puntos de partida los extremos del intervalo [0, ],
mientras que en el Cuadro 3.9 representamos el porcentaje de fracasos que obtuvieron dichos
mtodos. Finalmente, en el Cuadro 3.10 indicamos el nmero de iteraciones que necesit cada
mtodo para alcanzar la convergencia.
138 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Cuadro 3.8: Media m del nmero de iteraciones necesarias para la convergencia de los mtodos
de la Secante, Yun-Petkovi y Biseccin aplicados a la ecuacin de Kepler, tomando como
puntos de partida los extremos del intervalo [0, ].
Intervalo Secante Yun-Petkovi Biseccin
[0, ] 5.07 3.43 14.43
Cuadro 3.9: Porcentaje de fracasos de de los mtodos de la Secante, Yun-Petkovi y Biseccin
aplicados a la ecuacin de Kepler, tomando como puntos de partida los extremos del intervalo
[0, ].
Intervalo Secante Yun-Petkovi Biseccin
[0, ] 0 0 0
Cuadro 3.10: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin Kepler,
usando el mtodo de la Secante, Yun-Petkovi y Biseccin, y tomando como punto de partida
los extremos del intervalo [0, ].
Casos Secante Yun-Petkovi Biseccin
Caso (1) 4 3 14
Caso (2) 10 5 16
Caso (3) 5 3 16
Caso (4) 6 3 13
Caso (5) 3 3 10
Caso (6) 3 5 11
Caso (7) 5 2 16
Caso (8) 4 4 14
Caso (9) 5 3 15
Caso (10) 7 3 17
Caso (11) 5 4 13
Caso (12) 4 2 16
Caso (13) 6 4 13
Caso (14) 4 4 18
T 71 48 202
m 5.07 3.43 14.43
Conclusiones
Tomando en cuenta los datos representados en los cuadros 3.8, 3.9 y 3.10, obtenemos las
siguientes conclusiones:
3.4. ANLISIS DE LOS PUNTOS DE INICIO 139
1. Los peores resultados de convergencia, rerase al Cuadro 3.8 y al Cuadro 3.10, fueron
obtenidos por el mtodo de Biseccin. Es importante destacar que para ciertas condi-
ciones, vase el Cuadro 3.10, el mtodo de la Secante y el mtodo de Yun-Petkovi, en
trmino de cantidad de iteraciones, tuvieron igual desempeo.
2. El porcentaje de fracasos de los mtodos de la Secante, Yun-Petkovi y Biseccin, al
ser aplicados a la ecuacin de Kepler bajo las condiciones dadas en los cuadros 3.2 y
3.3, fue nula. Esto es as, vase el Cuadro 3.9 y el Cuadro 3.10, porque para todos los
casos establecidos, los mtodos consiguieron converger.
3. Se debe destacar el buen comportamiento que tienen los mtodos de la Secante, Yun-
Petkovi y Biseccin comparados con los mtodos de un solo punto.
3.4. Anlisis del mtodo de Newton, segn los puntos
de inicio, aplicado a la ecuacin de Kepler
La ecuacin de Kepler tiene el privilegio de ser la primera ecuacin no lineal que Newton,
mediante un proceso ms o menos iterativo, trat de resolver. Recordar que dicha ecuacin
tiene la forma
E = M + e sen(E). (3.14)
Para la solucin de la ecuacin de Kepler, se ha comprobado que la convergencia por
iteracin directa es muy lenta, por lo que es usual aplicar la funcin de iteracin del mtodo
de Newton, que de hecho, vuelve a escribir la ecuacin (3.14) en la forma
E
n+1
=
M e
_
E
n
cos(E
n
) sen(E
n
)
_
1 e cos(E
n
)
. (3.15)
Charles y Tatum, [35], presentan un ejemplo, para el cual e = 0.95 y M = 245 grados,
tomando como aproximacin inicial a E
0
= 215 grados, en que la iteracin directa de la
ecuacin de Kepler necesita de 68 iteraciones para alcanzar 10 cifras signicativas, mientras
que el mtodo de Newton, para alcanzar el mismo resultado, tan slo necesita 2 iteraciones.
Debido a la rpida convergencia del mtodo de Newton, incluso en situaciones de grandes
excentricidades para las cuales E y M son muy diferentes, se acostumbra a elegir a E
0
= M
como punto de inicio. Conway, [48], al estudiar el comportamiento de la ecuacin de Kepler
para e > 0.99, comprob, despus de aplicar ms de 200 combinaciones de e y M, que al
tomar a E
0
= M como primera estimacin, el mtodo de Newton experiment una rpida
convergencia. Sin embargo, existen ciertos pares para los cuales el mtodo de Newton, al
tomar a E
0
= M, no convergen. Por ejemplo, si bin no hay dicultad alguna para (e, M) =
(0.991, 0.13) o para (e, M) = (0.993, 0.13), el mtodo de Newton, con E
0
= M, parece no
converger para (e, M) = (0.992, 0.13)
140 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Conway, [48], mostr, que un procedimiento conocido como algoritmo de Laguerre, siem-
pre converge tomando como primera iteracin E
0
= M. Charles y Tatum, ([35]), demostraron
que la funcin de iteracin del mtodo de Newton aplicada a la ecuacin de Kepler, siempre
converge tomando como primera iteracin E
0
= . Adems, presentaron una modicacin de
la funcin de iteracin de Newton, que puede converger a partir de E
0
= M, incluso en aque-
llos casos en los que se ha encontrado comportamiento catico. Asimismo, Charles y Tatum,
[35], realizaron un anlisis grco, vase la Figura 3.5, en el que se presenta la funcin
f(E) = M E + e sen(E), (3.16)
gracada para M = 0.2 y e = 0.99 para distintos intervalos de E.
1 1 2 3
3.0
2.5
2.0
1.5
1.0
0.5
40 20 20 40
40
20
20
40
Figura 3.5: A la izquierda, grca de f(E) = M E + e sen(E), para e = 0.99, M = 0.2
radianes y E
0
= . A la derecha, grca de f(E) = ME+e sen(E), para e = 0.99, M = 0.2
radianes y E
0
= M.
En la Figura 3.5, a la izquierda, la gura est gracada para valores pequeos de E,
mientras que a la derecha, lo est para valores mucho ms grandes. Concluyeron que inde-
pendientemente de los valores M y de e en el rango 0 < e < 1, la curva tiene las siguientes
propiedades:
1. La interseccin con el eje vertical, E = 0, es f(0) = M.
2. La curva de la funcin f(E) es montonamente decreciente.
3. En ninguna parte la curva es horizontal. Hay puntos de inexin en E = 2n, en donde
n es un entero, positivo, negativo o cero. Sin embargo, estos puntos de inexin no son
horizontales. Para valores de e prximos a 1, la curva en el punto de inexin est muy
cerca de la horizontal, pero, sin embargo, no es del todo horizontal.
4. La solucin a la ecuacin de Kepler se encuentra donde el eje horizontal cruza la curva.
5. Cambiar el valor de M aumenta o disminuye la curva sin cambiar su forma. En conse-
cuencia, la solucin a la ecuacin de Kepler para valores diferentes de M, se encuentra
simplemente trazando una lnea horizontal diferente a travs de la curva. Un ejemplo
de esto se presenta en la Figura 3.6 .
3.4. ANLISIS DE LOS PUNTOS DE INICIO 141
0.0 0.5 1.0 1.5 2.0 2.5 3.0
3.0
2.5
2.0
1.5
1.0
0.5
0.0
Figura 3.6: Grca de (3.16), para M = 0 y e = j/10 j = 0, 1 . . . 10.
En la Figura 3.5 a la izquierda, se muestra la grca de (3.16) para E
0
= . Las iteraciones
sucesivas se presentan en el Cuadro 3.11.
Cuadro 3.11: Valores obtenidos a partir de (3.15), en donde M = 0.2, e = 0.99 y E
0
= .
E
n
E
n+1
0
1 1.663405391
2 1.225819545
3 1.094289037
4 1.067240193
5 1.066997414
6 1.066997365
7 1.066997365
Como se ilustra en la Figura 3.5, a la izquierda, una condicin suciente para la con-
vergencia de (3.15) es que la curva sea convexa y sin inexiones. Esta condicin se satisface
siempre por la ecuacin de Kepler en la regin comprendida entre la solucin y . Por lo
tanto, siempre surge una rpida convergencia cuando la primera aproximacn E
0
est en el
rango x

E
0
, donde x

es la solucin de la ecuacin de Kepler. Sin embargo, para


valores E
0
< x

, el lmite inferior de este rango es desconocido. Por lo tanto, lo que tenemos


como algo seguro es que tendremos convergencia cuando E
0
= .
La Figura 3.5, a la derecha, muestra el intento fallido de resolver la ecuacin E = 0.2 +
0.99 sen(E) utilizando E
0
= M = 0.2 como primera aproximacin. Se debe destacar el hecho
de que el valor inicial E
0
= M siempre se encuentra donde la curva de f(E) es cncava hacia
la lnea de f(E) = 0, violando as la norma que garantiza la convergencia. El comportamiento
errtico de las iteraciones se muestran en el Cuadro 3.12.
En sntesis, la convergencia siempre se puede obtener si el valor inicial es elegido en el
intervalo entre la raz y , esto es porque la curva de f(E) es convexa hacia arriba, hacia
142 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Cuadro 3.12: Valores obtenidos a partir de (3.15), en donde M = 0.2, e = 0.99 y E
0
= M.
E
n
E
n+1
0 0.2
1 6.814719036
2 34.88627106
3 16.60736508
4 5.726152563
5 34.66910090
6 17.2386234
7 0.100424545
8 13.32179834
9 31.22883135
10 1127.740781
11 560.0144314
12 1197.763463
el eje E, en una zona donde la raz y el arco no incluye un punto de inexin. De hecho, la
derivacin del mtodo de Newton se basa en el supuesto de que se cumplan esos requisitos.
Por otro lado, Charles y Tatum, [35], al analizar las estimaciones iniciales de partida E
0
,
en 3.15,
E
1
=
M e
_
E
0
cos(E
0
) sen(E
0
)
_
1 e cos(E
0
)
, (3.17)
E
2
=
M e
_
E
1
cos(E
1
) sen(E
1
)
_
1 e cos(E
1
)
, (3.18)
encontraron un caso especial de aparente falta de convergencia del mtodo de Newton cuando
E
2
= E
0
. Establecieron que de imponerse la condicin anterior, la iteracin oscilar entre dos
valores de E, ninguno de los cuales es la solucin correcta. Por ejemplo, si e = 0.9, M = 1 y
E
0
= 5.32050617159410777, se tiene queE
2
= E
0
. Es decir, estamos ante la presencia de un
ciclo de periodo 2:
5.32050617159410777, 5.093375863894274
Si denotamos N
f
a la funcin de iteracin del mtodo de Newton, siendo f(x) la ecuacin de
Kepler para los valores e = 0.9 y M = 1, tenemos que
N

f
(5.32050617159410777)N

f
(5.093375863894274) = 207.053
por lo que resulta que el 2-ciclo es repulsor. Notemos que esta situacin es computacionalmen-
te inestable, y, a la menor desviacin, las iteraciones dejan el ciclo y convergen a la solucin
correcta, E = 1.86209, como se muestra en la Tabla 3.13.
3.5. CICLOS ATRACTORES 143
Cuadro 3.13: Valores obtenidos a partir de (3.15), en donde M = 1, e = 0.9 y E
0
= 5.32.
E
n
E
n+1
0 5.32051
1 5.09344
2 5.32130
3 5.10594
4 5.48711
5 8.36212
6 2.39797
7 0.720473
8 2.76072
9 1.98373
10 1.86664
11 1.86209
12 1.86209
Por otro lado, podemos decir que la aparicin de 2 ciclos es debido a la multitud de puntos
de inexin en la curva y = f(x). Esto hace que la grca de N
f
(N
f
(x)) corte a la diagonal
en un gran nmero de ocasiones, como se aprecia en la izquierda de la Figura 3.7. De hecho,
el 2-ciclo encontrado por Charles y Tatum no es el nico. Por ejemplo, hemos encontrado que
tambin 0.268243, 7.60861 y 0.539076, 4.59352 son 2-ciclos, en ambos casos repulsores.
Es ms, tambin se puede comprobar grcamente la existencia de muchos 3-ciclos (vase
la parte derecha de la Figura 3.7). Como muestra, tenemos los tres ciclos
0.046938, 0.268243, 7.60861, 0.168312, 8.88436, 4.69565
ambos repulsores. La existencia de 3-ciclos tiene una consecuencia interesante. Como la fun-
cin de iteracin N
f
(x) es continua (esto ocurre siempre que 0 < e < 1), el teorema de Li y
Yorke [127] garantiza la existencia de ciclos de todos los periodos.
En principio, todos los ciclos que hemos encontrado en este ejemplo son repulsores. En la
siguiente seccin se analizamos la posible existencia de ciclos atractores.
3.5. Ciclos atractores para el mtodo de Newton apli-
cado a la ecuacin de Kepler
Sin ninguna duda, la ecuacin de Kepler
E = M + e sen E (3.19)
144 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
0.85 0.90 0.95
30
20
10
10
20
30
0.85 0.90 0.95 1.00 1.05
20
10
10
20
Figura 3.7: Grcas de N
f
(N
f
(x)) y N
f
(N
f
(N
f
(x))) para f(x) denida en (3.15), con M = 1
y e = 0.9.
es una de las ecuaciones ms estudiados en campos que van desde la mecnica celeste, el
anlisis numrico, pasando por sistemas dinmicos. A pesar de que durante de ms de tres
siglos ha sido profusamente considerada por muchos autores, vase a [49], la ecuacin de
Kepler continua siendo un tema de gran inters cientco.
En el contexto orbital, la ecuacin de Kepler (3.19), slo tiene sentido para excentricidades
e [0, 1] y los valores de E y M en el intervalo [0, 2], o incluso, teniendo en cuenta la
simetra, en el intervalo [0, ]. Sin embargo, tambin es comn, vase a [35], [126], considerar
la ecuacin de Kepler como una ecuacin puramente algebraica, sin ninguna interpretacin
orbital. En este acpite se considera la ecuacin de Kepler como una funcin denida en la
recta real. De hecho, consideramos la funcin
f(x) = x a b sen x, x R, (3.20)
donde a y b estn dados como nmeros reales.
En muchos casos, vase [126], la extensin de la ecuacin de Kepler (3.20) ha sido consi-
derada como funcin test para comprobar, en la resolucin de la misma, el comportamiento
de diferentes mtodos iterativos. Por ejemplo, el algoritmo de punto jo dado por
x
n+1
= F(x
n
) = a + b sen x
n
, n 0, (3.21)
o el mtodo de Newton denido por
x
n+1
= N
f
(x
n
) = x
n

f(x
n
)
f

(x
n
)
, n 0, (3.22)
son generalmente considerados para este propsito.
En esta seccin centramos la atencin en el mtodo de Newton para resolver la ecuacin
(3.20). Es bien conocido que el mtodo de Newton no siempre proporciona una solucin a la
ecuacin de Kepler. En ese sentido, [35], [48] y [175], han considerado diferentes opciones de
los parmetros a y b, as como del punto inicial x
0
.
Antes de continuar, es necesario incluir algunas notaciones y conceptos bsicos sobre los
sistemas dinmicos.
3.5. CICLOS ATRACTORES 145
Denicin 3.1 (Punto jo). Sea f(x) una funcin diferenciable denida en R, decimos que
es un punto jo de f(x) si f() = . Se dice que ser un punto jo atractor, repulsor o
indiferente si [f

()[ es menor que, mayor que o igual a 1, respectivamente. Si [f

()[ = 0,
entonces se dice que es un punto jo superatractor.
Denicin 3.2 (rbita de un punto por una funcin). La rbita de un determinado punto
inicial x
0
R, se dene como el conjunto
orb(x
0
) = x
0
, f(x
0
), f
2
(x
0
), . . . , f
n
(x
0
), . . .
donde f
n
representa la ensima iteracin de f.
Denicin 3.3 (Ciclo de longitud n). Si x
0
es un punto jo de f
n
, pero no es un punto jo
de f
j
, para 0 < j < n, entonces el conjunto
orb(x
0
) = x
0
, f(x
0
), f
2
(x
0
), . . . , f
n
(x
0
), . . .
se dice que es un ciclo de longitud n.
Ntese que un n-ciclo tambin se puede clasicar como atractor, repulsor o indiferente,
si [(f
n
)

(x
0
)[ es menor que, mayor que o igual a 1, respectivamente. De la misma forma, un
n-ciclo es superatractor si [(f
n
)

(x
0
)[ = 0. Si escribimos x
j
= f
j
(x
0
) para 0 < j < n, entonces,
aplicando la Regla de la Cadena obtenemos que
(F
n
)

(x
0
) =
n1

j=0
F

(F
j
(x
0
)) =
n1

j=0
F

(x
j
),
luego la derivada (f
n
)

tendr el mismo valor en cualquier punto del n-ciclo.


La existencia de ciclos para el mtodo de Newton aplicada a los polinomios ha sido
estudiado por diferentes autores, vase a [22] o [170]. Estos autores probaron la existencia de 2-
ciclos superatractores para el mtodo de Newton aplicado a los polinomios p
1
(x) = x
3
2x+2
y p
2
(x) = 3x
5
10x
3
+ 23x. En concreto, los 2-ciclos superatractores son de la forma 0, 1
y 1, 1 respectivamente.
Como se seal en [35], una de las razones del fracaso del mtodo de Newton para resolver
la ecuacin de Kepler (3.20), es la existencia de ciclos atractores que obligan a las iteraciones
a oscilar siempre entre dos valores, por lo que dicho mtodo no ser capaz de llegar a la
solucin. Para nuestra conveniencia en los clculos siguientes, se introduce la notacin
L
f
(x) =
f(x)f

(x)
f

(x)
2
. (3.23)
Un clculo sencillo nos muestra que N

f
(x) = L
f
(x). Entonces, cuando f(x) est denida
por (3.20), los puntos crticos libres del mtodo de Newton son precisamente las races de
f

(x) = b sen x, esto es, los puntos en la forma x = k con k Z.


146 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Caracterizacin de ciclos superatractores de periodo 2
En este apartado consideraremos la ecuacin de Kepler como una funcin f(x) = x
a b sen x denida en la recta real, vase (3.20). Nuestro inters consiste en caracterizar
los parmetros a y b para mostrar la existencia de ciclos superatractores de periodo 2 cuando
el mtodo de Newton (3.22) se aplica a (3.20). Los puntos crticos libres de N
f
(x), esto
es, los puntos de inexin de f(x), son candidatos perfectos para formar parte de ciclos
superatractores. Los siguientes resultados caracterizan la existencia de estos ciclos.
Teorema 3.2. Si b = 1/2 y a = j + k, con j, k Z, j ,= k, entonces el mtodo de Newton
(3.22) aplicado a la ecuacin de Kepler (3.20) tiene un ciclo superatractor de periodo 2 de
la forma 2j, 2k.
Demostracin. Notemos que las condiciones N
f
(2j) = 2k y N
f
(2k) = 2j llevan al
siguiente sistema de ecuaciones lineales
_
_
_
a + 2(k j)b = 2k
a + 2(j k)b = 2j.
Resolviendo este sistema para a y b obtenemos que b = 1/2 y a = j +k. En consecuencia,
2j, 2k es un 2-ciclo. Finalmente, tomando en cuenta que
(N
2
f
)

(2j) = N

f
(2j)N

f
(2k) = L
f
(2j)L
f
(2k) = 0,
deducimos que el 2-ciclo mencionado ms arriba es superatractor.
Teorema 3.3. Si b = 1/2 y a = j + k + 1, con j, k Z, j ,= k, entonces el mtodo
de Newton (3.22) aplicado a la ecuacin de Kepler (3.20) tiene un ciclo superatractor de
periodo 2 en la forma (2j + 1), (2k + 1).
Demostracin. La demostracin sigue los pasos de la demostracin del teorema anterior.
Ahora las condiciones N
f
((2j + 1)) = (2k + 1) y N
f
((2k + 1)) = (2j + 1) llevan al
siguiente sistema de ecuaciones lineales
_
_
_
a + 2(j k)b = 2k + 1
a + 2(k j)b = 2j + 1,
que tiene como nica solucin a b = 1/2 y a = j + k + 1. Como
(N
2
f
)

((2j + 1)) = N

f
((2j + 1))N

f
((2k + 1)) = L
f
((2j + 1))L
f
((2k + 1)) = 0,
concluimos que (2j + 1), (2k + 1) es un ciclo superatractor de periodo 2.
3.5. CICLOS ATRACTORES 147
Por supuesto, los valores de a y b encontrados en los dos teoremas anteriores no son los
nicos para los que la ecuacin de Kepler presenta ciclos atractores de periodo 2. Es posible
encontrar muchos otros. Como ejemplos, en los siguientes resultados se muestran algunos de
ellos. Notemos que los teoremas 3.43.7 son una generalizacin directa de la dada en los
teoremas 3.23.3.
Teorema 3.4. Para j, k Z, vamos a introducir las siguientes notaciones:
=
2
(4k + 1 4j)
, b =
1
1
, a = 2j
b

.
Entonces, el mtodo de Newton (3.22) aplicado a la ecuacin de Kepler (3.20) tiene un ciclo
superatractor de periodo 2 en la forma 2j, (4k + 1)/2.
Demostracin. En realidad las condiciones N
f
((2j)) = (4k+1)/2 y N
f
((4k+1)/2) = 2j
llevan al siguiente sistema de ecuaciones lineales
_
_
_
2a + (4k + 1 4j)b = 4k + 1
a + b = 2j.
Resolviendo este sistema de ecuaciones en base a a y b, obtenemos los valores dados en el
teorema. Como
(N
2
f
)

(2j) = N

f
(2j)N

f
((2k + 1)/2) = L
f
(2j)L
f
((2k + 1)/2) = 0,
concluimos que 2j, (2k + 1)/2 es un ciclo superatractor de periodo 2.
Teorema 3.5. Para j, k Z, introducimos las siguientes notaciones:
=
2
(4k + 3 4j)
, b =
1
1 +
, a = 2j +
b

.
Entonces, el mtodo de Newton (3.22) aplicado a la ecuacin de Kepler (3.20) tiene un ciclo
superatractor de periodo 2 en la forma 2j, (4k + 3)/2.
Demostracin. Las condiciones N
f
(2j) = (4k + 3)/2 y N
f
((4k + 3)/2) = 2j llevan al
siguiente sistema de ecuaciones lineales
_
_
_
2a + (4k + 3 4j)b = 4k + 3
a + b = 2j.
Resolviendo este sistema para a y b obtenemos que b =
1
1+
y a = 2j +
b

. En consecuencia,
2j, (4k + 3)/2 es un 2-ciclo. Finalmente, tomando en cuenta que
(N
2
f
)

(2j) = N

f
(2j)N

f
((4k + 3)/2) = L
f
(2j)L
f
((4k + 3)/2) = 0,
deducimos que el 2-ciclo mencionado ms arriba es superatractor.
148 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Teorema 3.6. Para j, k Z, denamos:
=
2
(4j + 1 4k)
, b =
1
1
, a = 2j + 1
b

.
Entonces, el mtodo de Newton (3.22) aplicado a la ecuacin de Kepler (3.20) tiene un ciclo
superatractor de periodo 2 de la forma (2j + 1), (4k + 1)/2.
Demostracin. En concreto, las condiciones N
f
((2j +1)) = (4k+1)/2 y N
f
((4k+1)/2) =
(2j + 1) nos conducen al siguiente sistema de ecuaciones lineales
_
_
_
2a (4j + 1 4k)b = 4k + 1
a b = (2j + 1).
Resolviendo este sistema de ecuaciones en a y b, obtenemos los valores dados en el teorema.
Como
(N
2
f
)

(2j + 1)) = N

f
(2j + 1))N

f
((4k + 1)/2) = L
f
(2j + 1))L
f
((4k + 1)/2) = 0,
concluimos que (2j + 1), (4k + 1)/2 es un ciclo superatractor de periodo 2.
Teorema 3.7. Para j, k Z, denotamos:
=
2
(4k + 1 4j)
, b =
1
1
, a = 2j + 1 +
b

.
Entonces, el mtodo de Newton (3.22) aplicado a la ecuacin de Kepler (3.20) tiene un ciclo
superatractor de periodo 2 de la forma (2j + 1), (4k + 3)/2.
Demostracin. Ahora las condiciones N
f
((2j + 1)) = (4k + 3)/2 y N
f
((4k + 3)/2) =
(2j + 1) llevan al siguiente sistema de ecuaciones lineales
_
_
_
2a (4k + 1 4j)b = 4k + 3
a + b = (2j + 1),
que tiene como nica solucin a b =
1
1
y a = 2j + 1 +
b

. Como
(N
2
f
)

((2j + 1)) = N

f
((2j + 1))N

f
((4k + 3)/2) = L
f
((2j + 1))L
f
((4k + 3)/2) = 0,
concluimos que (2j + 1), (4k + 13/2 es un ciclo superatractor de periodo 2.
Para ilustrar numricamente los resultados tericos obtenidos en esta seccin se muestran
en el Cuadro 3.14 diferentes parmetros a y b dados por los teoremas 3.23.7, as como
las rbitas de los diferentes puntos de la funcin de iteracin del mtodo de Newton (3.22)
asociada a la ecuacin de Kepler (3.20). En este cuadro presentamos los ciclos superatractores
que se detectaron. Tambin hemos generado algunos grcos, vanse las Figuras 3.113.10,
3.5. CICLOS ATRACTORES 149
Cuadro 3.14: Presencia de ciclos atractores para el mtodo de Newton (3.22) aplicado a la
ecuacin de Kepler (3.20) para diferentes opciones de los parmetros a y b dados por los
Teoremas 3.23.7.
j 0 0 3 3 2 3
k 4 4 2 2 0 2
a 4 5
9+18
2+3
611
2
121
2+7
525
2+5
b 1/2 1/2
3
2+3

2

7
2+7
5
25
x
0
0.08 4 14.14 17.28 1.571 15.708
Iteracin x
n
x
n
x
n
x
n
x
n
x
n
1 25.0528 21.9541 18.8385 18.8549 9.4268 23.5619
2 0.0799 9.4333 14.1385 17.2787 1.5705 15.7079
3 25.053 21.9906 18.8443 18.8494 9.4222 23.5619
4 0.0793 9.4247 14.1374 17.2787 1.5703 15.7079
5 25.0541 21.9911 18.8483 18.8495 9.4207 23.5619
6 0.0773 9.4247 14.1371 17.2787 1.5698 15.7079
7 25.0581 21.9911 18.8494 18.8495 9.4149 23.5619
8 0.0697 9.4247 14.1371 17.2787 1.5649 15.7079
9 25.0719 21.9911 18.8495 18.8495 9.3664 23.5619
10 0.0462 9.4247 14.1371 17.2787 1.3698 15.7079
Ciclo de longitud 2 0, 8 , 9 6, 9/2 6, 11/2 3, /2 5, 5/2
5 10 15 20 25
15
10
5
5
10
10 15 20 25
10
5
5
10
Figura 3.8: A la izquierda, un ciclo de periodo 2 de la forma 0, 8 para el mtodo de Newton
aplicado a f(x) = x 4 0.5 sen x. A la derecha, un ciclo de periodo 2 de la forma , 9
para el mtodo de Newton aplicado a f(x) = x 5 + 0.5 sen x.
150 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
14 15 16 17 18 19 20
5
4
3
2
1
1
16 17 18 19
5
4
3
2
1
0
Figura 3.9: A la izquierda, un ciclo de periodo 2 en la forma 6, 9/2, para el mtodo de
Newton aplicado a f(x) = x(
9+18
2+3
) (
3
2+3
) sen x. A la derecha, un ciclo de periodo 2 de
la forma 6, 11/2, para el mtodo de Newton aplicado a f(x) = x(
611
2
)(

2
) sen x.
10 8 6 4 2 2
2
4
6
8
10
14 12 10 8
0
2
4
6
8
Figura 3.10: A la izquierda, un ciclo de periodo 2 de la forma 3, /2, para el mtodo de
Newton aplicado a f(x) = x(
121
2+7
)+(
7
2+7
) sen x. A la derecha, un ciclo de periodo 2 de la
forma 5, 5/2, para el mtodo de Newton aplicado a f(x) = x(
525
52
)(
5
25
) sen x.
para mostrar el comportamiento de algunos puntos de partida y parmetros seleccionados.
Los datos experimentales fueron obtenidos utilizando el sistema de lgebra computacional
Mathematica v8.
Hemos de aclarar que, aunque en la segunda grca de la Figura 3.8 se ha obtenido un
2-ciclo de la forma , 9 para el mtodo de Newton aplicado a f(x) = x 5 + 0.5 sen x,
esto no entra en contradiccin con el resultado de Charles y Tatum analizado en la seccin
anterior. En efecto, el resultado de Charles y Tatum hace referencia a la ecuacin de Kepler
denida en el contexto orbital, es decir con valores de la anomala media M entre 0 y 2. En
nuestro caso, M = 5 est fuera de este intervalo.
Finalizamos esta seccin con una aplicacin interesante cuando la dinmica del mtodo de
Newton se considera con aritmtica modular (m od 2). Al trabajar con la aritmtica usual
en R, es bien sabido que las races de una funcin f(x) corresponden a los puntos jos de
la funcin de iteracin del mtodo de Newton N
f
(x) denida en (3.22). Adems, las races
simples corresponden a puntos jos superatractores. Sin embargo, el uso de la aritmtica
modular (m od 2) puede producir, para el mtodo de Newton, la aparicin de puntos jos
extraos, es decir, puntos jos de N
f
(x) que no son races de f(x). Este hecho es una simple
3.6. LA DERIVADA SCHWARZIANA Y LA ECUACIN DE KEPLER 151
consecuencia de los Teoremas 3.23.7 vistos en la seccin anterior.
Terminamos este acpite con algunos ejemplos de puntos jos extraos para el mtodo
de Newton en la aritmtica modular (m od 2). As denamos
x
n+1
= N
f
( x
n
) (m od 2). (3.24)
Entonces:
1. x = 0, con b = 1/2 y a = 1, es un punto jo extrao para el mtodo de Newton
(3.24) aplicado a la ecuacin de Kepler (3.20). Notemos que existen puntos de partida
prximos a x = 0 cuyas rbitas convergen a x = 0, pero f(0) = . Por ejemplo, la
rbita de x
0
= 0.3 es
0.3, 6.023092, 0.198816, 6.164363, 0.043438, 6.277291, 0.000109, 6.283185, 3.510
15
, 0, 0, . . .
2. x = con b = 1/2 and a = 2, es un punto jo extrao para el mtodo de Newton
(3.24) aplicado a la ecuacin de Kepler (3.20). En este caso tenemos que la rbita de
x
0
= 2.9
2.9, 2.959726, 3.037684, 3.107514, 3.137933, 3.141551, 3.141593, , , . . .
converge a , pero f() = .
3.6. La derivada schwarziana y la ecuacin de Kepler
En este acpite utilizaremos algunas tcnicas de la teora del caos, parecidas a la utilizadas
por Devaney, [64] y compararemos los resultados con los obtenidos por Conway [48], Charles
y Tatum, [35] y Stumpf, [175]. Debemos sealar que en los trabajos de [64] se investigan
las caractersticas de la funcin iterativa del mtodo de Newton, asociada a la ecuacin de
Kepler, mientras que en los trabajos de [35], se trata de explicar la naturaleza del problema
a travs del anlisis de la ecuacin de Kepler en s misma.
Consideremos el mtodo de Newton, cuya funcin de iteracin aplicada a la ecuacin de
Kepler, en adelante denida por N(E), est dada por la expresin
N(E) =
M eE cos(E) +e sen(E)
1 e cos(E)
, (3.25)
luego, encontrar las races de la ecuacin de Kepler se reduce a encontrar los puntos jos de
(3.25).
En [156] y [106], se examina en profundidad el comportamiento catico de la funcin de
iteracin del mtodo de Newton aplicado a funciones diferentes a la de ecuacin de Kepler.
Una gran parte de las deniciones de la Teora del Caos que se utilizan en este acpite se
152 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
abordan con ms detalles en los citados documentos de referencia, algunas de las cuales se
introducen a continuacin.
Stumpf, [175] veric que para valores pequeos de la excentricidad, el punto E
0
= M
es una buena condicin inicial. Eso explica el porqu, en la prctica, dicha condicin se
utilice muy a menudo. Adems comprob que, cuando la excentricidad aumenta, la condicin
E
0
= M se convierte en una mala condicin inicial, pero que an as, la ecuacin de Kepler
o la funcin de iteracin, asumiendo que M pertenece a la cuenca de atraccin de la funcin
que se est aplicando, puede converger. Tambin comprob que algunas veces el mtodo
de Newton no converge o converge muy lentamente, destacando que la regin problemtica
est conformada por grandes e y pequeas M. Conrm que las reas problemticas estn
separadas de las reas no problemticas por muy pequeos cambios en los valores de los
parmetros. Conway, [48], as como Charles y Tatum, [35], ilustran este problema presentando
cuadros tpicos de las series de iteraciones necesarias para la convergencia en la regin 0.980 <
e < 0.999 y 0.01 < M/ < 0.2. Esta sensibilidad a las condiciones iniciales, no slo se limita a
cambios en la conjetura inicial. Los cambios en los otros parmetros, excentricidad o anomala
media, provocan diferencias igualmente dramticas en las rbitas.
Al observar los puntos de inexin, convexidad y concavidad de la ecuacin de Kepler
y el anlisis de los resultados de las iteraciones utilizando el mtodo de Newton, Charles y
Tatum, [35], llegaron a la conclusin de que para E
0
= , siempre habr convergencia. De
alguna forma, se podra probar analticamente esto aplicando la teora del caos? La teora
del caos puede proporcionar algunas respuestas a travs de una herramienta muy til como
es la derivada schwarziana.
En [64] encontramos que la derivada schwarziana de una funcin f(x), viene dada por
S
f
(x) =
f

(x)
f

(x)

3
2
_
f

(x)
f

(x)
_
2
. (3.26)
En el texto anterior aparece un teorema que demuestra la relacin que existe entre (3.26) y la
cuenca de atraccin de la funcin f. Recordemos que la cuenca de atraccin de un punto jo
atractor de f est formada por los puntos x
0
cuyas rbitas por f, f
n
(x
0
), son convergentes
al punto jo atractor. El mayor intervalo dentro de una cuenca de atraccin que contiene al
propio punto jo atractor, se le llama cuenca de atraccin inmediata.
Teorema 3.8. Supongamos que S
f
(x) < 0. Si x
0
es un punto peridico atractor de f, en-
tonces, o la cuenca de atraccin inmediata de x
0
se extiende desde a +, o existe un
punto crtico de f, cuya rbita es atrada por la rbita de x
0
.
Esto signica que si la derivada schwarziana de (3.25) fuese siempre negativa, entonces, la
eleccin de un punto inicial igual al punto crtico de (3.25), podra asegurar la convergencia.
Lo mismo ocurrira para el resto de mtodos iterativos considerados en esta seccin. En la
Figuras 3.11, 3.12, 3.13 y 3.14, se representan las grcas de la derivada schwarziana de
3.6. LA DERIVADA SCHWARZIANA Y LA ECUACIN DE KEPLER 153
los mtodo de Newton, Halley, Chebyshev, super Halley, Danby y los mtodos obtenidos al
sustituir = 3/2 y = 2 en (3.3). Los colores de los grcos representan diferentes valores
de e. As, para e = 0.1 se asign el color rojo, para e = 0.2 el color naranja, para e = 0.3 el
color azul y para e = 0.4 el color verde.
0.0 0.5 1.0 1.5 2.0 2.5 3.0
40
30
20
10
0
10
1.0 1.5 2.0 2.5 3.0
0.0025
0.0020
0.0015
0.0010
0.0005
0.0000
Figura 3.11: Curvas correspondientes a la derivada schwarziana de los mtodos de Newton
(izquierda) y Halley (derecha), aplicados a la ecuacin de Kepler. Los colores de las curvas
representan distintos valores de e con M = 0.2
1 2 3 4 5
50
40
30
20
10
0
10
Figura 3.12: Curvas correspondientes a la derivada schwarziana de los mtodos de Chebyshev
(izquierda) y super-Halley (derecha), aplicados a la ecuacin de Kepler. Los colores de las
curvas representan distintos valores de e con M = 0.2
0.0 0.2 0.4 0.6 0.8 1.0
3000
2500
2000
1500
1000
500
0
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4
800
600
400
200
0
Figura 3.13: A la izquierda, derivada schwarziana del mtodo de Danby. A la izquierda, la
derivada schwarziana del mtodo denido por (3.3) para = 3/2. Los colores de las curvas
representan distintos valores de e con M = 0.2
154 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
1.0 1.1 1.2 1.3 1.4 1.5
0.2
0.0
0.2
0.4
0.6
0.8
1.0
Figura 3.14: Curvas correspondientes a la derivada schwarziana del mtodo denido por (3.3)
para = 2. Los colores de las curvas representan distintos valores de e con M = 0.2
Esta primera inspeccin grca no permite garantizar que la derivada schwarziana de los
distintos mtodos considerados sea siempre negativa. En lo que sigue profundizaremos un
poco ms en el anlisis de la derivada schwarziana.
3.6. LA DERIVADA SCHWARZIANA Y LA ECUACIN DE KEPLER 155
Notemos que los puntos crticos de la ecuacin (3.25) aparecen cuando N = 0 o N

= 0,
lo cual signica que E = n, es un punto crtico de (3.25) para cualquier entero n. Esto es
consistente con los resultados de Charles y Tatum, [35], relacionados con los valores de la
derivada schwarziana. A continuacin presentamos las derivadas schwarzianas de los mtodos
de Newton, Halley, Chebyshev y super-Halley aplicadas a una funcin genrica f(x).
S
N(x)
=
3f

(x)
f(x)
+
f
iv
(x)
f

(x)

3f

(x)
2
2f(x)
2

3f

(x)
2
2f

(x)
2

f

(x)f

(x)
f(x)f

(x)
.
S
H(x)
= 2[8f

(x)
4
f

(x)
2
+ 4f

(x)
3
f

(x)(6f

(x)
2
f(x)f
iv
(x)) +
+ 6f(x)f

(x)
2
(6f

(x)
3
+ f(x)f

(x)
2
f(x)f

(x)f
iv
(x))
f(x)f

(x)(4f

(x)(15f

(x)
3
+ 3f(x)f

(x)
2
4f(x)f

(x)f
iv
(x)) + 3f(x)f

(x)
2
f
v
(x)) +
+ f

(x)
2
(18f

(x)
4
+ 24f(x)f

(x)f

(x)
2
+ 6f(x)f

(x)
2
f
iv
(x) +
+ f(x)
2
(3f
iv
(x)
2
+ 2f

(x)f
v
(x)))]/f(x)
2
(3f

(x)
2
2f

(x)f

(x))
2
].
S
C(x)
= 1/((2f(x)
2
f

(x)
2
)(3f

(x)
2
+ f

(x)f

(x))
2
)(3(12f(x)f

(x)
3
+ 2f

(x)
3
f

(x)
9f(x)f

(x)f

(x)f

(x) +f

(x)
2
(6f

(x)
2
+ f(x)f
iv
(x)))
2
+
+ 2(3f

(x)
2
+ f

(x)f

(x))(60f(x)
2
f

(x)
4
2f

(x)
5
f

(x) 72f(x)
2
f

(x)f

(x)
2
f

(x) +
+ f

(x)
4
(6f

(x)
2
4f(x)f
iv
(x)) + 3f(x)f

(x)
2
(14f

(x)
3
+ 3f(x)f

(x)
2
+
+ 4f(x)f

(x)f
iv
(x)) +f(x)f

(x)
3
(34f

(x)f

(c) f(x)f
v
(x)))).
S
SH(x)
= 1/(2f(x)
2
(f(x)f

(x)
3
f

(x)
3
f

(x))
2
)(8f

(x)
8
f

(x)
2
+ 4f(x)f

(x)
5
f

(x)(5f

(x)
3
+
+ 2f

(x)f

(x)f

(x) f

(x)
2
f
iv
(x)) +f(x)
4
f

(x)
4
(3f

(x)
2
+ 2f

(x)f

(x)) +
+ 2f(x)
3
f

(x)(15f

(x)
6
25f

(x)f

(x)
4
f

(x) 12f

(x)
3
f

(x)
3
10f

(x)
2
f

(x)
3
+
+ 8f

(x)
3
f

(x)f

(x)f
iv
(x) +f

(x)
2
f

(x)
2
(30f

(x)
2
f

(x)f
v
(x))) +
+ f(x)
2
f

(x)
2
(15f

(x)
6
20f

(x)f

(x)
4
f

(x) + 5f

(x)
2
f

(x)
2
f

(x)
2
+
+ 10f

(x)
2
f

(x)
3
f

(x) + 2f

(x)
3
f

(x)f
iv
(x) +f(x)
2
f

(x)
2
(15f

(x)
6

20f

(x)f

(x)
4
f

(x) + 5f

(x)
2
f

(x)
2
f

(x)
2
+ 10f(x)
2
f

(x)
3
f

(x) +
+ 2f

(x)
3
f

(x)f

(x)f
iv
(x) +f

(x)
3
(6f

(x)
3
3f

(x)f
iv
(x)
2
+ 2f

(x)f

(x)f
v
(x))))).
Asimismo, notemos que la derivada schwarziana de los mtodo de Newton, Halley, Che-
156 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
10 5 0 5 10
2000
1500
1000
500
0
1.0 0.5 0.0 0.5 1.0
200
150
100
50
0
Figura 3.15: A la izquierda, la derivada schwarziana del mtodo de Newton. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
10 5 0 5 10
2000
1500
1000
500
0
1.0 0.5 0.0 0.5 1.0
30
20
10
0
10
20
Figura 3.16: A la izquierda, la derivada schwarziana del mtodo de Halley. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
10 5 0 5 10
2000
1500
1000
500
0
2.0 2.2 2.4 2.6 2.8 3.0
1.0
0.5
0.0
0.5
1.0
1.5
Figura 3.17: A la izquierda, la derivada schwarziana del mtodo de Chebyshev. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
3.6. LA DERIVADA SCHWARZIANA Y LA ECUACIN DE KEPLER 157
10 5 0 5 10
2000
1500
1000
500
0
2.0 2.2 2.4 2.6 2.8 3.0
5
4
3
2
Figura 3.18: A la izquierda, la derivada schwarziana del mtodo de super-Halley. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
0 2 4 6 8 10
0.4
0.2
0.0
0.2
0.4
0.6
0.8
1.0
1.0 0.5 0.0 0.5 1.0
0.92
0.94
0.96
0.98
1.00
Figura 3.19: A la izquierda, la derivada schwarziana del mtodo denido por (3.3) para = 2.
A la derecha, ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
10 5 0 5 10
800
600
400
200
0
1.0 0.5 0.0 0.5 1.0
800
600
400
200
0
Figura 3.20: A la izquierda, la derivada schwarziana del mtodo denido por (3.3) para
= 3/2. A la derecha, ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
158 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
byshev y super-Halley, aplicada a la ecuacin de Kepler es
S
N
=
3b
k
+
d
b

3a
2
2k
2

3c
2
2b
2

ac
kb
.
S
H
= 2[8a
4
c
2
+ 4a
3
c(6b
2
kd) + 6kb
2
(6b
3
+ kc
2
kbd)
ka(4c(15b
3
+ 3kc
2
4kbd) + 3kb
2
g) +
+ a
2
(18b
4
+ 24kbc
2
+ 6kb
2
d + k
2
(3d
2
+ 2cg))]/k
2
(3b
2
2ac)
2
].
S
C
= 1/((2k
2
a
2
)(3b
2
+ ac)
2
)(3(12kb
3
+ 2a
3
c 9kabc + a
2
(6b
2
+ kd))
2
+
+ 2(3b
2
+ ac)(60k
2
b
4
2a
5
c 72k
2
ab
2
c + a
4
(6b
2
4kd) +
+ 3ka
2
(14b
3
+ 3kc
2
+ 4kbd) +ka
3
(34bc kg))).
S
SH
= 1/(2k
2
(kb
3
a
3
c)
2
)(8a
8
c
2
+ 4ka
5
c(5b
3
+ 2abc a
2
d) +k
4
b
4
(3c
2
+ 2bc) +
+ 2k
3
b(15b
6
25ab
4
c 12a
3
c
3
10a
2
b
3
+ 8a
3
bcd + a
2
b
2
(30c
2
ag)) +
+ k
2
a
2
(15b
6
20ab
4
c + 5a
2
b
2
c
2
+ 10a
2
b
3
c + 2a
3
cd +
+ k
2
a
2
(15b
6
20ab
4
c + 5a
2
b
2
c
2
+ 10a
2
b
3
c + 2a
3
bcd + a
3
(6c
3
3ad
2
+ 2acg)))),
donde k = E M e sen(E), a = k

= 1 e cos(E), b = k

= e sen(E), c = k

=
e cos(E), d = k
iv
= e sen(E) y g = k
v
= e cos(E).
10 5 0 5 10
100
50
0
50
2.0 2.2 2.4 2.6 2.8 3.0
4
2
0
2
4
6
8
Figura 3.21: A la izquierda, la derivada schwarziana del mtodo de Danby. A la derecha,
ampliacin de dicha derivada. En ambos casos M = 0.2 y e = 0.997.
El hecho de que los tres ltimos trminos de la derivada schwarziana del mtodo de
Newton aplicada a la ecuacin de Kepler son siempre negativos, puede llevarnos a tener
falsas esperanzas con respecto a que la condicin S
N
(E) < 0 fuese verdad. Entonces, a pesar
de que la convergencia no est asegurada para algunas condiciones iniciales, tal como lo
demuestran Conway, [48], Charles y Tatum, [35] y otros, esto estara siempre asegurado si se
tomase como punto inicial un punto crtico que sea igual a n.
En sntesis, la derivada schwarziana proporciona una prueba de gran alcance para deter-
minar si cualquier esquema particular de iteracin ser convergente, es decir, que la derivada
3.6. LA DERIVADA SCHWARZIANA Y LA ECUACIN DE KEPLER 159
10 5 0 5 10
2000
1500
1000
500
0
10 5 0 5 10
2000
1500
1000
500
0
Figura 3.22: A la izquierda, la derivada schwarziana del mtodo de Newton. A la derecha, la
derivada schwarziana del mtodo de Chebyshev. En ambos casos M = 0.2 y e = 0.997.
10 5 0 5 10
100
50
0
50
0 2 4 6 8 10
0.4
0.2
0.0
0.2
0.4
0.6
0.8
1.0
Figura 3.23: A la izquierda, derivada schwarziana del mtodo de Danby. A la izquierda, la
derivada schwarziana del mtodo denido por (3.3) para = 2. En ambos casos M = 0.2 y
e = 0.997
10 5 0 5 10
800
600
400
200
0
Figura 3.24: Derivada schwarziana del mtodo denido por (3.3) para = 3/2, con M = 0.2
y e = 0.997
schwarziana prueba analticamente que en una amplia gama de excentricidad y de anomala
media, la ecuacin de Kepler, con una condicin inicial E
0
= , se puede resolver rpida-
160 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
mente mediante el uso del mtodo de Newton. En el resto de mtodos considerados, se ha
comprobado que no se puede garantizar que la derivada schwarziana sea siempre negativa. En
consecuencia, no se puede garantizar de esta manera que la eleccin de E
0
= como punto
de partida garantice la convergencia a la solucin del mtodo iterativo considerado. No obs-
tante, Charles y Tatum, [35], han demostrado que el mtodo de Newton, cuando utiliza esta
condicin inicial, E
0
= , siempre converge rpidamente, incluso en reas donde el criterio
de la derivada schwarziana falla. Como se ha puesto de maniesto en la Seccin 3.4 y, en
concreto, en el Cuadro 4.6 tambin es cierto que la eleccin de E
0
= tambin produce una
sucesin convergente para el resto de mtodos iterativos considerados, con independencia de
que no se satisfaga el criterio de la derivada schwarziana.
10 5 0 5 10
2000
1500
1000
500
0
10 5 0 5 10
2000
1500
1000
500
0
Figura 3.25: A la izquierda, la derivada schwarziana del mtodo super-Halley. A la derecha,
la derivada schwarziana del mtodo de Halley. En ambos casos M = 0.2 y e = 0.997
3.7. Estudio dinmico de la ecuacin de Kepler
Los problemas relacionados con la dinmica han centrado la atencin de los cientcos
durante siglos. Los ms conocidos hasta ahora estn relacionados con la mecnica celeste,
en concreto, con el estudio del movimiento de los cuerpos celestes pertenecientes al sistema
solar. Son bien conocidos los intentos de Newton para comprender y modelar los movimientos
de los planetas descritos en las famosas leyes de Kepler, estudios estos que sirvieron como
base para el desarrollo del clculo y el planteamiento de modelos de problemas dinmicos
como ecuaciones diferenciales, teniendo especial inters los mtodos de perturbaciones.
Hasta nales del siglo XIX, el anlisis fue la herramienta preferida por los investigadores
para estudiar los problemas dinmicos. Luego, a partir de los trabajos de Poincar [149],
quien demostr que los mtodos de perturbaciones no siempre arrojaban resultados correctos,
se fusion el anlisis con la geometra, surgiendo as lo que hoy en da se conoce como
Sistemas Dinmicos. En [139] encontramos que Poincar visualizaba un sistema dinmico
como un campo de vectores, preocupndose principalmente por describir globalmente todas
3.7. ESTUDIO DINMICO DE LA ECUACIN DE KEPLER 161
las soluciones, mediante el llamado retrato de fase, y el efecto de pequeas perturbaciones en
las condiciones iniciales sobre la estabilidad del sistema. En la poca de Poincar, el estudio
de la estabilidad de los sistemas dinmicos fue simultnamente estudiado por Liapunov [128],
quien con su tesis doctoral, sent las bases de la teora moderna de la estabilidad.
Diagramas de Feigenbaum
La ecuacin logstica se ha convertido en la ecuacin por excelencia para vericar las
caractersticas del caos. Pese a su aparente sencillez, constituye un buen ejemplo para mostrar
el comportamiento de los sistemas caticos. Se trata de una ecuacin en diferencias que fue
publicada por primera vez por Pierre Francois Verhulst en 1838, para explicar el crecimiento
de una poblacin perteneciente a la misma especie y que se reproduce en un entorno cerrado,
sin ningn tipo de inuencia externa.
La ecuacin se puede escribir como x
n+1
= rx
n
(1 x
n
), donde el parmetro r es una
constante denominada parmetro de crecimiento, y la variable x
n
puede verse como la fraccin
mxima de poblacin que el ambiente puede soportar en un instante t
n
.
Edward Albert Feigenbaum, nacido el 20 de enero de 1936 en Weehawken, Estados Unidos,
es un cientco de la computacin, cuya rea de especialidad es la inteligencia articial. Uno de
sus grandes aportes a las matemticas lo constituyen los llamados Diagramas de Feigenbaum.
En [?], encontramos que dicho diagrama aparece cuando se representan en los ejes, mediante la
aplicacin logstica, los puntos a los que convergen la rbita del punto 1/2, para los diferentes
valores del parmetro r. La razn de utilizar el punto 1/2 se basa en el hecho de que cuando
existe un ciclo atractivo, el punto 1/2, siempre est en la cuenca de atraccin del ciclo.
0 1 2 3 4
0.0
0.2
0.4
0.6
0.8
1.0
2.0 2.5 3.0 3.5 4.0
0.0
0.2
0.4
0.6
0.8
1.0
Figura 3.26: Diagrama de Feigenbaum para la ecuacin logstica x
n+1
= rx
n
(1 x
n
). A la
izquierda para el intervalo 0.5 r 4. A la derecha, para el intervalo 2 r 4. Puede
observarse la ruta del caos: sucesivos desdoblamientos de periodo que desembocan en un
periodo innito.
Si estudiamos experimentalmente la funcin logstica, observaremos que para valores de
r < 3, el sistema converge a un punto jo estable.
Para r < 1 el punto jo es el cero, para r = 1, el cero se convierte en un punto indiferente,
pero atrae todos los puntos que estn en el intervalo (0, 1), mientras que para r 1, las
162 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
rbitas de todos los puntos que estn en [0, 1] divergen a .
0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.02
0.04
0.06
0.08
0.05 0.10 0.15 0.20 0.25 0.30
0.05
0.10
0.15
0.20
0.25
0.30
Figura 3.27: Diagrama de Telaraa para la ecuacin logstica x
n+1
= rx
n
(1 x
n
). A la
izquierda para r = 1. A la derecha, para r = 1.5
Para r > 1 el punto cero se convierte en repulsivo, pero aparecen otros puntos atractivos,
por ejemplo, para r = 1.5 las rbitas de cualquier punto de (0, 1) tienden a 1/3. Vase la
Figura 3.27.
Para r = 2 en el intervalo (0, 1), el punto 0.5 es superatractivo. Para r = 2.5 las rbitas
de cualquier punto de (0, 1) tienden al punto atractivo 0.6. Rerase a la Figura 3.28.
0.1 0.2 0.3 0.4 0.5
0.1
0.2
0.3
0.4
0.5
0.1 0.2 0.3 0.4 0.5 0.6
0.1
0.2
0.3
0.4
0.5
0.6
Figura 3.28: Diagrama de Telaraa para la ecuacin logstica x
n+1
= rx
n
(1 x
n
). A la
izquierda para r = 2. A la derecha, para r = 2.5
Cuando r = 3, vase la Figura 3.29, el punto jo se hace inestable, apareciendo una
bifurcacin, es decir, aparecen dos puntos peridicos de periodo 2.
En adelante abordaremos el estudio de la ecuacin de Kepler desde un punto de vista
puramente algebraico, tal y como lo hacen [35], [51], [126], [147] y [164]. Desde esta posicin
nos interesaremos por la ecuacin algebraica y la dinmica de la funcin de iteracin denida
a partir de la misma ecuacin de Kepler
E
n+1
= M + e sen E
n.
(3.27)
Debemos aclarar que desde el punto de vista de la mecnica celeste, el estudio de la ecuacin
de Kepler no tiene sentido para excentricidades que estn fuera del intervalo [0, 1).
3.7. ESTUDIO DINMICO DE LA ECUACIN DE KEPLER 163
0.65 0.70 0.75
0.55
0.60
0.65
0.70
3.0 3.2 3.4 3.6 3.8 4.0
0.0
0.2
0.4
0.6
0.8
1.0
Figura 3.29: A la izquierda, diagrama de Telaraa, a la derecha, el Diagrama de Feigenbaum
para la ecuacin logstica x
n+1
= rx
n
(1 x
n
), con r = 3.
As, sea la funcin f(x) denida por
f(x) = M + e sen x, (3.28)
luego, la solucin a la ecuacin de Kepler es equivalente a encontrar los puntos jos de (3.28).
En [53] encontramos que la ecuacin de Kepler tiene una solucin nica y real en el intervalo
[n, (n + 1)], cuando M [n, (n + 1)] y 0 e < 1. Adems, la ecuacin (3.28) tiene
solucin si el valor absoluto de su primera derivada
f

(x) = e cos x,
es menor que uno. Este es el caso cuando [e[ < 1. La funcin (3.28) se puede considerar un
desplazamiento de la funcin seno denida por
g(x) = sen x, (3.29)
la cual fue estudiada por Feigenbaum [73] en su famoso trabajo sobre el comportamiento
universal de los sistemas no lineales. De acuerdo con [130], este comportamiento siempre es
universal para la clase de funciones unimodales con derivada schwarziana negativa. Para el
caso de (3.28), la derivada schwarziana viene dada por
S
K
= 1
3
2
tan
2
x, (3.30)
la cual siempre es negativa, no importa los valores que tomen M o e. En lo que sigue, tal
y como lo hacen en [126], analizaremos la inuencia de la variacin de los valores de M en
(3.29), y el comportamiento de la misma cuando la excentricidad es compleja.
Bifurcaciones de la funcin de Kepler para excentricidades reales
En [126] encontramos que cuando [e[ 1, entonces, tomando en cuenta el valor absoluto
de la derivada de (3.28), pueden aparecer uno o dos tipos de bifurcaciones:
164 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
a) Si en el punto jo se tiene que f

(x) = 1, aparecer una bifurcacin de duplicacin


del periodo o bifurcacin de Pitchfork.
b) Si en el punto jo se tiene que f

(x) = 1, aparecer una bifurcacin tangencial.


En el primer caso, f

(x) = 1, el punto jo perder su propiedad de atractor, apareciendo en


su lugar una rbita de ciclo 2. En el segundo caso, f

(x) = 1, el punto jo tambin perder


su condicin de atractor, pero aparecern nuevos puntos jos. En general, estos dos tipos
bsicos de bifurcaciones se pueden extender hasta la ksima iteracin de la funcin (3.28),
cuyos puntos jos son ciclos atractores de periodo k. Es importante recordar que los ciclos
de periodo impar slo aparecen como consecuencia de una bifurcacin tangencial.
Figura 3.30: A la izquierda, cascada de bifurcacin de duplicacin del periodo para la funcin
f(x) = e sen(x). A la derecha, desplazamiento de las primeras bifurcaciones de duplicacin
del periodo cuando M aumenta. Para M = 0, la curva es azul, para M = 0.25, la curva es
verde y para M = 0.5, la curva es roja
De acuerdo con [126], si consideramos el caso en que M = 0, la primera bifurcacin
aparecer cuando e = 1. Dicha bifurcacin es tangencial, vase la parte izquierda de la
Figura 3.30, y a medida que aumenta el valor de E, aparece una cascada de bifurcaciones
de duplicacin del periodo. Esto contina hasta que e alcanza un valor crtico. Si e contina
aumentando, aparecen los ciclos de periodo impar. Notemos que el ltimo ciclo en aparecer
es el de periodo 3. Algo parecido ocurre cuando M ,= 0, con la novedad de que bajo esta
condicin, la biurcacin no es tangencial y la primera bifurcacin de doble periodo aparece
para valores pequeos de la excentricidad, vase la parte derecha de la Figura 3.30. En
el caso extremo en que M = , la primera bifurcacin de duplicacin de periodo aparece
cuando e = 1. Para valores mayores que M = la primera bifurcacin de duplicacin de
periodo ocurre de forma simtrica, como se deduce del siguiente resultado de Lanchares y
Prez-Barrn, [126], demostraron la siguiente proposicin.
Proposicin 3.9. Sea 0 < < y sea (e

, E

) los valores de e y E en la primera bifurcacin


de duplicacin de periodo para M = + , entonces (e

, 2 E

) son los valores de e y E


en la primera bifurcacin de duplicacin periodo, para M = + .
3.7. ESTUDIO DINMICO DE LA ECUACIN DE KEPLER 165
Demostracin. Se tiene que (e

, E

) son las soluciones del sistema no lineal


+ e

sen E

= E

. (3.31)
e

cos E

= 1. (3.32)
Notemos tambin que la ecuacin (3.32) no cambia si se sustituye E

por 2 E

. Por otro
lado, si aadimos la constante a ambos lados de la ecuacin (3.31), despus de algunos
clculos obtenemos que
+ e

sen E

= 2 E

. (3.33)
Teniendo en cuenta que E

= sen(2 E

), concluimos que
+ + e

sen(2 E

) = 2 E
.
(3.34)
Por lo tanto, (e

, 2E

), para M = +, es una solucin del sistema de ecuaciones lineales


presentado anteriormente. Luego, (e

, 2 E

), son los valores de la primera bifurcacin de


duplicacin de periodo.
En [126] aparece una buena descripcin grca, tanto de la simetra y el desplazamiento
de la cascada de bifurcaciones de duplicacin de periodo, como de M, las cuales se pueden
obtener a partir de gracar las iteraciones de la funcin de Kepler (3.28), para el punto de
partida inicial E
0
= 0.
(a) f
1
(b) f
2
(c) f
3
(d) f
4
Figura 3.31: Iteracin de de la funcin E
n+1
= M +e sen E
n
en el plano (M, e) para E
0
= 0.
Se observan los contornos de las funciones f
k
(M, e; 0), donde f(M, e; 0) = M + e sen z
.
Ntese que, al principio, todos los puntos en el plano (M, e) son del mismo color. Como
la funcin (3.28) est anidada, el color de un punto cambia de acuerdo con el valor de f
k
(0).
Para las primeras iteraciones, los colores se distribuyen de una manera suave, por lo que
pequeos cambios en la eleccin del par (M, e) se convierten en pequeos cambios en el valor
de f
k
(0). Sin embargo, si iteraramos un poco ms la funcin (3.28), se presentan reas de
color mezcladas, mientras que las regiones de color uniforme se limitan, en su mayor parte,
a la banda de 1 < e < 1, como se muestra en la Figura 3.31. El proceso de mezcla es una
166 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
consecuencia directa de la cascada de bifurcaciones producidas por la variacin de M. Cabe
destacar la simetra respeto a la lnea M = , como se seal en la Proposicin 3.9. Sin
embargo, no existe simetra con respecto a la lnea e = 0, excepto para la primera iteracin,
incluso en el caso en que aparece una funcin sinusoidal pura, (M = 0.)
3.7.1. La funcin de Kepler en el plano complejo
La funcin de Kepler (3.28) puede ser extendida a una funcin compleja si consideramos
los parmetros y las variables en el plano complejo. De esta forma, obtendremos una familia
de funciones paramtricas dadas por
f(M, e, z) = M + e sen z, e, M, z C, (3.35)
cuyos puntos jos seran las soluciones de la ecuacin de Kepler en su versin compleja. Es
evidente que la sucesin generada por las iteraciones de (3.28), desde puntos iniciales reales,
est acotada si los valores de M y e tambin son reales. Sin embargo, esto no sucede para
funciones complejas, por lo que es suciente que uno de los parmetros, M, e o z
0
sea complejo
para que se pueda tener una sucesin no acotada.
Tomando esto en cuenta, Lanchares y Prez-Barrn [126] generaron una familia de con-
juntos fractales denidos de forma similar a los bien conocidos conjuntos de Mandelbrot
/(M; z
0
) = e C[f
n
(M, e, z
0
)
nN
acotada. (3.36)
Tambin denieron una familia de conjuntos de Julia asociados a cada par (M, e)
(M, e) = z C[f
n
(M, e, z)
nN
acotada. (3.37)
Nosotros, adems, hemos considerado una nueva familia de conjuntos fractales de tipo Man-
delbrot a cada par (e, z
0
)
J(e, z
0
) = M C[f
n
(M, e, z
0
)
nN
acotada. (3.38)
Se pueden obtener algunas propiedades de estos conjuntos a partir del hecho de que la
funcin (3.35) es simtrica con respecto a su conjugada. En efecto, tomando en cuenta que
sen z = sen z, obtenemos que
f(M, e, z) = f(

M, e, z). (3.39)
Como consecuencia de ello, el conjunto denido por (3.36) es simtrico con respecto al eje
real, siempre y cuando M y z
0
son reales. De forma similar, el conjunto denido por (3.37)
es tambin simtrico con respecto al eje real, si M y e son reales.
En el caso de la funcin seno puro (M = 0), Lanchares y Prez-Barrn [126] obtuvieron
dos simetras adicionales
f
n
(0, e : z) = (1)
n
f
n
(0, e; z), f
n
(0, e; z) = f
n
(0, e; z), (3.40)
3.7. ESTUDIO DINMICO DE LA ECUACIN DE KEPLER 167
por tanto, los conjuntos /(0; z
0
) y (0; e) son simtricos con respecto al origen.
En conclusin, Lanchares y Prez-Barrn establecieron que como
f(M, e; z) = f(M, e; z + 2k), k Z,
el conjunto de Julia (3.37) es, en cierta medida, peridico y extendido innitamente a lo
largo del eje real. Todas estas propiedades se pueden observar en el Anexo III. En el mismo
mostramos las guras asociadas a los conjuntos introducidos en el tercer captulo (vanse las
frmulas 3.36, 3.37 y 3.38 respectivamente) , as como los cdigos de Mathematica empleados
para su generacin. Notemos que en los mismos se pueden cambiar los diversos parmetros
para obtener guras de mayor resolucin y calidad, lo cual aumentara considerablemente su
peso.
168 CAPTULO 3. MTODOS ITERATIVOS Y LA ECUACIN DE KEPLER
Captulo 4
Resultados de convergencia semilocal
para el mtodo de Newton aplicados a
la ecuacin de Kepler
En la seccin 2.2 del Captulo 2 establecimos algunas consideraciones histricas del pri-
mer resultado de convergencia semilocal, dado por Cauchy, y generalizado ms tarde por
Kantorovich.
En lo que sigue observaremos que los resultados de convergencia semilocal, adems de
garantizar la convergencia del mtodo de Newton-Raphson a una solucin de la ecuacin
considerada, proporcionan unos resultados sobre la existencia y la unicidad de solucin.
Este ltimo aspecto es el que vamos a explotar en esta seccin. Vamos a considerar los
dos principales teoremas sobre convergencia semilocal del mtodo de Newton-Raphson, los
de Kantorovich y Smale, junto con dos variantes de los mismos y vamos a comparar los
resultados sobre existencia de unicidad que proporcionan cuando se aplican a una misma
ecuacin: la ecuacin de Kepler.
En concreto, para
f(E) = E e sen E M,
consideraremos en todos los casos el mismo punto de partida: E
0
= M.
Luego, aplicando distintos resultados obtendremos distintos dominios de convergencia de
la forma
[M t

, M + t

],
y de unicidad de solucin
(M t

, M + t

).
169
170 CAPTULO 4. CONVERGENCIA SEMILOCAL
Tanto en la teora de Kantorovich como en la de Smale (-teora), la idea de la demos-
tracin consiste en construir una funcin mayorizante de la cual obtener informacin sobre
la convergencia del mtodo de Newton-Raphson.
As, sea (t) una funcin mayorizante obtenida por alguna de las teoras consideradas. Se
comprobar que (t) tiene dos races: t

y t

que son las que proporcionan los dominios de


existencia y unicidad buscados.
Aunque la idea que presentamos se aplica a la ecuacin de Kepler, se podra seguir el
mismo esquema para otros tipos de ecuaciones: Complejas, sistemas de ecuaciones, ecuaciones
funcionales, etc.
En lo que sigue:
1. Vamos a construir la funcin mayorizante para la ecuacin de Kepler siguiendo 4 teoras:
i) Kantorovich [109].
ii) Condiciones fuertes de Kantorovich [84].
iii) -teora de Smale [170]. (artculo de Zhen-Shi-Ming).
iv) -teora de Wang-Zhao [186]
2. Vamos a ver bajo qu condiciones la correspondiente funcin mayorizante tiene races
reales. Esto nos va a dar un resultado que garantiza la existencia de solucin para la
ecuacin de Kepler en trminos de la excentricidad e.
3. Vamos a determinar los correspondientes dominios de existencia y unicidad en cada
caso.
4.1. Las condiciones de convergencia del teorema de
Kantorovich aplicadas a la ecuacin de Kepler.
Para el estudio de la convergencia semilocal del mtodo de Newton-Raphson normalmente
se utilizan los resultados del teorema de Kantorovich y la -teora de Smale, pero aplicados
a espacios de Banach y sistemas de ecuaciones. El estudio del teorema de Newton-Raphson
en espacios de Banach es relativamente joven, de la segunda mitad del siglo XX.
Leyendo a [83], encontramos que fue a nales del 1940 cuando L. V. Kantorovich y L. B.
Rall introdujeron el mtodo de Newton-Raphson en estos tipos de espacios. Su planteamiento
establece que si F es un operador sucientemente diferenciable denido entre dos espacios de
Banach X y Y , a partir de un punto x
0
X se construye la sucesin de Newton-Raphson
x
n+1
= x
n
F

(x
n
)
1
F(x
n
). (4.1)
4.1. CONDICIONES DE KANTOROVICH 171
Teorema 4.1. Si e 0.4142, entonces la ecuacin de Kepler tiene solucin. Dicha solucin
est localizada en el intervalo
[M t

, M + t

]. (4.2)
y es nica en
(M t

, M + t

), (4.3)
donde
t

=
1

1 2

. (4.4)
t

=
1 +

1 2

, (4.5)
son las races del polinomio mayorizante
p(t) =
1
2
t
2
t + , con =
e
1 e
. (4.6)
Adems, el mtodo de Newton-Raphson, denido por
E
n+1
= E
n

f(E
n
)
f

(E
n
)
, n 0, (4.7)
iniciando en E
0
= M, converge a dicha solucin.
Demostracin. Tomemos E
0
= M en el teorema de Kantorovich. Luego se deben cumplir las
siguientes condiciones:
i) f

(E
0
) ,= 0.
ii)

f(E
0
)
f

(E
0
)

.
iii)

f(E)f(y)
f

(E
0
)

(E y), E, y I.
iv) h =
1
2
.
Para ello, calcularemos los parmetros y :
f

(E) = 1 e cos E [f

(E
0
)[ 1 e. (4.8)
f

(y) = 1 e cos y. (4.9)


[f(E
0
)[ [e sen E
0
[ e. (4.10)
[f

(E) f

(y)[ = [(1 e cos E) (1 e cos y)[ = e[ cos E cos y[ e[E y[. (4.11)
172 CAPTULO 4. CONVERGENCIA SEMILOCAL
As

f(E
0
)
f

(E
0
)

e
1 e
= = . (4.12)
Adems

f(E) f(y)
f

(E
0
)

e
1 e
[E y[, por lo que = . (4.13)
Luego
h = =
2
=
_
e
1 e
_
2

1
2
. (4.14)
Y por tanto
2e
2
(1 e)
2
2e
2
1 2e + e
2
0 1 2e e
2
0 2 (1 2e + e
2
).
Luego
0 < 2 (1 +e
2
) (1 +e)
2
2

2 1 +e

2. (4.15)
Tomando la parte positiva de (4.15) sigue
1 +e

2 e

2 1 0.4142.
Notemos que la condicin e 0.4142. garantiza tres cosas:
1. La ecuacin de Kepler tiene solucin: E

.
2. El polinomio mayorizante p(t) = 1/2t
2
t + tiene soluciones reales: t

y t

.
3. E

est localizada en el intervalo [Mt

, M+t

] y es la nica solucin en (Mt

, M+
t

).
Por ltimo, el mtodo de Newton-Raphson denido por (4.7), iniciando en E
0
= M,
converge a E

.
4.2. Las condiciones fuertes de Kantorovich aplicadas
a la ecuacin de Kepler.
Como vimos, el teorema de Kantorovich presenta las siguientes condiciones:
i) x
0
I.
ii) f

(x
0
) ,= 0.
4.2. CONDICIONES FUERTES DE KANTOROVICH 173
iii)

f(x
0
)
f

(x
0
)

.
iv)

(x)f

(y)
f

(x
0
)

[x y[, x, y I.
v) h = 1/2.
En 1997, Jos Manuel Gutirrez presento un nuevo teorema de convergencia semilocal
para el mtodo de Newton-Raphson. En dicho teorema, Gutirrez no toma en cuenta la
condicin v) de Kantorovich, sino que la sustituye por dos expresiones en que se aplica la
derivada segunda de la funcin en x
1.

(x
0
)
f

(x
0
)

b.
2.

(x)f

(x
0
)
f

(x
0
)

K[x x
0
[.
Adems, aplica la condicin iii) en la forma

f(x
0
)
f

(x
0
)

a.
Y el polinomio mayorizante
p(t) = a t +
b
2
t
2
+
K
6
t
3
. (4.16)
En esta memoria, llamaremos a las condiciones anteriores condiciones fuertes de Kanto-
rovich. Los detalles de la demostracin de ste teorema se encuentran en [84]. En lo adelante
veremos su versin en R aplicado a la ecuacin de Kepler.
Teorema 4.2. Si e 0.3759, entonces la ecuacin de Kepler tiene solucin. Dicha solucin
est localizada en el intervalo (4.2) y es nica en (4.3) donde t

y t

son las races del


polinomio mayorizante
p(t) = t +
1
2
t
2
+
1
6
t
3
, con =
e
1 e
. (4.17)
Adems, el mtodo de Newton-Raphson, denido por (4.7), iniciando en E
0
= M, con-
verge a dicha solucin.
Demostracin. Tomemos a E
0
= M y tengamos en cuenta las condiciones fuertes de Kanto-
rovich:
i)

f(E
0
)
f

(E
0
)

a.
ii)

(E
0
)
f

(E
0
)

b.
174 CAPTULO 4. CONVERGENCIA SEMILOCAL
iii)

(E)f

(E
0
)
f

(E
0
)

K[E E
0
[.
Ahora calcularemos los parmetros a, b y K.
f

(E) = 1 e cos E [f

(E
0
)[ = [1 e cos E[ 1 e. (4.18)
f

(E) = e sen E [f

(E
0
)[ = [e sen E
0
[ e. (4.19)
[f

(E) f

(E
0
)[ = e[ sen E sen E
0
[ e[E E
0
[. (4.20)
luego

f(E
0
)
f

(E
0
)

e
1 e
= a. (4.21)

(E
0
)
f

(E
0
)

e
1 e
= b. (4.22)

(E) f

(E
0
)
f

(E
0
)

e
1 e
[E E
0
[ K =
e
1 e
. (4.23)
As
a = b = K =
e
1 e
= . (4.24)
Sustituyendo (4.24) en (4.16) se obtiene
p(t) = t +

2
t
2
+

6
t
3
. (4.25)
Analicemos a (4.25).
p

(t) = 1 +t +
1
2
t
2
p

(0) = 1 < 0.
p

(t) = + t > 0, > 0.


Entonces existe un nico mnimo

t tal que p

t) = 0. Luego
p

t) = 0

t =

2
+ 2

= 1

1 +
2

.
Tomando la raz positiva sigue

t = 1 +

1 +
2

. (4.26)
Notemos que haciendo
= 1/, sigue (4.27)
4.2. CONDICIONES FUERTES DE KANTOROVICH 175

t = 1 +

1 + 2. (4.28)
y
p(

t) =
1

(1

t +
1
2

t
2
+
1
6

t
3
). (4.29)
Apliquemos la condicin de convergencia a (4.29). Sea p(

t) < 0, luego
p(

t) =
1

(1

t +
1
2

t
2
+
1
6

t
3
) =
1
3
(4

1 + 2 + (3 2

1 + 2)) < 0.
=
1

(
4
3
+
1
3

1 + 2
2
3

1 + 2) < 0. (4.30)
Recordar que > 0, luego (4.30) ser cierto si y slo si
4
3
+
1
3

1 + 2
2
3

1 + 2 < 0. (4.31)
De (4.31) sigue
4 + 3 <

1 + 2 +

1 + 2 =

1 + 2(1 + 2) = (1 + 2)
3
2
.
(4 + 3)
2
< (1 + 2)
3
.
16 + 24 + 9
2
< 1 + 6 + 12
2
+ 8
3
.
Luego
8
3
+ 3
2
1815 > 0 1.66032. (4.32)
Sustituyendo (4.32) en (4.27) sigue
<
1

. (4.33)
Sustituyendo (4.33) en (4.24)
e
1 e
<
1

e <
1
1 +
0.3759.
Notemos que la condicin e 0.3759. tambin nos garantiza tres cosas:
1. La ecuacin de Kepler tiene solucin: E

.
2. El polinomio mayorizante p(t) = t +
1
2
t
2
+
1
6
t
3
tiene soluciones reales: t

y t

.
3. E

est localizada en el intervalo [Mt

, M+t

] y es la nica solucin en (Mt

, M+
t

).
Por ltimo, el mtodo de Newton-Raphson denido por (4.7), iniciando en E
0
= M,
converge a E

.
176 CAPTULO 4. CONVERGENCIA SEMILOCAL
4.3. Las condiciones de convergencia del teorema de
la -teora de Smale aplicadas a la ecuacin de
Kepler.
En la segunda parte de la seccin 4 del Captulo 2 dimos las notas histricas del teorema
de Smale, ahora demostraremos un teorema en el que se aplica la -teora de Smale a la
ecuacin de Kepler.
Teorema 4.3. Si e 0.3594, entonces la ecuacin de Kepler tiene solucin. Dicha solucin
est localizada en el intervalo (4.2) y es nica en (4.3) donde t

y t

son las races de la


funcin mayorizante
(t) = t +

2
t
2
1 t
, con =
e
1 e
. (4.34)
Adems, el mtodo de Newton-Raphson, denido por (4.7), iniciando en E
0
= M, con-
verge a dicha solucin.
Demostracin. Tomemos a E
0
= M en el teorema de la -teora de Smale. Luego se deben
cumplir las siguientes condiciones:
i) f

(E
0
) ,= 0.
ii) (E
0
, f) =

f(E
0
)
f

(E
0
)

.
iii)
1
k!

f
(k)(E
0
)
f

(E
0
)


k1
, k 2.
iv) = 3 2

2.
Calculemos los parmetros , y .
f

(E) = 1 e cos E [f

(E
0
)[ 1 e.
f

(E) = e sen E [f

(E
0
)[ e.
f

(E) = e cos E [f

(E
0
)[ e.
.
.
.
[f
k
(E
0
)[ e, k 2.
As
4.3. -TEORA DE SMALE 177
(E
0
, f) =

f(E
0
)
f

(E
0
)

e
1 e
. (4.35)
(E
0
, f) =

1
k!
f
(k)
(E
0
)
f

(E
0
)

1
k1

_
e
k!(1 e)
_ 1
k1
, k 2. (4.36)
=
_
_
_
e
1 e
_
k
1
k!
_
_
1
k1
3 2

2. (4.37)
Consideremos a (4.37)
Sea

_
_
_
e
1 e
_
k
1
k!
_
_
1
k1

0
3 2

2. (4.38)
Luego, de (4.38) sigue
_
e
1 e
_
k
1
k!

k1
0
.
_
e
1 e
_
k

k1
0
k!.
_
e
1 e
_
(
k1
0
k!)
1
k
. (4.39)
Ahora, sea

k
= (
k1
0
k!)
1
k
, k 2. (4.40)
Necesitamos conocer el mnimo valor de
k
.
De (4.40) sigue

k+1
= [
k
0
(k + 1)!]
1
k+1
.
y

k
k
= (
k1
0
k!), k 2.
Por tanto

k+1

k
=
_

k
0
(k + 1)!
_ 1
k+1
_

k1
0
k!
_1
k
=
_

0
_ k
k+1

k1
k
_
k!
_ 1
k+1

1
k
(k + 1)
1
k+1
.
=
_

0
(k + 1)
k
k!
_ 1
k(k+1)
, k 2. (4.41)
Ahora utilizaremos a (4.41) para hallar el nf
k2

k
. Lo haremos por induccin.
178 CAPTULO 4. CONVERGENCIA SEMILOCAL
Si k = 2, luego

2
=
_
9
0
2
_1
6
=
_
9(3 2

2)
2
_1
6
= 0.772 < 1.
Entonces
3
<
2
.
Para k = 3 sigue

3
=
_
64
0
9
_ 1
12
=
_
64(3 2

2)
9
_ 1
12
= 1.83 > 1.
Por tanto
4
>
3
Luego, si k 3, entonces
_
k+2
_
k+1
_
k+1
_
!
_
k+1
_
k
k!
=
_
k + 2
k + 1
_
k+1
> 1.
Por tanto
k+1
>
k
, k 3. Luego
nf
k2

k
=
3
= [6
2
0
]
1
3
= 0.5610688.
Conocido el nmo de
k
, inmediatamente de (4.39) podemos conocer el mnimo valor de
e. As
e
1 e

3
e (1 e)
3
e(1 +
3
)
3
e

3
1 +
3
0.3594. (4.42)
Notemos que la condicin e 0.3594 otra vez nos garantiza tres cosas:
1. La ecuacin de Kepler tiene solucin: E

.
2. La funcin mayorizante (t) = t +

2
t
2
1t
tiene soluciones reales: t

y t

.
3. E

est localizada en el intervalo [Mt

, M+t

] y es la nica solucin en (Mt

, M+
t

).
Por ltimo, el mtodo de Newton-Raphson denido por (4.7), iniciando en E
0
= M,
converge a E

.
4.4. -TEORA DE WANG-ZHAO 179
4.4. Las condiciones de convergencia del teorema de la
-teora de Wang-Zhao aplicadas a la ecuacin de
Kepler.
Como hemos visto, la -teora de Smale es una tcnica muy conocida para estudiar la
convergencia semilocal del mtodo de Newton-Raphson, esto es, establece sobre un punto
inicial x
0
y una funcin f ciertas condiciones que permiten al mtodo de Newton-Raphson
converger.
Recordar que las condiciones impuestas por la -teora son:
i) f

(x
0
) ,= 0.
ii)

f(x
0
)
f

(x
0
)

.
iii)
1
k!

f
(k)
(x
0
)
f

(x
0
)


k1
, k 2.
iv) = 3 2

2.
Tambin recordar que que los resultados de la convergencia son probados a partir de de
la siguiente funcin mayorante

S
(t) = t +

k2

k1
t
k
= t +
t
2
1 t
. (4.43)
Wang y Zhao,[186], consideraron que la condicin iv) es muy restrictiva y demostraron
que la convergencia del mtodo de Newton-Raphson se puede obtener, adems de las dos
primeras condiciones, a partir de la condicin
1
k!

f
(k)
(x
0
)
f

(x
0
)


k
, k 2,
y la funcin mayorante

W
(t) = t +

k2

k
t
k
. (4.44)
Es importante notar que en (4.43) se conoce la descomposicin del sumatorio, pero en
(4.44) no es as, pues se trata de una serie innita.
Ntese tambin que
k

k1
, para k 2. Luego
W
(t)
S
(t), para t 0. En
consecuencia
S
(t) mayorisa a
W
(t), por tanto
S
= 0 implica que
W
= 0, pero no lo
contrario.
El trabajo de Wang y Zhao tiene un gran signicado terico, pues los mismos pueden ser
aplicados a situaciones donde la -teora de Smale falla. En [89] encontramos un ejemplo que
ilustra ste caso.
180 CAPTULO 4. CONVERGENCIA SEMILOCAL
A continuacin presentamos un teorema en el que se aplica la -teoa de Wang-Zhao a la
ecuacin de Kepler.
Teorema 4.4. Si e 0.3678, entonces la ecuacin de Kepler tiene solucin. Dicha solucin
est localizada en el intervalo (4.2) y es nica en (4.3) donde t

y t

son las races de la


funcin mayorizante
(t) = exp(t) (1 +)t, con =
e
1 e
. (4.45)
Adems, el mtodo de Newton-Raphson, denido por (4.7), iniciando en E
0
= M, con-
verge a dicha solucin.
Demostracin. Tomemos a E
0
= M en el teorema de la -teora de Wang-Zhao. Luego se
deben cumplir las siguientes condiciones:
i) f

(E
0
) ,= 0.
ii) (E
0
, f) =

f(E
0
)
f

(E
0
)

.
iii)
1
k!

f
(k)
(E
0
)
f

(E
0
)


k
, k 2.
Para ello calcularemos los parmetros y .
f

(E) = 1 e cos E [f

(E
0
)[ 1 e.
f

(E) = e sen E [f

(E
0
)[ e.
f

(E) = e cos E [f

(E
0
)[ e.
.
.
.
[f
k
(E
0
)[ e, k 2.
As
(E
0
, f) =

f(E
0
)
f

(E
0
)

e
1 e
, por tanto = . (4.46)
1
k!

f
(k)
(E
0
)
f

(E
0
)

1
k!
_
e
1 e
_
=
k
, por lo que
k
=

k!
. (4.47)
Sustituyendo (4.46) y (4.47) en (4.44) sigue
t +

k2

k
t
k
= t +

k2
1
k!
t
k
.
= t +

k2
t
k
k!
.
= t + [exp(t) 1 t].
= exp(t) (1 +)t = p(t). (4.48)
4.4. -TEORA DE WANG-ZHAO 181
Analicemos a (4.48)
p

(t) = [exp(t)] (1 +) p

(0) = 1 = 1 < 0.
p

(t) = [exp(t)] f

(t) > 0, t > 0. (4.49)


Luego, existe un nico mnimo

t tal que p

t) = 0. Notemos que
p

t) = [exp(

t)] (1 +) = 0.
Por tanto
[exp(

t)] = 1 + exp(

t) =
1 +

exp(

t) = 1 +
1

.
Luego

t = ln(1 +
1

). (4.50)
Ahora analicemos la condicin de convergencia de p(

t). Sea p(

t) < 0, luego
p(

t) = [exp(

t)] (1 +)

t < 0. (4.51)
Sustituyendo (4.50) en (4.51) sigue
p(

t) =
_
exp
_
ln
_
1 +
1

___
(1 +) ln
_
1 +
1

_
< 0.
=
_
1 +
1

_
(1 +) ln
_
1 +
1

_
< 0.
= (1 +) (1 +) ln
_
1 +
1

_
< 0.
= (1 +)
_
1 ln
_
1 +
1

__
< 0. (4.52)
Recordar que (1 +) > 0, luego (4.52) ser cierto si y slo si
1 ln
_
1 +
1

_
< 0. (4.53)
De (4.53) sigue
1 < ln
_
1 +
1

_
exp(1) < 1 +
1

exp(1) 1 <
1

.
Luego
=
1
exp(1) 1
. (4.54)
182 CAPTULO 4. CONVERGENCIA SEMILOCAL
Sustituyendo (4.46) en (4.54)
e
1 e
<
1
exp(1) 1
e exp(1) e < 1 e e <
1
exp(1)
0.3678.
La condicin e 0.3678. tambin nos garantiza tres cosas:
1. La ecuacin de Kepler tiene solucin: E

.
2. La funcin mayorizante (t) = exp(t) (1 +)t tiene soluciones reales: t

y t

.
3. E

est localizada en el intervalo [Mt

, M+t

] y es la nica solucin en (Mt

, M+
t

).
Por ltimo, el mtodo de Newton-Raphson denido por (4.7), iniciando en E
0
= M,
converge a E

.
4.5. Resultados sobre existencia y unicidad de solucio-
nes
La aplicacin a la ecuacin de Kepler de las condiciones de convergencia semilocal de las
tcnicas vistas en la subseccin anterior, nos proporciona una serie de resultados de existencia
y unicidad de solucin de la misma.
En concreto, si tomamos a
E
0
= M,
se garantiza la existencia de solucin para la ecuacin de Kepler.
Adems, al comparar los dominios de existencia y unicidad de solucin segn las distintas
tcnicas, se verica que bajo las condiciones de Cauchy-Kantorovich, vase el Cuadro 4.1, la
ecuacin de Kepler posee el mayor rango de solucin (e 0.4142).
La comparacin tambin nos permite vericar que bajo las condiciones fuertes de Kanto-
rovich, vase nuevamente el Cuadro 4.1, la ecuacin de Kepler posee un rango de solucin,
(e < 0.3759), mayor que bajo las condiciones de la -teora de Wang-Zhao, (e < 0.3678), y
de la -teora de Smale (e 0.3594).
En el Cuadro 4.2 se muestran los valores de t

y t

para los intervalos de existencia de


solucin [M t

, M + t

] y de unicidad de solucin (M t

, M + t

) para las 4 teoras


consideradas. En dicho cuadro
=
e
1e
En los Cuadros 4.3 y 4.4 hemos calculado los valores de t

y t

para dos situaciones reales,


correspondientes al planeta Mercurio (M = 0.0067, e = 0.205635) y al asteroide Hungaria
(M = 0.69, e = 0.0736162). Mostramos los correspondientes intervalos de existencia y de
4.5. EXISTENCIA Y UNICIDAD DE SOLUCIONES 183
Cuadro 4.1: Funcin mayorizante para el mtodo de Newton aplicado a la ecuacin de Kepler
para las diferentes teoras consideradas, junto con la condicin en trminos de la excentricidad
para que dichas teoras puedan ser aplicadas.
Condicin Funcin mayorizante Condicin
Kantorovich p(t) =
1
2
t
2
t + e 0.4142
Kantorovich fuerte p
G
(t) = t +
1
2
t
2
+
1
6
t
3
e 0.3759
-teora de Smale (t) = t +

2
t
2
1
2
t
e 0.3594
-teora de Wang-Zhao
WZ
(t) = exp(t) (1 +)t e 0.3678
Cuadro 4.2: Valores de t

y t

para las 4 teoras consideradas. En todos los casos, hemos


denotado =
e
1e
.
Condicin t

Kantorovich
1

12
2

1+

12
2

Kantorovich fuerte Menor raz positiva de p


G
(t) Mayor raz positiva de p
G
(t)
-teora de Smale
(1+
3
)

(1+
3
)
2
8
3
4
2
(1+
3
)+

(1+
3
)
2
8
3
4
2
-teora de Wang-Zhao Menor raz positiva de
WZ
(t) Mayor raz positiva de
WZ
(t)
unicidad de solucin para la ecuacin de Kepler, junto con la solucin exacta E

. Hemos
denotado los valores de t

y t

con un subndice que hace referencia a la teora con la que


est relacionado: K para Kantorovich, G para fuertes de Kantorovich, S para Smale y WZ
para Wang-Zhao.
Cuadro 4.3: Existencia de solucin para dos casos reales.
Casos t

K
t

G
t

S
t

WZ
E

Planeta Mercurio 0.269 0.268 0.267 0.269 0.0269


[M t

, M + t

] [0.247, 0.289] [0.247, 0.290] [0.242, 0.284] [0.248, 0.290]


Asteroide Hungaria 0.079 0.079 0.079 0.079 2.226
[M t

, M + t

] [2.088, 2.247] [2.087, 2.247] [2.088, 2.247] [2.087, 2.247]


184 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.4: Unicidad de solucin para dos casos reales.
Casos t

K
t

G
t

S
t

WZ
E

Planeta Mercurio 7.459 3.363 7.330 2.496 0.026


(M t

, M + t

) (7.43, 7.48) (3.34, 3.38) (7.30, 7.35) (2.47, 2.51)


Asteroide Hngaria 25.094 7.271 12.659 3.993 2.226
(M t

, M + t

) (22.92, 27.26) (5.10, 9.43) (10.42, 14.84) (1.82, 6.16)


Figura 4.1: Grcas de las funciones mayorizantes
W
(t),
G
(t),
S
(t) y
K
(t) para el caso
del planeta Mercurio (izquierda) y el asteroide Hungaria (derecha).
4.6. Lneas futuras de investigacin y Conclusiones
Siguiendo lo presentado en el Captulo 2, Mtodos iterativos, quedan pendiente la cons-
truccin de los teoremas de convergencia semilocal para los mtodos de Yun-Petkovi y de
Danby. Esto nos permitir conocer, con ms profundidad, el comportamiento de los mismos,
en trminos de sus cotas del error y sus intervalos de existencia y unicidad de solucin.
En concordancia con los resultados obtenidos en el Captulo 3: Mtodos iterativos y la
ecuacin de Kepler, pretendemos profundizar en lo que ocurre con el mtodo de Chebyshev,
cuando se aplica a la ecuacin de Kepler a partir del punto inicial E
0
= M, as como ex-
tender el estudio de los mtodos multipuntos aplicados a la ecuacin de Kepler, a otros de
mayor orden de convergencia. Tal sera el caso del mtodo de Stirling. Otra lnea abierta de
investigacin es extender la caracterizacin de 2ciclos superatractores, no tan solo para el
mtodo de Newton, sino tambin a los dems mtodos visto en esta memoria. Asimismo, ca-
racterizar ciclos superatractores del orden n > 2. No menos importante es la caracterizacin
de los intervalos en donde la derivada Schwarziana de los mtodos vistos, sea negativa, pues
esto nos permitir identicar puntos de inicio ptimos, con los cuales se podra asegurar la
convergencia de los mismos.
En cuanto a las teoras de convergencia semilocal aplicadas a la ecuacin de Kepler, nos
queda por profundizar en la aplicacin de las mismas bajo otros puntos de partidas, en
4.6. LNEAS FUTURAS DE INVESTIGACIN Y CONCLUSIONES 185
especial cuando E
0
= o las condiciones iniciales dadas en (3.7).
En lo que concierne a los principales aportes de esta tesis, los mismos pueden ser enfocados
a partir de tres aspectos:
1. Personales: conformada por la permanente crisis de conocimiento en que me ha hecho
caer esta investigacin. Gracias a ella, me he dado cuenta de los innitos aspectos mate-
mticos que me faltan por aprender, aspectos que da tras da tratar de ir entendiendo
y profundizando. Ya lo dijo Newton: soy como un nio que se ha entretenido buscan-
do en la arena algunos caracoles, mientras frente a mi se extiende el innito mar de la
sabidura.
2. Para mi pas, la Repblica Dominicana: en el sentido de que esta tesis es un proyecto de
nacin en el que la misma se convertir en un libo de texto sobre Mtodos numricos.
Con esta accin, el presente documento tendr permanencia en el ambiente matemtico
dominicano, permitiendo que las futuras generaciones de doctores dominicanos, tengan
una herramienta ecaz, con la cual realizar sus futuras investigaciones.
3. Matemticos: en este aspecto, el principal aporte de esta memoria es la caracteriza-
cin de los valores de la excentricidad para los cuales, las teoras de de convergencia
semilocal de Kantorovich, Smale, Gutirrez y Wang-Zhao, aseguran que la ecuacin de
Kepler tiene solucin. Otro aporte signicativo, adems de los novedosos teoremas que
se presentan, lo constituye la sistematizacin de todos los mtodos que intervienen en la
misma. Esto as, pues existen muy pocas investigaciones que presenten tantos mtodos
iterativos, con un esquema de desarrollo tan completo, en especial, lo correspondiente
al anlisis de convergencia.
186 CAPTULO 4. CONVERGENCIA SEMILOCAL
4.7. Anexo I: Cuadros con experimentos numricos de
la seccin 3.2.
En lo que sigue, se presentan una serie de cuadros que contienen los resultados de las ite-
raciones necesarias para que los mtodos estudiados converjan. Para un mejor entendimiento
de los mismos, damos a continuacin el signicado de las iniciales empleadas:
T: Nmero total de iteraciones.
m: Media aritmtica del nmero de iteraciones que emple el mtodo para converger.
m: Media ponderada del nmero de iteraciones que emple el mtodo para converger.
N/C: No convergencia del mtodo en ese punto.
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 187
Cuadro 4.5: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando diversos procesos iterativos y tomando como punto de partida en todos los
casos E
0
= M.
Casos E
0
Newton Chebyshev Halley super-Halley =
3
2
= 2 Danby
Caso (1) 0.05 2 2 2 2 2 2 2
Caso (2) 0.05 7 4 4 4 5 6 4
Caso (3) 0.9 3 2 2 2 2 2 2
Caso (4) 1.5 4 3 3 3 3 3 3
Caso (5) 3.0 4 3 2 2 2 2 2
Caso (6) 3.0 3 2 2 2 2 2 2
Caso (7) 0.51 4 3 3 3 3 3 3
Caso (8) 0.88 3 3 3 3 3 3 3
Caso (9) 0.29 4 3 3 3 3 3 3
Caso (10) 0.29 5 NC 4 4 4 4 4
Caso (11) 0.81 4 3 3 3 3 3 3
Caso (12) 0.69 3 3 2 2 2 2 2
Caso (13) 0.11 4 3 3 3 3 3 3
Caso (14) 0.0067 3 2 2 2 2 2 2
T 53 36

38 38 39 40 40
m 3.79 2.77

2.71 2.71 2.79 2.86 2.86


m 3.79 4.39

4.29 4.29 4.42 4.53 5.72


Nota

: Esta media se ha calculado nicamente con 13 experimentos.


4.8. Anexo II: Cuadros con experimentos numricos de
la seccin 3.2.
188 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.6: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando diversos procesos iterativos y tomando como punto de partida en todos los
casos E
0
= .
Casos E
0
Newton Chebyshev Halley super-Halley =
3
2
= 2 Danby
Caso (1) 4 4 4 4 4 4 4
Caso (2) 8 6 5 5 17 17 5
Caso (3) 4 3 3 3 3 3 3
Caso (4) 5 4 3 3 3 3 3
Caso (5) 3 2 2 2 2 2 2
Caso (6) 3 2 3 3 3 2 2
Caso (7) 4 3 3 3 3 3 3
Caso (8) 3 3 3 3 3 3 2
Caso (9) 5 4 4 4 4 4 3
Caso (10) 5 4 4 4 4 4 3
Caso (11) 3 3 3 3 3 3 2
Caso (12) 4 3 3 3 3 3 2
Caso (13) 6 4 4 4 5 5 4
Caso (14) 5 4 4 4 4 4 3
T 62 49 48 48 61 60 41
m 4.43 3.5 3.43 3.43 4.36 4.29 2.93
m 4.43 5.55 5.44 5.44 6.91 6.8 5.86
Tomando como punto inicial a E
0
= M, para el intervalo [e, 0.20], con e [0.980, 0.999],
el porcentaje de fracasos del mtodo de Halley fue del 90 por ciento.
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 189
Cuadro 4.7: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando diversos procesos iterativos y tomando como punto de partida en todos los
casos las condiciones dadas en (3.7).
Casos E
0
Newton Chebyshev Halley super-Halley =
3
2
= 2 Danby
Caso (1) 0.0550174 2 2 2 2 2 2 1
Caso (2) 0.6090380 4 3 3 3 3 3 3
Caso (3) 0.9765000 2 2 2 2 2 2 2
Caso (4) 1.9250000 3 2 2 2 2 2 2
Caso (5) 3.0765000 3 2 2 2 2 2 2
Caso (6) 3.7650000 4 3 3 3 3 3 3
Caso (7) 1.9722700 3 2 2 2 2 2 2
Caso (8) 3.2406200 3 3 3 3 3 3 2
Caso (9) 1.2358500 3 2 2 2 2 2 2
Caso (10) 1.6474000 4 3 3 2 3 3 3
Caso (11) 3.1040800 4 3 3 3 3 3 2
Caso (12) 2.2302700 3 2 2 2 2 2 2
Caso (13) 0.8315320 4 4 2 3 3 3 3
Caso (14) 0.0413741 3 2 2 2 2 2 2
T 45 35 33 33 34 34 31
m 3.21 2.5 2.36 2.36 2.43 2.43 2.21
m 3.21 3.96 3.74 3.74 3.85 3.85 4.42
190 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.8: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Newton y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 8 25 11 9 10 9 7 6 6 6
0.981 8 11 15 7 9 12 7 6 6 6
0.982 8 12 22 45 21 50 7 6 6 6
0.983 8 12 14 16 13 13 7 5 6 6
0.984 8 21 21 32 11 12 7 5 6 6
0.985 8 108 13 195 85 9 8 6 6 6
0.986 8 10 15 14 17 8 8 6 6 6
0.987 7 39 20 18 12 19 8 6 6 6
0.988 15 53 28 213 10 10 9 6 6 6
0.989 17 204 13 13 22 11 9 6 6 6
0.990 13 101 12 53 52 14 31 6 6 6
0.991 18 12 138 444 10 11 8 7 6 6
0.992 59 8 13 17 10 15 74 7 6 6
0.993 99 8 8 11 18 14 10 7 6 6
0.994 8 12 8 31 29 92 25 7 6 6
0.995 11 12 8 7 11 63 9 7 5 6
0.996 11 8 10 28 199 12 7 8 5 6
0.997 15 24 11 10 275 15 9 8 6 6
0.998 8 28 162 28 19 17 16 8 6 6
0.999 8 8 8 7 16 36 10 8 6 6
T 345 716 550 1198 849 442 276 131 118 120
m 17.25 35.8 27.5 59.9 42.45 22.1 13.8 6.55 5.9 6.0
m 27.34 56.74 43.58 94.94 67.28 35.03 21.87 10.38 9.354 9.51
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 191
Cuadro 4.9: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Newton y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 7 7 7 6 6 6 6 6 6 6
0.981 8 7 7 6 6 6 6 6 6 5
0.982 8 7 7 6 6 6 6 6 6 6
0.983 8 7 6 6 6 6 6 6 6 5
0.984 8 7 6 6 6 6 6 6 6 6
0.985 8 7 7 7 6 6 6 6 6 6
0.986 8 7 7 6 6 6 6 6 6 6
0.987 8 7 7 6 6 6 6 6 6 6
0.988 8 7 7 6 6 6 6 6 6 6
0.989 8 7 7 6 6 6 6 6 6 6
0.990 8 7 7 6 6 6 6 6 6 6
0.991 8 7 7 6 6 6 6 6 6 5
0.992 8 7 7 6 6 6 6 6 6 6
0.993 8 7 7 6 6 6 6 6 6 6
0.994 9 7 7 6 6 6 6 6 6 5
0.995 8 7 7 6 6 6 6 6 6 5
0.996 8 7 7 6 6 6 6 6 6 6
0.997 8 7 7 6 6 6 6 6 6 6
0.998 8 7 8 6 6 6 6 6 6 5
0.999 8 7 7 6 6 6 6 6 6 6
T 160 140 139 121 120 120 120 120 120 114
m 8.0 7.0 6.95 6.05 6.0 6.0 6.0 6.0 6.0 5.7
m 12.68 11.09 11.02 9.59 9.51 9.51 9.51 9.51 9.51 9.03
192 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.10: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Newton y tomando como punto de partida las condiciones dadas
en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 8 4 3 4 4 4 4 4 4 4
0.981 8 4 3 4 4 4 4 4 4 4
0.982 8 4 3 4 4 4 4 4 4 4
0.983 8 4 3 4 4 4 4 4 4 4
0.984 9 4 3 4 4 4 4 4 4 4
0.985 8 4 3 4 4 4 4 4 4 4
0.986 8 4 3 4 4 4 4 4 4 4
0.987 8 4 3 4 4 4 4 4 4 4
0.988 8 4 3 4 4 4 4 4 4 4
0.989 8 4 3 4 4 4 4 4 4 4
0.990 8 4 3 4 4 4 4 4 4 4
0.991 8 4 4 4 4 4 4 4 4 4
0.992 8 4 4 4 4 4 4 4 4 4
0.993 8 4 4 4 4 4 4 4 4 4
0.994 8 4 4 4 4 4 4 4 4 4
0.995 8 4 4 4 4 4 4 4 4 4
0.996 7 4 4 4 4 4 4 4 4 4
0.997 7 4 4 4 4 4 4 4 4 4
0.998 7 4 4 4 4 4 4 4 4 4
0.999 7 4 4 4 4 4 4 4 4 4
T 157 80 69 80 80 80 80 80 80 80
m 7.85 4.0 3.45 4.0 4.0 4.0 4.0 4.0 4.0 4.0
m 12.44 6.34 5.47 6.34 6.34 6.34 6.34 6.34 6.34 6.34
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 193
Cuadro 4.11: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Chebyshev y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 10 NC NC NC NC NC NC NC NC NC
0.981 NC NC NC NC NC NC NC 6 NC NC
0.982 NC NC NC NC NC NC NC NC NC NC
0.983 NC NC NC NC NC NC NC NC NC NC
0.984 NC NC NC NC NC NC NC NC NC NC
0.985 NC NC NC NC NC NC NC NC NC NC
0.986 NC NC NC NC NC NC NC NC NC NC
0.987 NC NC NC NC NC NC NC NC NC NC
0.988 NC NC NC NC NC NC NC NC NC 6
0.989 NC NC NC NC NC NC 7 NC NC NC
0.990 NC NC NC NC NC NC NC NC NC 7
0.991 NC NC NC NC NC NC NC NC NC NC
0.992 NC NC NC NC NC NC NC NC NC NC
0.993 NC NC NC NC NC NC NC NC NC NC
0.994 NC NC NC NC NC NC NC NC NC NC
0.995 NC NC NC NC NC NC NC 10 NC NC
0.996 NC NC NC NC NC NC NC NC NC NC
0.997 NC NC NC NC NC NC NC NC NC NC
0.998 NC NC NC NC NC NC NC NC NC NC
0.999 NC NC NC NC NC NC NC NC NC NC
194 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.12: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Chebyshev y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 4 5 5 5 4 4 5 4 4
0.981 6 5 5 5 5 4 4 5 5 5
0.982 5 4 5 5 5 5 4 4 5 4
0.983 6 5 5 5 5 4 4 4 4 4
0.984 5 5 5 5 5 4 4 4 4 5
0.985 5 5 5 6 5 4 5 4 5 4
0.986 5 5 5 5 5 4 4 4 4 5
0.987 5 5 5 5 5 4 5 4 4 5
0.988 5 5 5 5 5 4 4 5 4 4
0.989 7 5 5 5 5 4 4 4 4 4
0.990 5 5 5 5 5 4 4 4 4 5
0.991 5 5 5 5 5 4 5 4 4 5
0.992 5 5 5 6 5 4 4 4 5 4
0.993 5 5 6 5 5 4 5 4 5 5
0.994 5 5 5 5 5 4 5 4 4 4
0.995 5 5 5 5 5 4 4 4 4 5
0.996 5 5 5 5 5 4 4 4 4 4
0.997 5 5 5 5 5 4 4 4 4 5
0.998 5 5 5 5 5 4 4 4 4 4
0.999 5 5 5 5 5 5 4 4 4 5
T 104 98 101 102 100 82 85 83 85 90
m 5.2 4.9 5.05 5.1 4.0 4.1 4.25 4.15 4.25 4.5
m 8.24 7.77 8.0 8.08 6.34 6.5 6.74 6.58 6.74 7.13
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 195
Cuadro 4.13: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Chebyshev y tomando como punto de partida las condiciones
dadas en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 3 2 3 3 3 3 3 3 3
0.981 6 3 2 3 3 3 3 3 4 3
0.982 6 3 3 3 3 3 3 3 3 3
0.983 5 3 2 3 3 3 3 3 3 3
0.984 7 3 2 3 3 3 3 3 3 3
0.985 6 3 2 3 3 3 3 3 3 3
0.986 6 3 2 3 3 3 3 3 3 3
0.987 5 3 2 3 3 3 3 3 3 3
0.988 7 3 2 3 3 3 3 4 3 3
0.989 6 3 2 3 3 3 3 3 3 3
0.990 6 3 2 3 3 3 3 3 3 3
0.991 7 3 2 3 3 3 3 3 3 3
0.992 6 3 2 3 3 3 3 3 3 3
0.993 6 3 2 3 3 3 3 3 3 3
0.994 6 3 2 3 3 3 3 3 3 3
0.995 6 3 2 3 3 3 3 3 3 3
0.996 6 3 2 3 3 3 3 3 3 3
0.997 6 3 2 3 3 3 3 3 3 3
0.998 6 3 2 3 3 3 3 3 3 3
0.999 7 3 2 3 3 3 3 3 3 3
T 121 60 41 60 60 60 60 61 61 60
m 6.05 3.0 2.05 3.0 3.0 3.0 3.05 3.05 3.05 3.0
m 9.59 4.76 3.25 4.76 4.76 4.76 4.83 4.83 4.83 4.76
196 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.14: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Halley y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 4 5 5 5 6 5 5 5 4 4
0.981 4 5 5 5 5 6 5 5 5 5
0.982 4 5 5 5 5 5 5 5 5 4
0.983 4 5 5 5 5 5 5 5 4 4
0.984 5 6 5 5 5 5 5 5 4 4
0.985 4 5 6 5 5 5 5 5 5 4
0.986 4 5 5 5 5 5 5 6 5 4
0.987 4 5 5 5 5 5 5 5 4 4
0.988 4 5 5 5 6 5 5 5 4 5
0.989 5 5 5 5 5 5 5 5 5 5
0.990 5 5 5 5 5 5 5 5 5 4
0.991 5 6 5 5 5 5 5 5 5 5
0.992 5 5 5 6 5 5 5 6 5 5
0.993 5 5 5 6 5 5 5 5 5 5
0.994 5 6 6 6 5 5 5 5 5 4
0.995 5 6 5 5 5 5 5 5 5 4
0.996 5 6 5 5 6 5 5 5 5 4
0.997 6 7 5 5 5 5 5 6 5 5
0.998 6 6 6 5 6 5 5 5 5 5
0.999 6 6 6 5 5 6 5 6 5 5
T 95 109 104 103 104 102 100 104 95 85
m 4.75 5.45 5.2 5.15 5.2 5.1 5.0 5.2 4.75 4.25
m 7.53 8.64 8.24 8.16 8.24 8.08 7.93 8.24 7.53 6.74
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 197
Cuadro 4.15: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Halley y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 6 5 5 5 4 4 4 4 4 4
0.981 5 5 6 5 4 4 4 4 5 5
0.982 5 5 5 5 4 5 4 4 5 4
0.983 5 5 5 5 4 4 4 4 4 4
0.984 5 5 5 6 4 4 4 4 4 4
0.985 5 5 5 6 4 5 4 4 4 4
0.986 5 5 5 5 4 4 4 4 4 4
0.987 5 5 5 5 4 4 5 5 4 4
0.988 5 5 5 5 4 4 4 4 4 4
0.989 5 5 6 5 4 4 4 4 4 4
0.990 5 5 5 5 5 4 4 4 4 4
0.991 6 5 5 5 4 4 4 5 4 4
0.992 5 6 5 5 4 4 4 4 5 4
0.993 6 5 6 5 4 4 4 4 4 4
0.994 5 5 6 5 4 5 4 4 4 4
0.995 5 5 5 6 4 4 4 4 4 5
0.996 5 5 6 5 4 4 4 4 4 4
0.997 8 5 5 5 5 4 5 5 4 4
0.998 8 5 5 5 4 4 4 4 4 4
0.999 7 5 5 5 4 4 4 4 4 4
T 111 101 105 103 82 83 82 83 83 82
m 5.55 5.05 5.25 5.15 4.1 4.15 4.1 4.15 4.15 4.1
m 8.8 8.0 8.32 8.16 6.5 6.58 6.5 6.58 6.58 6.5
198 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.16: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Halley y tomando como punto de partida las condiciones dadas
en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 6 3 2 3 3 3 4 3 3 3
0.981 5 3 3 3 3 3 3 3 3 3
0.982 5 4 2 3 3 3 3 3 3 3
0.983 6 3 2 3 3 3 3 3 3 3
0.984 5 3 2 3 3 3 3 3 3 3
0.985 5 3 2 4 3 3 3 3 3 3
0.986 5 3 3 4 3 3 3 3 3 3
0.987 5 5 2 3 3 3 3 3 3 3
0.988 5 3 2 3 3 3 3 3 3 3
0.989 6 3 2 3 3 3 3 3 3 3
0.990 5 3 2 3 3 3 3 3 3 3
0.991 5 3 2 3 3 3 3 3 3 3
0.992 5 3 2 3 3 3 3 3 3 3
0.993 5 3 2 3 3 4 3 3 3 3
0.994 5 3 2 3 3 3 3 3 3 3
0.995 5 3 2 3 3 3 3 3 3 3
0.996 5 3 2 3 3 3 3 3 3 3
0.997 5 3 2 3 3 3 3 4 3 3
0.998 6 3 3 3 3 3 4 3 3 3
0.999 5 3 2 3 3 3 3 3 3 3
T 104 63 43 62 60 61 62 61 60 60
m 5.2 3.15 2.15 3.1 3.0 3.05 3.1 3.05 3.0 3.0
m 8.24 4.99 3.41 4.91 4.75 4.83 4.91 4.83 4.75 4.75
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 199
Cuadro 4.17: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de super-Halley y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 5 5 5 5 4 5 4 4 4
0.981 5 7 5 5 5 4 4 4 4 4
0.982 5 5 5 5 5 5 4 4 4 4
0.983 5 6 5 5 5 4 4 4 4 4
0.984 5 5 5 5 5 5 4 4 4 5
0.985 5 5 5 5 5 5 4 4 4 4
0.986 5 5 5 5 5 5 4 4 4 4
0.987 4 6 5 5 5 5 4 4 5 4
0.988 5 6 6 5 5 5 4 4 5 4
0.989 6 6 6 5 5 5 4 4 4 4
0.990 5 6 6 5 5 5 4 4 4 4
0.991 6 6 6 5 5 5 5 4 4 4
0.992 6 6 6 5 5 6 5 4 4 4
0.993 6 6 6 5 5 5 5 4 4 4
0.994 6 5 6 5 5 5 5 4 4 4
0.995 6 6 5 5 5 5 5 4 4 4
0.996 7 10 5 5 5 5 5 4 4 4
0.997 11 14 5 5 5 5 5 4 4 5
0.998 8 30 5 5 5 5 5 4 4 5
0.999 223 6 9 5 5 5 5 4 4 4
T 334 151 111 100 100 98 90 80 82 83
m 16.7 7.55 5.55 5.0 5.0 4.9 4.5 4.0 4.1 4.15
m 26.47 11.97 8.8 7.92 7.92 7.77 7.13 6.34 6.5 6.58
200 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.18: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de super-Halley y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 4 4 4 4 5 5 4 4 4
0.981 5 4 4 5 4 4 5 4 5 4
0.982 5 4 4 4 4 4 4 4 4 4
0.983 5 4 4 4 4 4 4 4 4 5
0.984 5 5 4 5 4 4 4 4 4 5
0.985 5 4 4 4 4 4 5 4 4 4
0.986 5 5 4 4 5 4 4 4 4 4
0.987 5 4 4 4 4 4 4 4 5 4
0.988 5 4 4 4 4 4 4 4 4 4
0.989 5 4 4 5 5 4 4 4 4 4
0.990 5 4 4 4 4 4 5 4 4 4
0.991 5 4 4 4 4 4 4 4 4 4
0.992 5 4 4 4 4 5 4 4 4 4
0.993 5 4 4 5 4 5 4 4 4 4
0.994 5 4 4 4 4 4 4 4 4 4
0.995 5 4 4 4 4 4 5 4 4 4
0.996 5 4 4 4 4 4 4 4 4 4
0.997 5 4 5 4 5 4 4 4 5 4
0.998 6 4 4 4 4 4 5 4 4 4
0.999 5 4 4 4 4 4 4 4 4 4
T 101 82 81 84 83 83 86 80 83 82
m 5.05 4.1 4.05 4.2 4.15 4.15 4.3 4.0 4.15 4.1
m 8.0 6.5 6.42 6.66 6.58 6.58 6.82 6.34 6.58 6.5
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 201
Cuadro 4.19: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de super-Halley y tomando como punto de partida las condiciones
dadas en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 3 2 3 3 3 4 3 3 3
0.981 5 3 2 3 3 3 3 3 3 3
0.982 5 3 2 3 3 3 3 3 3 3
0.983 5 3 2 3 3 3 3 3 3 3
0.984 6 3 2 3 3 3 3 3 4 3
0.985 6 3 2 3 3 3 3 3 3 3
0.986 5 3 2 3 3 3 3 3 3 3
0.987 6 3 2 3 3 3 3 3 4 3
0.988 5 3 2 3 3 3 3 3 3 3
0.989 5 3 2 3 4 3 3 3 3 3
0.990 5 3 3 3 3 3 3 3 3 3
0.991 5 3 2 3 3 3 3 3 3 3
0.992 5 3 2 3 3 3 3 3 3 3
0.993 5 3 2 3 3 3 3 3 3 3
0.994 5 3 2 3 3 3 3 3 3 3
0.995 5 3 2 3 3 3 3 3 3 3
0.996 5 3 2 3 3 3 3 3 3 3
0.997 5 3 2 3 3 4 3 4 3 3
0.998 5 2 2 3 3 3 4 3 3 3
0.999 5 2 3 3 3 3 3 3 3 4
T 103 58 42 60 61 61 62 61 62 61
m 5.15 2.9 2.1 3.0 3.05 3.05 3.1 3.05 3.1 3.05
m 8.16 4.6 3.33 4.75 4.83 4.83 4.91 4.83 4.91 4.83
202 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.20: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para =
3
2
y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 4 6 6 6 5 5 5 5 5 5
0.981 5 6 6 6 5 5 5 5 4 5
0.982 5 6 6 6 5 6 5 5 6 5
0.983 6 6 6 6 6 5 5 5 5 6
0.984 6 6 6 6 6 5 5 5 5 6
0.985 6 6 7 6 5 6 5 5 6 5
0.986 7 6 6 6 6 5 5 6 6 5
0.987 7 6 6 6 5 5 5 5 6 5
0.988 7 6 6 6 5 6 5 5 5 6
0.989 6 5 6 6 5 5 5 5 5 5
0.990 6 6 5 6 5 5 5 6 5 6
0.991 6 36 14 5 5 5 5 5 5 5
0.992 7 33 21 5 5 5 5 5 6 5
0.993 5 40 20 5 5 6 5 5 5 5
0.994 8 23 14 5 5 6 5 5 5 5
0.995 21 34 34 6 5 5 5 5 5 6
0.996 219 244 26 11 5 6 5 6 5 6
0.997 16 7 55 10 5 5 5 5 5 6
0.998 7 34 57 11 5 5 5 5 5 5
0.999 9 14 8 16 5 5 5 6 5 5
T 363 530 315 140 103 106 100 104 104 107
m 18.15 26.5 15.75 7.0 5.15 5.3 5.0 5.2 5.2 5.35
m 28.77 42.0 24.96 11.09 8.16 8.4 7.92 8.24 8.24 8.48
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 203
Cuadro 4.21: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para =
3
2
y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 6 5 5 5 5 4 4 4 5 4
0.981 6 5 5 5 5 4 5 4 5 4
0.982 6 5 5 5 4 5 4 4 4 4
0.983 6 5 5 5 4 5 4 4 4 4
0.984 6 5 5 5 4 5 4 5 4 5
0.985 6 5 5 5 4 4 4 4 5 4
0.986 6 5 5 5 4 4 5 5 4 4
0.987 6 5 5 5 5 4 4 4 5 4
0.988 6 5 5 6 4 4 4 4 4 5
0.989 6 5 6 5 4 4 4 5 5 4
0.990 6 5 5 5 4 4 4 4 4 5
0.991 6 5 5 6 4 4 4 4 4 4
0.992 6 5 5 5 4 5 4 4 4 4
0.993 6 6 5 5 4 5 4 4 4 4
0.994 6 5 5 5 4 4 4 4 4 4
0.995 6 5 5 5 4 4 4 4 4 4
0.996 6 6 5 5 4 5 5 4 4 4
0.997 6 5 5 5 5 4 4 5 4 4
0.998 6 5 5 5 4 4 4 5 4 5
0.999 6 5 4 5 5 4 4 5 4 5
T 120 102 100 102 85 86 83 86 85 85
m 6.0 5.1 5.0 5.1 4.25 4.3 4.15 4.3 4.25 4.25
m 9.51 8.08 7.92 8.08 6.74 6.82 6.58 6.82 6.74 6.74
204 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.22: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para =
3
2
y tomando como punto de partida las condiciones dadas
en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 6 3 2 3 3 3 3 3 3 4
0.981 6 3 2 3 3 3 3 3 4 3
0.982 6 3 2 3 3 3 3 3 3 3
0.983 6 3 2 3 3 3 3 3 3 3
0.984 6 3 2 3 3 3 3 3 3 3
0.985 6 3 2 3 3 3 3 3 3 3
0.986 6 3 2 3 3 3 3 3 3 3
0.987 6 3 2 3 3 3 3 3 3 3
0.988 6 3 2 3 3 3 3 3 3 3
0.989 5 3 2 3 3 3 3 3 3 3
0.990 6 3 2 3 3 3 3 3 3 3
0.991 6 3 2 3 3 3 3 3 3 3
0.992 7 3 2 3 3 3 3 3 3 3
0.993 6 3 2 3 3 3 3 3 3 3
0.994 5 3 2 3 3 3 3 3 3 3
0.995 5 3 2 3 3 3 3 3 3 3
0.996 5 3 2 3 3 3 3 3 3 3
0.997 7 3 2 3 3 3 3 3 3 3
0.998 5 3 2 3 3 3 3 3 3 3
0.999 5 3 2 3 3 3 3 3 3 3
T 116 60 40 60 60 60 60 60 61 61
m 5.8 3.0 2.0 3.0 3.0 3.0 3.0 3.0 3.05 3.05
m 9.19 4.75 3.17 4.75 4.75 4.75 4.75 4.75 4.83 4.83
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 205
Cuadro 4.23: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para = 2 y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 12 13 7 6 6 6 6 5 5 5
0.981 6 9 7 6 6 6 6 5 4 5
0.982 9 8 6 6 6 6 6 5 5 5
0.983 7 8 6 6 6 6 6 5 5 5
0.984 17 9 6 6 6 6 6 5 5 5
0.985 90 12 5 6 6 6 6 5 5 5
0.986 11 5 6 5 6 6 6 5 5 5
0.987 44 5 8 5 6 6 6 5 5 5
0.988 98 10 7 5 6 6 6 5 5 5
0.989 53 26 19 6 6 6 6 5 5 5
0.990 35 226 14 8 5 6 6 5 5 5
0.991 93 11 118 11 5 6 6 5 5 5
0.992 232 26 7 8 5 6 6 5 5 5
0.993 6 25 16 12 5 5 6 5 5 5
0.994 127 85 56 12 5 6 6 5 5 5
0.995 90 21 31 44 6 6 6 5 5 5
0.996 32 NC 17 13 7 6 6 5 5 5
0.997 268 215 29 7 11 5 6 5 5 5
0.998 20 209 14 17 9 5 6 5 5 5
0.999 46 80 7 17 120 5 6 5 5 5
T 1296 1003

386 206 238 117 120 100 99 100


m 64.8 52.8

19.3 10.3 11.9 5.85 6.0 5.0 4.95 5.0


m 102.71 83.69

31.06 16.32 18.86 9.27 9.51 7.92 7.85 7.92


Nota

: Esta media se ha calculado nicamente con 19 experimentos.


206 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.24: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para = 2 y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 13 8 6 5 5 5 4 4 4 4
0.981 13 16 6 5 5 5 4 4 6 4
0.982 43 8 6 5 5 5 4 4 4 4
0.983 13 7 6 5 5 5 4 4 4 4
0.984 17 9 6 5 5 5 4 4 4 4
0.985 69 24 6 5 5 5 4 4 4 4
0.986 89 8 6 5 5 5 4 4 4 4
0.987 30 9 6 5 5 5 4 4 4 4
0.988 167 22 6 5 5 5 4 4 4 4
0.989 29 31 6 5 5 5 4 4 4 4
0.990 73 14 6 5 5 5 4 4 4 4
0.991 15 16 6 5 5 5 4 4 4 4
0.992 24 26 6 5 5 5 4 4 4 4
0.993 25 17 6 5 5 6 4 4 4 4
0.994 21 101 6 5 5 5 4 4 4 4
0.995 80 114 6 5 5 5 4 4 4 4
0.996 158 14 6 5 5 5 5 4 4 4
0.997 12 13 6 5 5 4 4 4 4 4
0.998 31 59 6 5 5 4 4 4 4 4
0.999 75 52 6 5 5 5 4 4 4 4
T 997 568 120 100 100 99 81 80 82 80
m 49.85 28.4 6.0 5.0 5.0 4.95 4.05 4.0 4.1 4.0
m 79.01 45.01 9.51 7.92 7.92 7.85 6.92 6.34 6.5 6.34
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 207
Cuadro 4.25: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo para = 2 y tomando como punto de partida las condiciones dadas
en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 53 3 2 3 3 3 3 3 3 3
0.981 47 3 2 3 3 3 3 3 4 3
0.982 25 3 2 3 3 3 3 3 3 3
0.983 19 3 2 3 3 3 3 3 3 3
0.984 76 3 2 3 3 3 3 3 3 3
0.985 40 3 2 3 3 3 3 3 3 3
0.986 8 3 2 3 3 3 3 3 3 3
0.987 19 3 2 3 3 3 3 3 3 3
0.988 24 3 2 3 3 3 3 3 3 3
0.989 17 3 2 3 3 3 3 3 3 3
0.990 12 3 2 3 3 3 3 3 3 3
0.991 26 3 2 3 3 3 3 3 3 3
0.992 45 3 2 3 3 3 3 3 3 3
0.993 131 3 2 3 3 3 3 3 3 3
0.994 16 3 2 3 3 3 3 3 3 3
0.995 26 3 2 3 3 3 3 3 3 3
0.996 43 3 2 3 3 3 3 3 3 3
0.997 67 3 2 3 3 3 3 3 3 3
0.998 34 3 2 3 3 3 3 3 3 3
0.999 15 3 2 3 3 3 3 3 3 3
T 743 60 40 60 60 60 60 60 61 60
m 37.15 3.0 2.0 3.0 3.0 3.0 3.0 3.0 3.05 3.0
m 59.44 4.75 3.17 4.75 4.75 4.75 4.75 4.75 4.83 4.75
208 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.26: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Danby y tomando como punto de partida E
0
= M.
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 4 5 5 5 5 5 5 5 5 4
0.981 5 5 5 5 5 5 5 5 4 4
0.982 4 5 5 5 5 5 5 5 4 4
0.983 4 5 5 5 5 5 5 5 4 4
0.984 5 5 5 5 4 5 5 5 4 4
0.985 4 5 5 5 5 4 5 5 5 4
0.986 4 5 5 5 5 5 5 5 5 4
0.987 5 5 5 5 5 5 5 5 5 4
0.988 5 5 5 6 5 5 5 5 5 4
0.989 5 5 7 5 5 5 5 5 5 4
0.990 5 5 5 5 5 5 5 5 5 4
0.991 5 5 5 5 5 5 5 5 5 4
0.992 5 5 7 5 5 5 5 5 5 4
0.993 5 5 16 5 5 5 5 5 5 4
0.994 5 5 56 6 5 5 5 5 5 4
0.995 5 5 31 5 5 5 6 5 5 4
0.996 5 6 17 6 6 5 5 5 5 4
0.997 6 6 30 5 5 5 5 5 5 4
0.998 6 6 14 5 5 5 5 5 5 4
0.999 7 6 5 5 5 5 5 5 5 4
T 99 104 238 103 100 99 101 100 96 80
m 4.95 5.2 11.9 5.15 5.0 4.95 5.05 5.0 4.8 4.0
m 9.9 10.4 23.8 10.3 10.0 9.9 10.1 10.0 9.6 8.0
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 209
Cuadro 4.27: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Danby y tomando como punto de partida E
0
= .
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 4 4 4 4 4 4 4 4 4
0.981 5 5 4 4 4 4 4 4 4 4
0.982 5 4 4 6 4 5 4 4 4 4
0.983 5 4 4 5 5 4 4 4 4 4
0.984 6 4 4 5 4 4 4 4 4 4
0.985 6 4 4 5 4 4 4 4 4 4
0.986 5 4 4 5 4 4 4 4 4 4
0.987 5 5 4 4 4 4 4 4 4 4
0.988 5 4 4 5 4 4 4 4 4 4
0.989 5 4 4 5 4 4 4 4 4 4
0.990 5 4 4 4 4 4 4 4 4 4
0.991 5 4 6 4 4 4 4 4 4 4
0.992 5 5 6 4 4 4 4 4 4 4
0.993 5 5 6 5 4 4 4 4 4 4
0.994 5 5 6 4 5 4 4 4 4 4
0.995 6 5 6 4 4 4 4 4 4 4
0.996 6 5 6 4 6 4 4 4 4 4
0.997 6 5 6 4 4 4 4 4 4 4
0.998 7 4 6 4 4 4 5 4 4 4
0.999 5 5 4 4 4 4 4 4 4 3
T 107 89 96 89 84 81 81 80 80 79
m 5.35 4.45 4.8 4.45 4.2 4.05 4.05 4.0 4.0 3.95
m 10.7 8.9 9.6 8.9 8.4 8.1 8.1 8.0 8.0 7.9
210 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.28: Nmero de iteraciones necesarias para alcanzar la solucin de la ecuacin de
Kepler usando el mtodo de Danby y tomando como punto de partida las condiciones dadas
en (3.7).
eM 0.02 0.04 0.06 0.08 0.10 0.12 0.14 0.16 0.18 0.20
0.980 5 3 3 3 3 3 3 3 3 3
0.981 7 3 3 3 3 3 3 3 3 3
0.982 6 3 4 3 3 3 3 3 3 3
0.983 5 3 4 3 4 3 3 3 3 3
0.984 5 3 3 3 3 4 3 3 3 3
0.985 5 3 3 3 3 3 3 3 3 3
0.986 5 3 3 3 3 3 3 3 3 3
0.987 5 3 3 3 3 3 3 3 3 3
0.988 5 3 3 3 4 3 3 3 3 3
0.989 5 3 3 3 3 3 3 3 3 3
0.990 5 3 3 3 3 3 3 3 3 3
0.991 5 3 3 3 3 3 3 3 3 3
0.992 5 3 3 3 3 3 3 3 3 3
0.993 6 3 3 3 3 3 3 3 3 3
0.994 5 3 3 3 3 3 3 3 3 3
0.995 5 3 3 3 3 3 3 3 3 3
0.996 5 3 3 3 3 3 3 3 3 3
0.997 5 3 3 3 3 3 3 3 3 3
0.998 5 3 4 3 3 3 3 3 3 3
0.999 5 3 3 3 3 3 3 3 3 3
T 104 60 63 60 62 61 60 60 60 60
m 5.2 3.0 3.15 3.0 3.1 3.05 3.0 3.0 3.0 3.0
m 10.4 6.0 6.3 6.0 6.2 6.1 6.0 6.0 6.0 6.0
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 211
Anexo III: Galera de grcos para el captulo 3
En este anexo mostramos las guras asociadas a los conjuntos introducidos en el tercer
captulo (vanse las frmulas (3.36), (3.37) y (3.38) respectivamente), as como los cdigos
de Mathematica empleados para su generacin.
(a) M = 0, z
0
= 0.0.5 (b) M = 0, z
0
= 3.1 (c) M = 0, z
0
= i
(d) M = 0, z
0
= 1.1 + 0.5i (e) M = 0.5, z
0
= 0 (f) M = i, z
0
= 0
(g) M = 1 + i, z
0
= 1 + i (h) M = i, z
0
= 1 + i (i) M = i, z
0
= 1.1
Figura 4.2: Conjuntos del tipo /(M; z
0
) = e C[f
n
(M, e, z
0
)
nN
acotada, para distin-
tos valores de M y z
0
.
212 CAPTULO 4. CONVERGENCIA SEMILOCAL
(a) M = 0, e = 0.1 (b) M = 0, e = 0.7 (c) M = 0, e = 0.95
(d) M = 0, e = 0.1 + i (e) M = 0, e = 0.9 + i (f) M = 0.5i, e = 0.5
(g) M = 0.5i, e = 0.8 (h) M = 0.5i, e = 0.9 + i (i) M = 0.5 + i, e = 0.5
Figura 4.3: Conjuntos del tipo (M, e) = z C[f
n
(M, e, z)
nN
acotada para distintos
valores de M y e.
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 213
(a) e = 0.1, z
0
= 0 (b) e = 0.25, z
0
= 0 (c) e = 0.5, z
0
= 0
(d) e = 0.99, z
0
= 0e =
0.5, z
0
= 1 + i
(e) e = 0.5, z
0
= 1 + i (f) e = 0.25, z
0
=
(g) e = 0.25, z
0
= + 2i (h) e = i, z
0
= 0 (i) e = 1 + i, z
0
= 0
Figura 4.4: Conjuntos del tipo J(e, z
0
) = M C[f
n
(M, e, z
0
)
nN
acotada para distintos
valores de e y z
0
.
214 CAPTULO 4. CONVERGENCIA SEMILOCAL
Cuadro 4.29: Cdigo de Mathematica para generar fractales tipo Mandelbrot con la ecuacin
de Kepler. Est desarrollado para el caso particular en que M = 0.01, e = 0.9 y nivel de
resolucin de 0.1
KeplerFunction =
Compile[{{z, _Complex}},
Module[{w, k = 0}, w = 0.9 + 0.*I;
While[Abs[w] <= 100. && k <= 100, w = z*Sin[w] + 0.01 + 0*I;
k = k + 1]; k]];
datosKepler =
Table[KeplerFunction[x + y I], {y, -2., 2., .10}, {x, -Pi, Pi, .10}];
ListDensityPlot[datosKepler, Mesh -> False, Frame -> True,
ColorFunction -> "BlueGreenYellow", ImageSize -> {156, 156}]
4.8. ANEXO II: CUADROS CON EXPERIMENTOS NUMRICOS 215
Cuadro 4.30: Cdigo de Mathematica para generar fractales tipo Julia con la ecuacin de
Kepler. Est desarrollado para el caso particular en que M = 0.01, e = 0.9 y nivel de
resolucin de 40 iteraciones o pasos
KeplerIter = Compile[{{z, _Complex}},
Module[{cnt, nz=N[z]},
For[cnt=0,
(Abs[nz] <100) && (cnt<100), cnt++,
nz = anom+exc*Sin[nz]];
N[cnt]]];
anom=0.01; exc=0.9;KeplerFrac[z_, {{remin_, remax_}, {immin_, immax_}}, steps_]:=
{{{remin, remax}, {immin, immax}},
Table[KeplerIter[x+I*y],
{y, immin, immax, (immax-immin)/steps},
{x, remin, remax, (remax-remin)/steps}]};
FracColor = (If[#==1, Hue[1,1,0], Hue[2 #]]&);
FracPlot[{{{remin_, remax_}, {immin_, immax_}}, matrix_},
colorfn_] :=
ListDensityPlot[matrix,
Mesh -> False, Frame -> True,
ColorFunction -> "BlueGreenYellow",
PlotRange -> {0, 100},
AspectRatio -> (immax-immin)/(remax - remin)]
pasos=40;FracPlot[KeplerFrac[0,
{{-1.5 Pi,1.5 Pi},{-1.5 Pi,1.5 Pi}},pasos],FracColor]
216 CAPTULO 4. CONVERGENCIA SEMILOCAL
Bibliografa
[1] A. Abad: Astrodinmica, Ed. Bubok Publishing S.L. Ed. Prensas Universitarias de
Zaragoza Espaa, 2012.
[2] A. Abad, J. A. Docobo y A. Elipe: Curso de Astronoma, Ed. Prensas Universitarias
de Zaragoza. Espaa, 2002.
[3] J. C. Adams: On Newtons solution of Keplers problem, Monthly Notices of Royal
Astronomical Society, Vol. 43, (1882), 4349.
[4] C. Altman: Iterative methods of higher order, Bull. Acad. Pol. Sci., Serie Sci. Math.,
Ast. et Phys., Vol. 9, (1961), 6268.
[5] S. Amat, S. Busquier, J. M. Gutirrez: Geometric constructions of iterative functions to
solve nonlinear equations, Journal of Computational and Applied Mathematics, Vol.
157, (2003), 197205.
[6] S. Amat, S. Busquier, J. M. Gutirrez, M.A. Hernndez: On the global convergence
of Chebyshevs iterative method, Journal of Computational and Applied Mathematics,
Vol. 220, (2008), 1721.
[7] S. Amat, S. Busquier, D. El Kebir, J. Molina: A fast Chebyshevs method for quadratic
equations, Applied Mathematics and Computation, Vol. 148, (2004), 461474.
[8] S. Amat, S. Busquier, S. Plaza: Review of some iterative root-nding methods from a
dynamical point of view, Scientia, Series A: Math. Sciences, Vol. 10, (2004), 335.
[9] S. Amat, M.A. Hernndez, N. Romero: A modied Chebyshevs iterative method with
at least sixth order of convergence, Applied Mathematics and Computation, Vol. 206,
(2008), 164174.
[10] I. K. Argyros: Newton methods, Nova Science Publisher, Inc. New York, 2004.
[11] I. K. Argyros: The convergence of a Halley-Chebyshe-type method under Newton-
Kantorovich hypotheses, Appl. Math. Lett. Vol. 6, (1993), 7174.
217
218 BIBLIOGRAFA
[12] I. K. Argyros: A new convergence theorem for Steensens method on Banach spaces and
applications, Electronic Journal: Southwest Journal of Pure and Appied Mathematics,
Vol. 01, (1997), 2329.
[13] I. K. Argyros: The super-Halley method using divided dierences, Applied Mathematics
Letters, Vol. 10, (1997), 9195.
[14] I. K. Argyros and D. Chen: Results on Chebyshev method in Banach space, Proyeccio-
nes, Vol. 12, (1993), 119128.
[15] I. K. Argyros and H. Ren: Local convergence of ecient Secant-type methods for solving
nonlinear equations, Applied Mathematics and computation, Vol. 218, (2012), 7655
7664.
[16] I. K. Argyros and H. Ren: Local convergence of a Secant type methods for solving least
squares problems, Applied Mathematics and computation, Vol. 217, (2010), 38163824.
[17] A. Aubanell. A. Benseny y A. Delshams: tiles bsicos de clculo numrico, Editorial
Labor, S. A. Barcelona, Espaa, 1993.
[18] M. Awais, A. Raq and F. Zafar: Modied ecient variant of super-halley method,
Appl. Math; and Comp. Vol. 189, (2007), 20042010.
[19] D. K. Babajee: Analysis of higher order variants of Newtons method and their applica-
tion to dierential and integral equations and in ocean acidication, Thesis, University
of Mauritius, 2010.
[20] D. K. Babajee and M. Z. Dauhoo: An analysis of the properties of the variants of
Newtons method wiht third order convergence, Applied Mathematics and Computation,
Vol. 183, (2006), 659684.
[21] M. Balazs and G. Goldner: On Existence of Divided Dierences in Linear Spaces, Rev.
Anal. Numer. Theorie Approximation, Vol. 2, (1973), 36.
[22] B. Barna: ber die Divergenzpunkte des Newtonschen Verfahrens zur Bestimmung von
Wurzeln algebraischen Gleichungen. II, Publ. Math. Debrecen, Vol. 4, (1956), 384397.
[23] R. Behl, V. Kanwar and K. K. Sharma: Another simple way of deriving several iterative
functions to solve nonlinear equations , Journal of Applied Mathematics, Received 25
June 2012; Revised 20 September 2012; Accepted 4 October 2012.
[24] A. Ben-Israel: Newtons Method with modied funtions, Contemporary Mathematics,
Vol. 204, (1997), 3950.
BIBLIOGRAFA 219
[25] E. Bodewig: On types of convergence and on the behavior of approximations in the
neighborhood of a multiple root of an equation, Quart. Appl. Math. Vol. 7, (1949),
325333.
[26] G. H. Browm Jr: On Halleys variation of Newtons method, Amer. Math. Monthly,
Vol. 84, (1977), 726728.
[27] R. Burden and D. Faires: Anlisis Numrico, Grupo Editorial Iberoamrica. Espaa,
1985.
[28] S. Busquier: Mtodos iterativos de alto orden y aplicaciones, Tesis Doctoral, Universi-
dad Politcnica de Cartagena, 2003. .
[29] R. Campbell: Les intgrales euleriennes et leurs aplications, Dunod, 1966.
[30] V. Candela and A. Marquina: Recurrence Relations for Rational Cubic Methods II: The
Chebyshev Method, Computing Vol. 45, (1990), 355367.
[31] B. Carnahan and H. A. Luther: Applied Numerical Method, John Wiley and Sons. New
York, 1969.
[32] A. L. Cauchy: Lecons sur le Calcul Dierentiel, Bur frres. Pars, 1829.
[33] O. Ciaurri: Instantneas Diferenciales. Mtodos Elementales de Resolucin de Ecuacio-
nes Diferenciales Ordinarias, Estudio del Problema de Cauchy y Teora de Ecuaciones
y Sistemas Lineales, Servicio de Publicaciones de la Universidad de la Rioja. Logroo,
Espaa, 2013.
[34] S. C. Chapra and R. P. Canale: Numerical methods for engineers, McGrau-Hill. EEUU,
1998.
[35] E. D. Charles y J. B. Tatum: The convergence of Newton-Raphson iteration with Ke-
plers equation, Celestial Mechanics and Dynamical Astronomy, Vol. 69, (1998), 357
372.
[36] J. Chavarriga, I. A. Garca, J. Gin: Manual de mtodos numricos, Ediciones de la
Universitat De Lleida. Espaa, 1999.
[37] F. Chicharro, A. Cordero, J. M. Gutirrez and J. R. Torregrosa: Complex dynamics
of derivative-free methods for nonlinear equations, Applied Mathematics and Compu-
tation, Vol. 219, (2013), 70237035.
[38] P. L. Chebyshev: Complete collected works, Izdatelstvo Akad. Nauk SSR. Moscow,
19461951.
220 BIBLIOGRAFA
[39] J. Chen and W. Li: An improved exponential regula falsi method with quadratic conver-
gence of both diameter and point for solving nonlinear equations, Applied Nuemerical
Mathematics, Vol. 57, (2007), 8088.
[40] D. Chen, I. K. Argyros and Q. S. Quian: A note on the Halleys method in Banach
spaces Appl. Math. and Comp. Vol. 58, (1993), 215224.
[41] D. Chen, I. K. Argyros and Q. S. Quian: A local convergence theorem for the super-
Halleys method in a Banach spaces, Appl. Math. Lett. Vol. 7, (1994), 4952.
[42] C. Chun: Certain improvement of Chebyshev-Halley methods with accelerated fourth-
order convergence, Appl. Math. Comput. Vol. 189, (2005), 15591568.
[43] C. Chun: Some variants of Chebyshev-Halley methods free from second derivative, Appl.
Math. Comput. Vol. 191, (2007), 193198.
[44] C. Chun: Some second-derivative-free variants of Chebyshev-Halley methods, Appl.
Math. Comput. Vol. 191, (2007), 410414.
[45] C. Chun and Y. Ham: Some second-derivative-free variants of super-Halley method with
fourth-order convergence, Appl. Math. Comput. Vol. 195, (2008), 537541.
[46] A. M. Cohen: Anlisis Numrico, Editora Revert, Espaa, 1977.
[47] D. Conte y C. De Boor: Anlisis Numrico elemental, McGrau-Hill. Inc. USA, 1972.
[48] B. A. Conway: An improved algorithm due to Laguerre for the solution of Keplers
equation, Celest. Mech. Vol. 39, (1986), 199211.
[49] P. Colwell: Solving Keplers Equations. Over three Centuries, Willmann-Bell, Inc, Rich-
mond. Virginia, 1993.
[50] A. Cordero, J. L. Hueso, E. Martnez and J. R. Torregrosa: Steensen type methods for
solving nonlinear equations, Journal of Computational and Applied Mathematics,Vol.
36, (2012), 30583064.
[51] J. M. Danby and T. M. Burkardt: The solution of Kepler equation I, Celestial Mecha-
nics, Vol. 31, (1983), 95107.
[52] J. M. Danby and T. M. Burkardt: The solution of Keplers equation III, Celestial
Mechanics, Vol. 31, (1987), 303312.
[53] J. M. A. Danby: Fundamentals of Celestial Mechanics, 2nd. edition. Willmann-Bell,
Inc. Richmond, EEUU, 1988.
BIBLIOGRAFA 221
[54] M. Davies and B. Dawson: On the global convergence of Halleys iteration formula,
Numer. Math. Vol. 24, (1975), 133135.
[55] J. P. Dedieu and M. H. Kim: Newtons method for analytic system of equations with
constant rank derivatives, Journal of Complexity, Vol. 18, (2002), 187209.
[56] J. J. De Ors, M. A. Catal y J. Nez de Murga: Astronoma esfrica y mecnica
celeste, Edicions Universitat Barcelona, (2007).
[57] N. L. De la Caille: Sur les aelaements de la theorie du soleil, Premier Memoire, Me-
moires de lAcademie Royale des Sciences, Vol. A2, (1750), 166178.
[58] J. M. Daz y F. Bentez: Introduccin a los mtodos numricos para la resolucin de
ecuaciones, Servicio de publicaciones de la Universidad de Cdiz. Espaa, 1998
[59] P. Dez: A note on the convergence of the Secant method for simple and multiple roots,
Applied Mathematics Letters, Vol. 16, (2003), 12111215.
[60] M. A. Dilon: Una introduccin al mtodo de Newton-Raphson para resolver ecuaciones
no lineales, Editora ServiCentro. Nagua, Rep. Dominicana, 2009.
[61] M. A. Dilon, M. Garca-Olivo and J. M. Gutirrez: A note on the semilocal convergence
of Chebyshevs method, aceptado en Bulletin of the Australian Mathematical Society,
(2012).
[62] M. A. Dilon y J. M. Gutirrez: A comparative study of dierent semilocal convergence
results applied to Keplers equation, Computational Mathematics: Theory, Methods and
Applications. Nova Science Publisher. EEUU, 2011.
[63] M. A. Dilon y J. M. Gutirrez: On the existence of attractive cycles for Newtons
method applied to Keplers equation, aceptado en Journal of Advanced Research in
Applied Mathematics, 2013.
[64] R. L. Devaney: A First Course in Chaotic Dynamical Systems, Theory and Experiment,
Addison-Wesley. New York, 1992.
[65] G. C. Donovan, A. R. Miller and T. J. Moreland: Pathological functions for Newtons
method, American Mathematical Monthly, Vol. 100, (1993), 5358.
[66] H. Epstein: Nuevas pruebas de la existencia de las funciones Feigenbaum, Inst. Hautes
tudes Sco., Informe No. IHES, (1985), 5585.
[67] J. A. Ezquerro, J. M. Gutirrez, M. A. Hernndez y M. A. Salanova: El mtodo de
Halley: Posiblemente, el mtodo ms redescubierto del mundo,Margarita Mathematica
222 BIBLIOGRAFA
en memoria de Jos Javier (Chicho) Guadalupe, (L. Espaol y J. L. Varona, editores),
Servicio de Publicaciones, Universidad de la Rioja. Logroo, Espaa, 2001.
[68] J. A. Ezquerro: A Modication of the Chebyshev Method, IMA Journal of Numerical
Analysis, Vol. 17, (1996), 511525
[69] J. A. Ezquerro and M. A. Hernndez: A Modication of the Super-Halley Method under
mild dierenciability conditions, Journal of Computational and Applied Mathematics,
Vol. 114, (2000), 405409
[70] J. A. Ezquerro and M. A. Hernndez: A Generalization of the Kantorovich Type As-
sumptions for Halleys Method, International Journal of Computer Mathematics, Vol.
84, (2007), 17711779.
[71] J. A. Ezquerro: Construccin de procesos iterativos mediante aceleracin del mtodo
de Newton, Tesis Doctoral, Servicio de Publicaciones de la Universidad de la Rioja.
Logroo, Espaa, 1996.
[72] J. A. Ezquerro, J. M. Gutirrez and M. A. Hernndez: A Construction Procedure of
Iterative Methods with Cubical Convergence, Applied Mathematics and Computation,
Vol. 85, (1997), 181199.
[73] M. J. Feigenbaum: Universal behavior in nonlinear systems, Physica D, Vol. 7, (1983),
1639.
[74] J. S. Frame: A variation of Newtons method, American Mathematical Monthly, Vol.
51, (1944), 3638.
[75] C. E. Froberg: Introduction to numerical analysis, Addison-Wesley, Second edition. EE
UU, 1970.
[76] W. Gander: On Halleys iteration method, Amer. Math. Monthly, Vol. 92, (1985),
131134.
[77] F. Garca y A. Nevot: Mtodos numricos en forma de ejercicios resueltos, UPCU
Departamento Publicaciones. Madrid, 1997.
[78] M. Garca-Olivo y J. M. Gutirrez, La obra El clculo de las races de una ecuacin"
de P. L. Chebyshev, Editorial Acadmica Espaola, Alemania, 2012.
[79] W. Gautschi: Numerical Analysis. An introduction, Birkhauser. Boston, USA, 1997.
[80] S. B. Gaythorpe: Jeremiah Horrocks and his New Theory of the Moon, Journal of the
British Astronomical Association, Vol.67, (1957), 134144.
BIBLIOGRAFA 223
[81] J. Gerlach: Accelerated convergence in Newtons Method, SIAM Review, Vol. 36,
(1994), 272276.
[82] W. J. Gilbert: Generalizations of Newtons method, Fractals, Vol. 9, (2001), 251262.
[83] J. M. Gutirrez: El mtodo de Newton en espacios de Banach, Tesis doctoral, Univer-
sidad de La Rioja. Logroo, Espaa, 1995.
[84] J. M. Gutirrez: A new semilocal convergence theorem for Newtons method, Journal of
Computational and Applied Mathematics, Vol. 79, (1997), 131145.
[85] J. M. Gutirrez y M. A. Hernndez: Recurrence relations for the Super-Halleys method,
Computers Math. Applic. Vol. 36, (1998), 18.
[86] J. M. Gutirrez y M. A. Hernndez: Newtons method under weak Kantorovich condi-
tions, Journal of numerical analysis, Vol. 20, (2000), 521532.
[87] J. M. Gutirrez y M. A. Hernndez: An acceleration of Newtons method: Super-Halley
method, Applied Mathematics and Computation, Vol. 117, (2001), 223239.
[88] J. M. Gutirrez y M. A. Hernndez: An acceleration of Newtons method: Super-Halley
method, Applied Mathematics and Computation, Vol. 117, (2001), 222239.
[89] J. M. Gutirrez, M. A. Hernndez y M. Amparo Salanova: -theory for nonlinear Fred-
holm integral equations, Grazer Mathematische Berrichte, Vol. 346, (2004), 187196.
[90] M. Grau-Snchez and J. L. Daz-Barrero: An improvement of the Euler-Chebyshev
iterative method, J. Math. Annal. Appl. Vol. 135, (2006), 17.
[91] M. Grau and J. M. Gutirez: Some family of zero-nder methods derive from Obresh-
kovs techiques, Comunicacin particular.
[92] M. Grau and J. M. Gutirrez: Zero-nder methods derived from Obreshkovs techniques,
Applied Mathematics and Computation, Vol. 215, (2009), 29923001.
[93] M. Grau, M. Noguera y J. M. Gutirrez: On some computational ordeers of convergence,
Applied Mathematical Letters, Vol. 23, (2009), 472478.
[94] M. Grau, J. M. Peris and J. M. Gutirrez: Accelerated iterative methods for nding
solutions of a system of nonlinear equations, Applied Mathematics and Computation,
Vol. 190, (2007), 18151823.
[95] E. Hansen and M. Patrick: A family of root nding methods, Numer. Math. Vol. 27,
(1977), 257269.
224 BIBLIOGRAFA
[96] P. Henrici: Elements of numerical analysis, John Wiley and Sons, Inc. New York, 1964.
[97] M.A. Hernndez: Newton-Raphsons method and convexity, Zb. Rad. Prirod.-Mat. Fak.
Ser. Mat. Vol. 22, (1992), 159166.
[98] M. A. Hernndez y M. A. Salanova: La convexidad en la resolucin de ecuaciones esca-
lares no lineales, Servicio de Publicaciones, Universidad de la Rioja. Logroo, Espaa,
1996.
[99] M.A. Hernndez and N. Romero: Accelerated convergence in Newtons method for ap-
proximating square roots, Journal of Computational and Applied Mathematics, Vol.
177, (2005), 225229.
[100] M.A. Hernndez y M. J. Rubio: Un estudio unicado de la convergencia semilocal de
mtodos tipo Newton de dos puntos en espacios de Banach, XX Congreso de ecuaciones
diferenciales y aplicaciones. Sevilla, Espaa, (2007), 18.
[101] M. A. Hernndez y M. J. Rubio: Semilocal Convergence of the Secant Method under
Mild Convergence Conditions of Diferentiability, Comput. Math. Appl. Vol. 44, (2004),
277285.
[102] M. A. Hernndez y M. A. Salanova: A Family of Chebyshev Type Methods in Banach
Spaces, International Journal of Computer Mathematics, Vol. 61, (1996), 12.
[103] M. A. Hernndez y M. A. Salanova: An acceleration procedure of Regula Falsi method,
Tamkang Journal of Mathematics, Vol.28, (1997), 6777.
[104] H. H. H. Homeier: A modied Newton method with cubic convergence: the multivariate
case, Journal of Computational and Applied Mathematics, Vol. 169, (2004), 161169.
[105] A. S. Householder: The Numerical Treatment of a Single Nonlinear Equation, McGraw-
Hill. New York, 1970.
[106] M. Hurley and C. Martin: Newtons algorithm and chaotic dynamical systems, SIAM
J. Math. Anal. Vol. 15, (1984), 238252.
[107] J. A. Infante y J. M. Rey: Mtodos numricos. Teora, problemas y prcticas con
MATLAB, Ediciones Pirmide, tercera edicin. Madrid, 2007.
[108] A. N. Johnson and B. Neta: High order nonlinear solver, Journal of Computational
Methods in Sciences and Engineering, Vol. 8, (2008), 245250.
[109] L. V. Kantorovich: On Newtons method for functional equations, Dokl. Akad. Nauk.
Vol. 59, (1948), 12371240.
BIBLIOGRAFA 225
[110] L. V. Kantorovich: The majorant principle and Newtons method, Dokl. Akad. Nauk.
Vol. 76, (1951), 1720.
[111] L. V. Kantorovich and G. P. Akilov: Functional Analysis, Pergamom. Oxford, U.K.,
1982.
[112] V. Kanwar, S. Singh and S. Bakshi: Simple geometric constructions of quadratically
and cubically convergent iterative functions to solve nonlinear equations, Numerical
Algorithms, Vol. 4, (2008), 95107.
[113] A. Kharab and R. B. Guen: An introduction to numerical methods. A MATLAB ap-
proach, Chapman and Hall/ CRC. Florida, EE UU, 2002.
[114] C. Chun and Y-I. Kim: Several New Third-Order Iterative Methods for Solving Nonli-
near Equations, Acta Applicandae Mathematicae, Vol. 109, (2010), 10531063.
[115] M. Kim: On approximate zeros and rootnding algorithms for a complex polinomial,
Mathematics of Computation, Vol 51, (1988), 707719.
[116] M. Kim: Computational Complexity of the Euler Type Algorithms for the Roots of
Complex Polynomials, Thesis, City University of New York, 1985.
[117] D. Kincaid: Anlisis Numrico, Addison-Wesley Iberoamericana. Espaa, 1991.
[118] N. Kjurkchiev: Initial approximations in EulerChebyshevs method, Journal of Compu-
tational and Applied Mathematics, Vol. 58, (1995), 233236.
[119] E. Kobal: Notice concerned with the calculation of roots of numerical equations, Mo-
natsh. Math. Vol. 02, (2002), 331332.
[120] J. Kou: On Chebyshev-Halley with sixth-order convergence for solving nonlinear equa-
tions, Appl. Math. Comput. Vol. 190, (2007), 126131.
[121] J. Kou and Y. Li: A family of modied super-Halley methods with fourth-order conver-
gence, Appl. Math. Comput. Vol. 186, (2007), 366370.
[122] J. Kou, Y. Li and X. Wang: A variant of super-Halley method with accelerate fourth-
order convergence, Appl. Math. Comput. Vol 186, (2007), 535539.
[123] K. Kneisl: Julia sets for the super-Newton method, Cauchys method and Halleys met-
hod, Chaos, Vol. 11, (2001), 359370.
[124] R. J. Knill: A modied Babylonian algorithm, Amer. Math. Monthly, Vol. 99, (1997),
734737.
226 BIBLIOGRAFA
[125] J.D. Lambert: Computational Methods in Ordinary Dierential Equations, John Wiley
& Sons. Chichester, EE UU, 1976.
[126] V. Lanchares and I. L. Prez-Barrn: The dynamics of Kepler equation, Analytic and
numerical techniques in orbital dynamics, Vol. 22, (2003), 7582.
[127] T. Li and J. Yorke: Period three implies chaos, Amer. Math. Monthly, Vol. 82, (1975),
985993.
[128] A. Liapunov: Probleme Gnral de la stabilit du mouvement, Ann. Fac. Sci. Univ.
Tolouse, Vol. 9, (1907).
[129] R. Lozada: Anlisis Matemtico, Ediciones Pirmide. Madrid, 1978.
[130] M. Lyubich: The quadratic family as a qualitatively solvable model of chaos, Notices of
the American Mathematical Society, Vol. 47, (2000), 10421052.
[131] J. H. Mathews and K. D. Fink: Mtodos Numricos con MATLAB, Prentice Hall Iberia.
Madrid, 2000.
[132] A. Melman: Geometry and convergence of Eulers and Halleys methods,SIAM Rev.
Vol. 39, (1997), 728735.
[133] V. Muto: Curso de mtodos numricos, Servicio editorial, Universidad del Pais Vasco.
Espaa, 1998.
[134] F. R. Multon: An Introduction to Celestial Mechanics, 2nd. revised edition. Dover. New
York, 1970.
[135] S. Nakamura: Anlisis numrico y visualizacin grca con MATLAB, Prentice-Hill
Inc, A Simon y Schuster Company. Mxico, 1997.
[136] B. Neta: Several new methods for solving equations, Inter. J. Computer. Math. Vol.
23, (1988), 265282.
[137] C. Neuhauser: Matemtica para ciencias, Pearson Educacin, S. A. Madrid, 2004.
[138] A. Newmaier: Introduction to numerical analysis, Cambridge University Press. UK,
2001.
[139] E. A. Lacomba: Los sistemas dinmicos, qu son y para qu sirven?, Miscelnea Ma-
temtica, Vol. 32, (2000), 3950.
[140] N. Obreshkov: Neue Quadraturformeln, Abh. Preuss. Akad. Wissenschaft. Math. Nat.
Kl. Vol. 4, (1940) 120.
BIBLIOGRAFA 227
[141] J. M. Ortega and W. C. Rheinbolt: Iterative Solution of Nonlinear Equations in Several
Variables, SIAM. Philadelphia, EE UU, 2000.
[142] M. A. Ostrowski: Solution of Equations and Sistems of Equations, Academic Press.
New York, 1966.
[143] M. A. Ostrowski: Solution of Equations in Euclidean and Banach Spaces, Academic
Press. New York, 1976.
[144] A. Y. Ozban: Some new variants of Newtons method, Applied Mathematics Letters,
Vol. 17, (2004), 667682.
[145] J. R. Pastor, P. Callejas y C. Trejo: Anlisis Matemtico, Editora Kapeluz. Argentina,
1969.
[146] M. Pal: Numerical analysis for scientists and engineers, Alpha Science International
Ltd. U. K, 2007.
[147] M. Palacios: Kepler equation and accelerated Newton method, Journal of Computational
and Applied Mathematics, Vo.l , (2002), 335346.
[148] M. S. Petkovi, L. D. Petkovi y D. Herceg: On Schrders families of root-nding
methods, J. Comput. Appl. Math. Vol. 233, (2010), 17551762.
[149] H. Poincar Les mthodes nouvelles de la mecanique cleste, Gauthier-Villars. Paris,
1892.
[150] A. Quarteroni y F. Saleri: Clculo cientco con MATLAB y Octave, Springer-Verlag.
Roma, 2006.
[151] V. Ramrez, D. Barrera, M. Pasadas y P. Gonzlez: Clculo numrico con Mathematica,
Editora Ariel. Barcelona, Espaa, 2001.
[152] A. Ralston: Introduccin al anlisis numrico, Editora Limusa. Mxico, 1978.
[153] F. J. Rodrguez: Clculo y Mtodos Numricos. Teora, Algoritmos y Problemas resuel-
tos, Universidad Ponticia de Comillas, Coleccin Ingeniera. Madrid, Espaa, 2003.
[154] N. Romero: Familias paramtricas de procesos iterativos de alto orden de convergencia,
Tesis doctoral, Universidad de La Rioja, Servicio de publicaciones, Madrid, Espaa,
2006.
[155] M. J. Rubio: Procesos iterativos denidos mendiante diferencias divididas, Tesis doc-
toral, Universidad de La Rioja, Servicio de publicaciones, Madrid, Espaa, 2006.
228 BIBLIOGRAFA
[156] D. G. Saari and J. B. Urenko: Newtons method, circle maps, and chaotic motion, Amer.
Math. Monthly, Vol. 91, (1984), 317.
[157] R. A. Salehov: The method of tangent hyperbolas, Dokl.Akad.Nauk SSSR, Vol. 4,
(1963), 482485.
[158] G.S. Salehov: On the convergence of the process of tangent hyperbolas, Dokl.Akad.Nauk
SSSR, Vol. 82, (1952), 525528.
[159] G.S. Salehov and M. A. Mertvetsova: On the convergence of some iterative processes,
Izv. Kazansk. Phil. ANSSSR. Ser. Phiz-Matem. i Techn. Vol. 5, (1954), 77108.
[160] T. R. Scavo and J. B. Thoo: On the geometry of Halleys method, American Mathema-
tical Monthly, Vol. 102, (2002), 417426.
[161] F. Scheid: Anlisis Numrico, McGrau-Hill. Mxico, 1998.
[162] E. Schroder: Uber unendlich viele Algorithmen zur Au osung der Gleichungen, Math.
Ann. Vol. 2, (1870), 317365.
[163] R. E. Scraton: Mtodos numricos bsicos, McGrau-Hill. Mxico, 1987.
[164] M. A. Sharaf and M.A. Banajh: Error analysis for stationary one point iteration for-
mulae of arbitrary order of convergence for solving universal Keplers equation, Applied
Mathematical and Computation, Vol. 155, (2004), 699707.
[165] J. R. Sharma: A family of third-order methods to solve nonlinear equations by quadratic
curves approximation, Applied Mathematics and Computation, Vol. 184, (2007), 210
215.
[166] W. T. Shaw: Complex analysis with Mathematica, Cambridge University Press. United
Kingdom, 2006.
[167] M. Shub y S. Smale: Computation complexity: O the geometry of polynomials and a
theory of cost, I, Ann. Sci. c. Norm. Supr. Vol. 18, (1985), 107142.
[168] S. Smale: The fundamental theory for solving equations, The international congress of
mathematicians. Providence, USA, 1987.
[169] S. Smale: Newtons method estimates from data at one point, The Merging of Disciplines:
New Directions in Pure Applied and Computational Mathematics, (1986) 185196.
[170] S. Smale: On the eciency of algorithms of analysis, Bull. AMS. Vol. 13, (1985),
87121.
BIBLIOGRAFA 229
[171] Smart, W. M: Text Book of Spherical Astronomy, Cambridge University Press. London,
1987.
[172] J. F. Steensen: Factorial moments and discontinuous-frequency functions, Scandina-
vian Actuarial Journal, Vol. 1923, (1923), 7389.
[173] G. W. Steward: Afternotes on numerical analysis, SIAM. Philadelphia, EE UU, 1996.
[174] K. Stump: On the application of Lie-series to problems of celestial mechanics, National
Aeronautics and Space Administration. Springeld, EE UU, 1968.
[175] L. Stumpf: Chaotic behaviour in the newton iterative function associated with keplers
equation, Celestial Mechanics and Dynamical Astronomy, Vol. 74, (1999), 95109.
[176] C. O. Surez-Alemn: Aceptacin en Espaa de los criterios rigurosos del anlisis ma-
temtico durante los siglos XIX y XX, Tesis Doctoral, Universidad de Cdiz, 2007.
[177] E. Suli and D. Mayers: An introduction to numerical analysis, Cambridge University
Press. UK, 2003.
[178] M. Tabor: El caos y la integrabilidad en Dinmica no lineal: una introduccin, Wiley.
New York, 1989.
[179] B. Taylor: Methodus Incrementorum Directa et Inversa. Londres, 1715.
[180] J. F. Traub: Iterative methods for the solution of equations, Prentice -Hall. N.J, EE
UU, 1964.
[181] S. Ulm: Ob obobscennych Razdelenych Raznostjach, I, II, Eesti NSV Tead. Akad. Toim-
tised. Mat. Vol. 16, (1967), 146156.
[182] N. Ujeviec: An iterative method for solving nonlinear equations, Journal of Compu-
tational and Applied Mathematics, Vol. 2, (2006), 19.
[183] O. Vaarmann: High order iterative methods for decomposition-coordination problems,
Technological and economic development of economy, Vol. XII, (2006), 5661.
[184] J. M. Vallejo: Tratado Elemental de Matemticas. Madrid, 1813. Segunda edicin co-
rregida y aumentada de 1832.
[185] J. L. Varona: Representacin grca de fractales mediante un programa de clculo nu-
mrico simblico, La Gaceta de la RSME, Vol. 6, (2003), 214230.
[186] D. Wang y F. Zhao: The Theory of Smales Point Estimation and its Applications,
Journal of Computational and Applied Mathematics, Vol. 60, (1995), 253269.
230 BIBLIOGRAFA
[187] X. H. Wang: Convergence of Newtons method and uniqueness of the solution of equa-
tions in Banach space, IMA J. Numer. Anal. Vol. 20, (2000), 123134.
[188] S. Weerakoon and T. G. I. Fernando: A variant of Newtons method with accelerated
third-order convergence, Applied Mathematics Letters, Vol. 13, (2000), 8793.
[189] D. T. Whiteside: The mathematical papers of Isaac Newton, Cambridge University
Press, Vol. 06, (1974), 308323.
[190] S. Wolfram: The Mathematica Book, Cambridge University Press. U. K, 1996.
[191] J. C. Yakoubsohn: Finding Zeros of Analytic Functions: Theory for Secant Type
Methods, Journal of Complexity, Vol. 15, (1999), 239281.
[192] T. Yamamoto: Historical development in convergence analysis for Newtons and
Newton-like methods, Journal of Computational and Applied Mathematics, Vol. 124,
(2000), 123.
[193] T.Yamamoto: On the method of tangent hyperbolas in Banach spaces,
J.Comput.Appl.Math. Vol. 21, (1988), 7586
[194] D. M. Young. and R. G. Todd: A Survey of Numerical Mathematics, Dover Publications,
Inc. New York, 1973.
[195] T. J. Ypma: Historical Developmente of Newton-Raphson Method, SIAM Review, Vol.
37, (1965), 531551.
[196] B. I. Yun: A non-iterative method for solving non-linear equations, Appl. Math. Com-
put. Vol. 198, (2008), 691699.
[197] B. I. Yun and M. S. Petkovi: A quadratically convergent iterartive method for nonlinear
equations, J. Korean Math. Soc. Vol. 48, (2011), 487497.
[198] Zhen Shi-Ming: Point estimates for Halleys iteration, Acta Mathematicae Aplicate
Sinica, Vol. 14, (1991), 381383.
[199] S. Zheng: The convergence of Halleys method and its optimal error bounds, J. Hangzhou
University, Vol. 9, (1982), 285289.
[200] S. Zhen and D. Robbie: A note on the convergence of Halleys method for solving
operator euqations, J. Austral. Math. Soc. Ser. B. Vol. 37, (1995), 1625.
[201] http://www4.ncsu.edu/~njrose/Special/Bios/Danby-Obit.html
[202] http://www.reserch.microsotf.com/~minka/papers/newton.html
BIBLIOGRAFA 231
[203] http://www.math.heldermann.de/JAA/JAA09/jaa0919.html
[204] http://numbers.computation.free.fr/Constants/Algorithms/Newton.html
[205] http://en.wikipedia.org/wiki/Halley\%27s_method
[206] http://mathworld.wolfram.com/HalleysMethod.html
[207] http://math.fullerton.edu/mathews/n2003/halleysmethod/HalleysMethodMod_
lnk_3.html
[208] http://asteroidi.uai.it

Vous aimerez peut-être aussi