Académique Documents
Professionnel Documents
Culture Documents
net/publication/305852121
CITATIONS READS
0 970
1 author:
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Construcción de un modelo matemático para la solución óptima del problema de localización de los sistemas de distribución de gas natural
para abastecimiento del parque de generación de energía eléctrica. View project
All content following this page was uploaded by Manuel Aurelio Diloné on 09 August 2016.
13 de julio de 2009
2
5
6
Prólogo
Este documento es fruto del trabajo realizado por D. Manuel Aurelio Diloné Al-
varado durante su estancia de investigación en la Universidad de La Rioja, en los
cursos 2006–07, 2007–08 y 2008–09. Dicha estancia fue motivada por el convenio
firmado por la Universidad de La Rioja y la Secretaría de Estado de Educación Su-
perior, Ciencia y Tecnología de la República Dominicana con el objetivo de impulsar
los estudios de doctorado científico técnicos en dicho país.
Una de las primeras acciones que impulsó el citado convenio fue la llegada a la
Universidad de La Rioja, a comienzos del curso 2006–07, de dos profesores domini-
canos para la realización de los cursos de doctorado en dicha Universidad, uno de
los cuales era D. Manuel Aurelio Diloné Alvarado. En concreto, el profesor Diloné
se inscribió en el programa de doctorado que se imparte de forma conjunta entre
los departamentos de Matemáticas y Computación e Ingeniería Eléctrica de la Uni-
versidad de La Rioja, cursando con éxito las asignaturas en las que se matriculó.
Además de los conocimientos adquiridos en estas asignaturas, el profesor Diloné ha
complementado su formación con el manejo de algunas herramientas que en la ac-
tualidad resultan imprescindibles para cualquier investigador en Matemáticas, tales
como el procesador de textos científicos LATEX o el programa de cálculo simbólico
Mathematica.
Una vez superado el periodo de docencia, tuvo que afrontar la realización de un
trabajo de investigación, optando para ello por alguna de las líneas que se oferta-
ban desde el departamento de Matemáticas y Computación de la Universidad de La
Rioja. En concreto, la línea de investigación elegida fue Procesos iterativos para la
resolución de ecuaciones no lineales. Aplicaciones. Para ayudarle a llevar a cabo su
cometido al profesor Diloné se le asignó un tutor académico, que es quien subscribe
estas líneas. Recuerdo con cariño la primera entrevista que tuve como tutor de Dilo-
né, en la cual se me presentó como un «soldado disciplinado» dispuesto a conseguir
todas aquellas metas académicas que se le propongan.
Dentro de la línea de investigación elegida, el trabajo del profesor Diloné se centra
en el estudio del método de Newton y su aplicación a la ecuación de Kepler. Este
tema combina a la perfección dos de los tópicos más clásicos en el Análisis Numérico
y la Matemática Aplicada en general. Por una parte, el estudio de procesos iterativos
para resolver ecuaciones no lineales y, en particular el método de Newton, es un tema
de incuestionable actualidad, a tenor de las publicaciones al respecto que aparecen
en diversas revistas científicas. Por otra parte, la ecuación de Kepler es, sin duda, una
de las ecuaciones más estudiadas en la bibliografía matemática. La combinación de
ambos tópicos ofrece unas enormes posibilidades investigadoras, como lo demuestran
los logros alcanzados hasta el momento. En concreto, además de la publicación de
esta monografía, se ha presentado una comunicación en las III Jornadas de Análisis
Numérico y Aplicaciones, celebradas en la Universidad de La Rioja en noviembre
de 2008 y se tiene admitido un capítulo en el libro Computational Mathematics:
Theory, Methods and Application que publicará a finales de 2009 la editorial Nova
Science Publishers, Inc., con sede en Nueva York.
La tarea investigadora del profesor Diloné en la Universidad de La Rioja culmina-
rá a finales del presente curso 2008–09, con la defensa de su trabajo de investigación
y la obtención del Diploma de Estudios Avanzados. Pero es en ese momento, cuando
vuelva a su República Dominicana natal, cuando dará comienzo la etapa más apa-
7
8 PRÓLOGO
9
10 NOTA PRELIMINAR DEL AUTOR
Índice general
2. El Método de Newton-Raphson 7
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Descripción del método . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1. A partir del desarrollo de Taylor . . . . . . . . . . . . . . . . 9
2.2.2. Construcción geométrica: método de la tangente. . . . . . . . 9
2.2.3. Iteración del punto fijo. . . . . . . . . . . . . . . . . . . . . . 10
2.3. Estudio de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1. Convergencia Local. . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2. Convergencia Global. . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3. Convergencia Semilocal. . . . . . . . . . . . . . . . . . . . . . 16
2.4. Orden de convergencia y eficiencia . . . . . . . . . . . . . . . . . . . 25
2.4.1. Orden de convergencia . . . . . . . . . . . . . . . . . . . . . . 25
2.4.2. Índice de eficiencia . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.3. Orden de convergencia computacional . . . . . . . . . . . . . 26
2.5. Ejemplos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.1. Ecuaciones no lineales resueltos por el método de Newton. . . 27
2.5.2. Ejemplos patológicos . . . . . . . . . . . . . . . . . . . . . . . 32
Bibliografía 57
11
12 ÍNDICE GENERAL
Capítulo 1
Resolución numérica de
ecuaciones no lineales
1.1. Introducción
Muchos problemas relacionados con las Matemáticas se reducen a resolver una
ecuación
f (x) = 0, (1.1)
donde, en principio, supondremos que f es una función real de variable real. Pese
a su sencillez de planteamiento, éste ha sido un problema complicado que ha sido
tratado por numerosos matemáticos célebres: Cardano, Newton, Ruffini, Galois, etc.
Incluso para funciones «sencillas» como son los polinomios, el cálculo de sus raíces es
un tema complicado. En un principio, se intentó encontrar dichas raíces en función
de los coeficientes del polinomio, como ocurre con la ecuación de segundo grado:
√
2 −b ± b2 − 4ac
ax + bx + c = 0 ⇐⇒ x = .
2a
También se conocen fórmulas para polinomios de grados 3 y 4 aunque, debido a su
complejidad, no se suelen usar en la práctica. A principios del s. XIX, Galois probó
que no existen este tipo de fórmulas para polinomios de grado mayor o igual que 5.
El problema de no poder encontrar de forma exacta las soluciones de una ecuación
surgía también al trabajar con ecuaciones trascendentes, como la ecuación de Kepler,
relacionada con el cálculo de órbitas planetarias:
f (E) = E − e sen E − M
a partir de una función de iteración, F , que puede depender de uno o varios argu-
mentos.
Los intentos por resolver estos tipos de ecuaciones se vienen reflejando desde
la antigüedad. Leyendo a Knill [50], nos damos cuenta que desde las civilizaciones
griegas, aproximadamente dos mil años antes de Cristo, ya se conocían algoritmos
iterativos, tal es el caso de la fórmula de Herón para
√ el cálculo de raíces cuadradas,
donde partiendo de una aproximación inicial s de S se propone como nueva apro-
ximación (s + S/s)/2. Con esta fórmula, Herón podía aproximar el valor de la raíz
1
2 CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL
|an | = |xn − x∗ |,
|xn −xn−1 |
2. |xn | < T OL.
Estos criterios están justificados en el hecho de que para muchas sucesiones, las
expresiones 1 y 2 intervienen en las cotas del error, es decir
de esta manera se consigue que si |xn −xn−1 | es pequeño, entonces el error cometido,
cuando Kn sea de un tamaño moderado, también será pequeño. Un error muy a
menudo cometido cuando se resuelve una ecuación no lineal (1.1) es el hecho de
usar, como único criterio de parada, la expresión
pues suponer siempre que xn es una buena aproximación de la raíz si se cumple que
f (xn ) es pequeño, puede resultar completamente incorrecto para algunas funciones.
Este tipo de caso luego se verá en los ejemplos que presentaremos.
Definición 4 (Orden de convergencia). El orden de convergencia nos indica la
velocidad con la cual una sucesión converge a su límite. En términos matemáticos
asume la siguiente expresión:
|xn+1 − x∗ |
lı́m = C, con C ∈ R+ y p ≥ 1,
n→∞ |xn − x∗ |p
Otro importante aspecto que tiene que ver con la convergencia es el que se refiere
a la velocidad de convergencia de dos sucesiones, ya que ésta nos permitirá comparar
la velocidad de los diferentes algoritmos iterativos.
Definición 5 (Velocidad de convergencia de dos sucesiones). Dada una su-
cesión {xn } que converge a x y una sucesión {yn } que converge a y, se dice que {yn }
converge más rápidamente que {xn } si
y − yn
lı́m = 0.
n→∞ x − xn
Es decir, son métodos en los que el n-énesimo término viene dado en función de
los p términos anteriores. A este grupo pertenecen los métodos de: la Secante,
Steffensen, Falsa Posición o Regula Falsi, etc.
Pero ésta no es una clasificación única. Por ejemplo, Aubanell y Delshams [5]
presentan una clasificación de los métodos iterativos atendiendo a dos rasgos que los
caracterizan:
1. La herramienta que se emplea en el desarrollo de la función. De acuerdo a la
herramienta que se emplea en el desarrollo de la función, los métodos iterativos
se clasifican en:
Métodos de Taylor. Son aquéllos que utilizan el desarrollo de Taylor,
es decir, calculan a xn+1 a partir del conocimiento de la función y de sus
derivadas en un punto xn . Ejemplos: método de Euler, método de Punto
medio.
Métodos de Interpolación. En éstos se calcula xn+1 a partir del cono-
cimiento de la función en xn , xn−1 , . . . . Ejemplos: método de Lagrange,
método de Hermite.
2. La función que se desarrolla o se interpola. Por la función que se desarrolla o
se interpola, es decir, si se emplea g = f −1 , que es equivalente a buscar a x∗
tal que f (x∗ ) = 0 a buscar x∗ tal que g(0) = x∗ , es posible dar dos enfoques
a los métodos que se aplicaran en la solución del problema según se emplee el
desarrollo de Taylor o la interpolación de la función f ó g:
El Método de
Newton-Raphson
2.1. Introducción
La idea general de resolver una ecuación mediante un algoritmo iterativo o esti-
mando la solución mediante la adicción de un término corrector ha sido empleada
por muchas culturas milenarias. Por ejemplo, en la antigua Grecia y Babilonia se
emplearon métodos parecidos a los utilizados por Newton, para aproximar la solu-
ción de radicales. Métodos algebraicamente equivalente al de Newton también fueron
aplicados en el siglo XII, por el algebrista Sharaf al-Din al-Tusi. En el siglo XV ,
el matemático árabe Al-Kashi empleó un algoritmo numérico para encontrar las
raíces p-ésimas de N en la ecuación xp = N . También Henry Briggs, en su obra
Trigonometria Britannica publicada en 1633, usó un método parecido al de Newton.
Leyendo a Tjalling J. Ypma [96] encontramos que
la primera formulación del método de Newton-Raphson
apareció en un tratado de Newton titulado De analy-
si per aequationes numero terminorum infinitas, el cual
fue, probablemente, presentado a mediados del año 1669
y publicado en 1711 por William Jones. Esta primera for-
mulación es considerablemente diferente a la que conoce-
mos hoy en día y estaba definida para resolver sólamente
ecuaciones polinómicas. Además la forma de realizar los
cálculos son mucho más tediosos que en la formulación
actual. En 1671 Newton dio a conocer un tratado, con
una versión ligeramente más comprensible, titulado De
methodis fluxionum et serierum infinitarum, la cual fue Figura 2.1: Sir Isaac
publicada por John Colson en 1736. Newton (1643–1727)
El proceso descrito por Newton requiere un cálculo explícito de una sucesión
polinómica de la forma g1 , g2 , . . . , que lo convierte en un método muy laborioso.
También se observa que la estimación final x∗ es calculada al final del proceso como
x∗ = x0 + c0 + c1 + . . . en vez de hacer las estimaciones sucesivas de xn , lo cual
evidencia que Newton no utilizó una técnica recursiva.
La primera vez que Newton publica su método aplicado a ecuaciones no polinó-
micas fue en la segunda y tercera edición de su obra Philosophiae Naturalis Principia
Mathematica, la cual fue presentada en 1687 en Londres. En ellas describe las téc-
nicas para resolver la ecuación de Kepler
7
8 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
c + bg − g 3
x= .
3g 2 − b
f (g)
g+x=g− , con f (a) = a3 − ba − c,
f 0 (g)
f (x0 + h) = f (x∗ ) = 0.
h2 00
0 = f (x0 + h) = f (x0 ) + hf 0 (x0 ) + f (x0 ) + · · · . (2.3)
2!
La solución exacta de esta ecuación nos daría el término corrector h tal que
x0 + h = x∗ .
Si en lugar de considerar la ecuación (2.3), tomamos su linealizada
f (x0 ) + hf 0 (x0 ) = 0,
f Hx0 L
f Hx1 L
f Hx2 L
x
x* x2 x1 x0
f (xn )
xn+1 = xn −
f 0 (xn )
f (x)
Nf (x) = x− . (2.7)
f 0 (x)
f (x)f 00 (x)
Lf (x) = . (2.8)
f 0 (x)2
Las funciones (2.7) y (2.8) son muy utilizadas en las demostraciones de la con-
vergencia de muchos métodos iterativos, tales como el método de Halley y el método
de Chebyshev, así como en libros y artículos de Análisis Numérico, entre los que se
pueden citar a [2], [23], [40] y [84].
Es importante destacar que la expresión (2.8) es identificada como el Grado de
Convexidad Logarítmico de una función. Leyendo a [40] encontramos que el grado de
convexidad logarítmico de una función es una medida puntual de la convexidad, dada
por la resistencia de una función a ser «concavizada» por un operador logarítmico.
En otras palabras, es el numero de veces que hay que aplicar un operador logarítmico
a una función convexa para obtener como resultado una función cóncava.
Además, el grado de convexidad logarítmico está relacionado con la velocidad de
convergencia del método de Newton-Raphson. En efecto, leyendo a [24] encontramos
que a partir de la interpretación geométrica del método de Newton- Raphson se
verifica que a menor convexidad logarítmica de la función y = f (x), la sucesión de
Newton-Raphson presenta mayor velocidad de convergencia a la raíz de la ecuación
f (x) = 0, por lo que la convexidad logarítmica es aplicada para construir nuevas
variantes del método de Newton. Para un estudio profundo de las variaciones del
método de Newton a partir de la aplicación del grado de convexidad logarítmico,
consúltese nuevamente [24] y [36].
12 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
f (xn )
xn+1 = xn − ,
f 0 (xn )
converge a x∗ .
Además
Luego
lı́m xn+1 = x∗ para todo x0 ∈ (x∗ − r, x∗ + r).
n→∞
2. El teorema de Fourier.
El teorema del Punto Fijo nos da las condiciones suficientes para la convergencia
de un algoritmo, a partir de un valor inicial tomado en un intervalo apropiado. Para
su demostración se hace necesario conocer de antemano el significado de función
contractiva.
De donde
Pero
Luego
|xn+m − xn+m−1 | ≤ |xn+1 − xn |(1 + L + L2 + · · · + Lm−1 ).
Ahora (1 + L + L2 + · · · + Lm−1 ) es la suma de los términos de una progresión
geométrica, por tanto
1 − Lm
|xn+m − xn+m−1 | ≤ |xn+1 − xn | . (2.11)
1−L
Asimismo
|xn+m − xn | < ε.
Para demostrar iii), supongamos que existen dos puntos fijos x∗ 6= x∗∗ con lo
que
|x∗ − x∗∗ | = |g(x∗ ) − g(x∗∗ )|.
Luego, por la condición de Lipchitz se sigue
b
x
a
{xn }∞
n=0 es una sucesión creciente.
El límite de {xn }∞
n=0 es la raíz x
∗
f (x0 )
x1 − x0 = − > 0,
f 0 (x0 )
por tanto x0 < x1 .
Ahora demostraremos que x1 < x∗ , para esto comprobaremos que x∗ − x1 > 0.
Aplicando el teorema del valor medio, se sigue
donde
f (γ)f 00 (γ)
Nf0 (γ) = > 0, para γ ∈ (x0 , x∗ ).
f 0 (γ)2
Luego
x∗ − x1 > 0.
Asumiendo que xk < xk+1 < x∗ demostraremos que xk+1 < xk+2 < x∗ . Lo
haremos aplicando un procedimiento análogo al anterior. Primero demostraremos
que xk+1 < xk+2 .
Nuevamente, por (2.2) se obtiene
f (xk+1 )
xk+2 = xk+1 − .
f 0 (xk+1 )
Pero acá también se cumple que f 0 (xk+1 ) < 0 y f (xk+1 ) > 0, por tanto
f (xk+1 )
xk+2 − xk+1 = − > 0,
f 0 (xk+1 )
luego
xk+1 < xk+2 .
Para demostrar que xk+2 < x∗ comprobaremos que x∗ − xk+2 > 0. Aplicando de
nuevo el teorema del valor medio, se sigue
donde
f (θ)f 00 (θ)
Nf0 (θ) = Lf (θ) = > 0, para θ ∈ (xk+1 , x∗ ).
f 0 (θ)2
Por lo tanto x∗ − xk+2 > 0, xk+2 < x∗ . Así queda demostrado que {xn }∞ n=0 es
una sucesión creciente acotada superiormente por x∗ y, en consecuencia, {xn } es una
sucesión convergente.
Veamos ahora que el límite de la sucesión {xn }∞ ∗
n=0 es la raíz x .
Aplicando límites a (2.2) se sigue
f (xn )
lı́m xn+1 = lı́m xn − .
n→∞ n→∞ f 0 (xn )
Pero
lı́m xn+1 = lı́m xn = L.
n→∞ n→∞
f (L) f (L)
L=L− =⇒ 0 = 0.
f 0 (L) f (L)
dq(z) dz
f 0 (x) = = −q 0 (z).
dz dx
Análogamente se comprueba que f 00 (x) = q 00 (z). Esto significa que la raíz x∗ de
(1.1) en [a, b] se habrá transformado en la raíz −x∗ de q(z) = 0 en [−b, −a].
Entonces, el caso 2) se reduce también al que hemos estudiado, porque si f 0 (x) >
0 y f 00 (x) ≥ 0 en [a, b], q 0 (z) < 0 y q 00 (z) ≥ 0 en [−b, −a], luego el teorema será
válido para q. Deshaciendo el cambio, también será cierto para el caso 2) y para el
caso 1).
De acuerdo a [40], las condiciones de Fourier son insuficientes para asegurar la
convergencia del método de Newton-Raphson, pues tomando en cuenta la interpre-
tación geométrica del método de Newton-Raphson, nos damos cuenta que su con-
vergencia está asegurada siempre y cuando la segunda derivada de la función f 00 (x)
no cambie de signo en el intervalo [a, b] en que aparece la solución x∗ . Es decir,
cuando la función tenga un punto de inflexión en su dominio. En ese sentido, [40]
realiza un estudio del método de Newton-Raphson en función del grado de convexi-
dad logarítmico (2.8). Para mayores detalles de este estudio refierase nuevamente a
[40].
i) f 0 (x0 ) 6= 0.
iv) |f 00 (x0 )| ≤ K ∈ I.
v) h = γβ ≤ 1/2.
vi) t∗ = √2β es tal que (x0 − t∗ , x0 + t∗ ) ⊂ I.
1+ 1−2h
p HtL
*
t* t*
Notemos que el polinomio p(t) cumple las condiciones de Fourier. Así, tomando
a t0 = 0 se genera una sucesión monótona creciente cuyo límite es t∗ . Ahora, por
inducción probaremos que
|xn+1 − xn | ≤ tn+1 − tn , ∀ n ≥ 0.
p(t0 ) p(0)
t1 − t0 = − =− 0 = β, t1 = β.
p0 (t0 ) p (0)
|x1 − x0 | ≤ β = t1 − t0 .
se tiene que xm ∈ I.
Por otra parte, notemos que
1 1
1 − γ|xm − x0 | ≥ 1 − γtm ⇒ ≤ .
1 − γ|xm − x0 | 1 − γtm
Además f (x ) f (x ) f 0 (x )
m m 0
|xm+1 − xm | = 0 = 0 . (2.16)
f (xm ) f (x0 ) f 0 (xm )
Aplicando la condición iv) se sigue
f 0 (x ) − f 0 (x ) f 0 (xm )
m 0
≤ γ|xm −x 0 | ⇒ 1− ≤ γ|xm −x0 | ≤ γ(tn −t0 ) < γt∗ < 1.
f 0 (x0 ) f 0 (x0 )
Luego
f 0 (xm )
−γ|xm − x0 | ≤ 1 − ≤ γ|xm − x0 |.
f 0 (x0 )
Entonces
f 0 (xm )
−γ|xm − x0 | − 1 ≤ − ≤ γ|xm − x0 | − 1.
f 0 (x0 )
Luego
f 0 (xm ) f 0 (xm )
−1 < 1 − ⇒ − < 0.
f 0 (x0 ) f 0 (x0 )
Así f 0 (x ) f 0 (x )
m m
0 = 0 ≥ 1 − γ|xm − x0 |.
f (x0 ) f (x0 )
De donde f 0 (x )
0 1
0 ≤ . (2.17)
f (xm ) 1 − γ|xm − x0 |
Ahora bien, de (2.2) se deduce
Luego
f (x ) f (x ) − f (x 0 Z xm h f 0 (t) − f 0 (x i
m m m−1 ) − f (xm−1 )(xm − xm−1 ) m−1 )
0 = = dt.
f (x0 ) f 0 (x0 ) xm−1 f 0 (x0 )
p0 (t) = γt − 1. (2.22)
p00 (t) = γ. (2.23)
p(i) (t) = 0, i ≥ 3.
|xm+1 − xm | ≤ tm+1 − tm .
cuya gráfica es
Φ HtL
*
t* t*
γt2
Figura 2.10: Gráfica de la función mayorizante φ(t) = β − t + 1−γt
de donde p
∗ ∗∗ (α + 1) ± (α + 1)2 − 8α
t ,t = . (2.29)
4γ
Luego, para que (2.29) tenga raíz en R se debe cumplir
√
(α + 1)2 − 8α ≥ 0, de donde α2 − 6α + 1 ≥ 0, por tanto α ≤ 3 − 2 2.
t1 − t0 = β,
φ(t )
0
0 ≤ β,
φ (t0 )
φ(t0 )
= β,
φ0 (t0 )
φ(0)
− 0 = β.
φ (0)
Además
X
φ00 (t) = k(k − 1)γ k−1 tk−2 .
k≥2
X
000
φ (t) = k(k − 1)(k − 2)γ k−1 tk−3 .
k≥3
..
.
X
φ(j) (t) = k(k − 1) . . . (k − j + 1)γ k−1 tk−j .
k≥j
Entonces
Pero
f (xj )
(xj+1 − xj ) = − . (2.39)
f 0 (xj )
Sustituyendo (2.39) en (2.38) se sigue
f (xj ) X 1 (k)
f (xj+1 ) = f (xj ) − f 0 (xj ) + f (xj )(xj+1 − xj )k .
f 0 (xj ) k!
k≥2
Así X 1
f (xj+1 ) = f (k) (xj )(xj+1 − xj )k .
k!
k≥2
Luego
f (x ) X 1 f (k) (x ) f (x ) k X h 1 φ(k) (tj ) ih φ(tj ) ik
j+1 j j
0 ≤ 0 0 ≤ − − 0 . (2.40)
f (xj ) k! f (xj ) f (xj ) k! φ0 (tj ) φ (tj )
k≥2 k≥2
2.3. ESTUDIO DE CONVERGENCIA 23
Pero
φ(tj )
(tj+1 − tj ) = − . (2.42)
φ0 (tj )
Sustituyendo (2.42) en (2.41) sigue
φ(tj ) X 1 (k)
φ(tj+1 ) = φ(tj ) − φ0 (tj ) + φ (tj )(tj+1 − tj )k .
φ0 (tj ) k!
k≥2
Así X 1
φ(tj+1 ) = φ(k) (tj )(tj+1 − tj )k .
k!
k≥2
Luego
Luego
f 0 (xj+1 ) X 1 f (k+1) (xj ) X φ(k+1) (tj ) h φ(tj ) ik
k
1 − 0 ≤ |x j+1 − xj | ≤ −(k + 1) .
f (xj ) k f 0 (xj ) φ0 (tj ) φ0 (tj )
k≥1 k≥1
(2.44)
Por otro lado
X h φ(t ) ik
j
φ0 (tj+1 ) = φ0 (tj ) + (k + 1)φ(k+1) (tj ) 0 .
φ (tj )
k≥1
De donde
X h φ(t ) ik
j
φ0 (tj ) − φ0 (tj+1 ) = −(k + 1)φ(k+1) (tj ) .
φ0 (tj )
k≥1
0 0
φ (tj ) − φ (tj+1 ) X φ(k+1) (tj ) h φ(tj ) ik
= −(k + 1) .
φ0 (tj ) φ0 (tj ) φ0 (tj )
k≥1
Así f 0 (x )
j 1 φ0 (tj )
0 ≤ h i = . (2.46)
f (xj+1 ) φ0 (t
1 − 1 − φ0 (tj+1
) φ0 (tj+1 )
j)
Luego
Además
1 φ(k) (tj+1 ) 1 X 1 φ(k+1) (tj )
= (tj+1 − tj )i .
k! φ0 (tj ) k! i! φ0 (tj )
1≥0
Así que
1 f (k) (xj+1 ) 1 φ(k) (tj+1 )
0 ≤− . (2.47)
k! f (xj ) k! φ0 (tj )
Entonces f (x ) f 0 (x ) f (x )
j+1 j j+1
0 ≤ 0 0 . (2.48)
f (xj+1 ) f (xj+1 ) f (xj )
Sustituyendo (2.46) y (2.43) en (2.48) se sigue
f (x ) φ0 (tj ) φ(tj+1 ) φ(tj+1 )
j+1
0 ≤− 0 0
=− 0 .
f (xj+1 ) φ (tj+1 ) φ (tj ) φ (tj+1 )
Asimismo
1 f (k) (xj+1 ) 1 f (k) (xj+1 ) f 0 (xj )
0 ≤ 0 . (2.49)
k! f (xj+1 ) k! f 0 (xj ) f (xj+1 )
Sustituyendo (2.46) y (2.47) en (2.49) sigue
|xk+1 − xk | ≤ tk+1 − tk .
ln |(xn+1 − x∗ )/(xn − x∗ )|
OCCW = , (2.50)
ln |(xn − x∗ )/(xn−1 − x∗ )|
en donde x∗ es una raíz de la función f (x) y xn+1 , xn y xn−1 son tres iteraciones
consecutivas próximas a la raíz x∗ .
Por su parte [38] define el OCCG a partir de la expresión
ln |(xn − α
e/(xn−1 − α
e)|
OCCGG = , (2.52)
ln |(xn−1 − αe)/(xn−2 − α
e)|
3. Para aplicar a (2.50) se tomo la solución apróximada generada por cada ecua-
ción y se tomaron las tres soluciones sucesivas más próximas a dicha solución
apróximada.
4. Para aplicar a (2.51) y (2.52) se tomaron las cuatro soluciones sucesivas más
próximas a la supuesta solución generadas por cada ecuación.
2.5. EJEMPLOS NUMÉRICOS 27
n
X 1+r
M =v (1 + r)k = v [(1 + r)n − 1].
r
k=1
1+r
f (r) = M − v [(1 + r)n − 1], f (r) = 0.
r
Para la construcción de la gráfica, vamos a suponer que v es 10, 000 euros y que
después de 5 años M es igual a 60, 000 euros. Bajo estas condiciones se obtiene la
gráfica (2.11)
28 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
30 000
20 000
10 000
-10 000
-20 000
-30 000
1+r
f (r) = 60, 000 − 10, 000 [(1 + r)5 − 1].
r
f (rn )
rn+1 = rn − .
f 0 (rn )
1 + 20rn2 + 30rn3 + 18rn4 + 4rn5
rn+1 = . (2.53)
15 + 40rn + 45rn2 + 24rn3 + 5rn4
r rn
0 0.1
1 0.06325399881896841
2 0.06140685508980816
3 0.06140241156217179
4 0.0614024115365252
5 0.0614024115365252
3. Resultado.
Después de 4 iteraciones el método converge a la raíz aproximada x4 = 0.0614024115365252.
Luego, el tipo de interés es aproximadamente igual a 6.14 %
Ejemplo 3. En cursos de física avanzada se sabe que la posición en función del
tiempo para un tiro parabólico viene dada por la forma
v0 2
x(t) = x0 + 2x (1 − e−w t ),
w
1 h g 2
i
y(t) = y0 + 2 v0y + 2 1 − e−w t − gt ,
w w
k
donde w2 = m , x(t): alcance con respecto al tiempo, y(t): altura con respecto al
tiempo, x0 : distancia inicial con respecto a la tierra, y0 : altura inicial con respecto
a tierra, v0x : velocidad inicial con respecto a la tierra, v0y : velocidad inicial con
respecto a la altura, t: tiempo, g: gravedad, k: constante de proporcionalidad, m:
masa.
Supongamos que un proyectil√ de masa m = 4 Kg es lanzado desde la tierra con
una velocidad inicial k~v0 k = 2 m s , formando con la horizontal un ángulo de θ = 4 .
π
√
√ 2
v 0x = k~v0 k cos(θ) = 2
= 1.
√2
√ 2
v0y = k~v0 k sen(θ) = 2 = 1.
2
1
x(t) = 2 1 − e− 2 t . (2.54)
h 1
i
y(t) = 2 (1 − 2g) 1 − e− 2 t − gt . (2.55)
y(tn )
tn+1 = tn − .
y 0 (tn )
[20.6(1 − e−0.5tn ) − 9.8tn ]
= tn − . (2.56)
10.3e−0.5tn − 9.8
En adelante hay que tener cuidado en seleccionar a t0 , pues una mala elección
puede hacer que se obtenga una solución que no nos interese. Por ejemplo, si toma-
mos t0 = 0.03, la solución que se obtiene tiende a t∗ = 0, que al ser sustituida en
(2.54), nos daría una falso alcance.
La razón de la convergencia anterior es que la función y(t) corta al eje de las
abscisa en t = 0 y además tiene un máximo relativo en t = 0.099523, luego, al ser
y(t) una función creciente en el intervalo I = (0, 0.099523), si tomamos un t0 ∈ I,
la sucesión que se obtiene converge a t = 0.
-0.2
-0.4
-0.6
-0.8
h 1
i
Figura 2.12: Gráfica de la función y(t) = 2 (1 − 2g) 1 − e− 2 t − gt
n tn
0 0.4
1 0.26405006877449
2 0.21254143019785
3 0.20132631548484
4 0.20072639679455
5 0.20072466363483
6 0.20072466362036
7 0.20072466362036
8 0.20072466362036
P (2 + s) = −1 + 10s.
P (xn )
xn+1 = xn − ,
P 0 (xn )
x3 − 2xn − 5
= xn − n 2 . (2.59)
3xn − 2
n 0 1 2 3 4
xn 2.000000 2.100000 2.094568 2.094551 2.094551
En la tabla se verifica que las dos primeras iteraciones coinciden con el método
aplicado por Vieta.
Ejemplo 5. Aplicaremos el método de Newton-Raphson para encontrar la solución
aproximada de la ecuación
f (x) = 6x3 − 39x2 + 45x = 0,
comenzando a partir de la solución inicial x0 = 4.
Solución 5. 1. Gráfica de la función.
100
50
-2 2 4 6 8
-50
-100
-150
f (xn )
xn+1 = xn − .
f 0 (xn )
45xn − 39x2n + 6x3n
= xn − .
45 − 26xn + 6x2n
−13x2n + 4x3n
= . (2.60)
6x2n − 26xn + 15
n 0 1 2 3 4 5 6
xn 4.000000 6.857143 5.708987 5.160504 5.011191 5.000060 5.000000
3. Resultado.
La raíz aproximada es x6 = 5.
Ejemplo 6. Comprobaremos que la ecuación
f (x) = ex + x,
tiene una única raíz real y aproximaremos dicha raíz por el método de Newton-
Raphson. Detendremos el proceso de iteración cuando se verifique que |xn − xn−1 | ≤
0.5 × 10−3 .
32 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
20
15
10
-3 -2 -1 1 2 3
Además se verifica que f 0 (x) = ex +1 > 0 en todo el intervalo, luego f (x) tiene
a lo sumo una solución en [−1, 0]. Tomemos x0 = −1
2. Construcción de la función de iteración.
f (xn−1 )
xn = xn−1 − , n ≥ 1,
f 0 (xn−1 )
exn−1 + xn−1
xn = xn−1 − ,
1 + exn−1
exn−1 (−1 + xn−1 )
xn = . (2.61)
1 + exn−1
n 0 1 2 3
xn -1.000000 -0.537883 -0.566987 -0.567143
3. Resultado.
La raíz aproximada es x3 = −0.567143.
demostraremos que para cualquier valor inicial diferente de cero, el método de Newton-
Raphson diverge.
Solución 7. Notemos que la función dada posee solución única en x∗ = 0. Aplicando
el método de Newton-Raphson a (2.64) sigue
f (xn )
xn+1 = xn − ,
f 0 (xn )
1/3
xn
= xn − −2
= −2xn ,
1/3xn 3
luego, para cualquier punto de partida distinto de cero, el método de Newton-Raphson
se aleja de la solución x∗ = 0. En efecto, dado x0 se sigue
x1 = −2x0
x2 = 2 2 x0
..
.
xn = (−1)n 2n x0 .
lı́m xn = ∞,
n→∞
lı́m xn = −∞.
n→∞
n par n impar
Si x0 < 0 se obtiene
lı́m xn = −∞,
n→∞
lı́m xn = ∞.
n→∞
n par n impar
posee un punto fijo repulsor en cero. También observemos que para valores grandes
de x, la función
2
ψ(x) = e−x , (2.66)
tendrá un comportamiento semejante. Por consiguiente, tomaremos a la función h
como el producto de (2.65) y (2.66). Así
√ 2
h(x) = 3
xe−x . (2.67)
Como
−3xn
xn+1 − xn = < 0, luego xn+1 < xn , por tanto xn → −∞.
1 − 6x2n
Entonces
1
|xn+1 | > 2|xn |, luego, en algun momento xn+1 > √ , por tanto xn → ∞.
6
2.5. EJEMPLOS NUMÉRICOS 35
0.6
0.4
0.2
-3 -2 -1 1 2 3
-0.2
-0.4
-0.6
√ 2
Figura 2.15: Gráfica de la función h(x) = 3
xe−x
-2 -1 1 2
-5
−2x(1+3x2 )
Figura 2.16: Gráfica de la función f (x) = 1−6x2 .
Solución 9. Notemos que lı́mx→0 f (x) = π, luego f (x) es continua en todo punto.
Aplicando el método de Newton-Raphson a (2.69) se sigue
1
Notemos que (2.70), a partir de x0 = 0,5 genera la sucesión xn = 2n+1 . En
1
efecto, se prueba por inducción que si xn = 2n+1 , entonces
1 1
π 2n+1 − 2π 2n+1 cos(2n π) 1 π 1
xn+1 = − = ( n+1 ) = n+2 .
2π 2π 2 2
Luego
1
lı́m xn = lı́m = 0. (2.71)
x→∞ x→∞ 2n+1
36 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
x3x2 x1 x0
x
-1.5 -1.0 -0.5 0.5 1.0 1.5
f (xn )
xn+1 = xn − .
f 0 (xn )
= xn − (1 + x2n ) arctan(xn ). (2.72)
xn+1 = f (xn ),
donde
f (x) = x − (1 + x2 ) arctan x, (2.73)
y
f 0 (x) = −2x arctan x. (2.74)
por lo tanto
|f 0 (x)| < 1 ⇔ |x| < a,
x
-a a
Para x0 ∈
/ (−a, a), el método de Newton-Raphson puede converger o presentar
una divergencia oscilatoria.
y
1.0
0.5
x
-4 -2 2 4
-0.5
-1.0
Figura 2.19: Gráfica de la función f (x) = arctan(x) y de las iteraciones del método
de Newton-Raphson.
-3 -2 -1 1 2 3
-5
-10
2x3 +3
Figura 2.20: Gráfica de la función asociada al método de Newton, g(x) = 3x2 −1
y
5
x*
x
2 3 4 5
xn+1 < xn , ∀n ≥ 1
x
1 x* 2 3 4 5
-2
x
-3 -2 -1 1 2
-5
-10
-15
-20
-25
y
1.0
0.5
x
-6 -4 -2 2 4 6
-0.5
-1.0
n xn
0 3.00000
1 -4.01525
2 -4.85266
3 -4.71146
4 -4.71239
5 -4.71239
6 -4.71239
5 − 2xn + x2
xn+1 = xn − ,
−2 + 2xn
−5 + x2n
= . (2.77)
2(−1 + xn )
xn+1 = h(xn )
donde
−5 + x2
h(x) = , (2.78)
2(−1 + x)
2.5. EJEMPLOS NUMÉRICOS 41
-4 -2 2 4
-2
-4
-6
−5+x2
Figura 2.25: Gráfica de la función h(x) = 2(−1+x)
Luego, véase Figura (2.26), para cualquier x0 , la función (2.78) presentará una
divergencia oscilatoria.
x0
x
50
40
30
20
10
x
-6 -4 -2 2 4 6
La gráfica comprueba que no existe solución real, pues la curva no corta al eje
0X.
42 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON
El método de Newton
aplicado a la ecuación de
Kepler
43
44 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
Donde
1 3
EH ≈e sen3 M + E.
6
Peder Horrebow, en 1717, obtuvo una solución de la ecuación de Kepler que está
estrechamente relacionada a la solución de Horrocks. Los detalles de la solución están
contenidos en unos artículos publicados en 1717 y 1718, los cuales fueron compilados
en 1742 en un manuscrito titulado Adytum Astronomiae.
E = M − e sen(∠BCF ). (3.4)
Donde ∠BCF es E0 .
Cristopher Wren, en 1658, ofrece una solución de la ecuación de Kepler basada
en las cicloides, la misma aparece en un tratado publicado por John Wallis, [89]. La
solución que aparece en la sección De problemate Kepleriano per cycloidem solvendo
es
E = M − e sen E = |OH| + |HF | = |OF |. (3.5)
Isaac Newton, en el Libro I, proposición 31 de la Principia de 1686, emplea la
construcción de Wren para ubicar la posición de un planeta en una órbita elíptica,
pero luego, en el Scholium, presenta una forma más práctica de resolver ese problema.
John Couch Adams, en [1], presenta un método basado en la curva de los senos.
E = M − e sen E. (3.6)
i) Kantorovich, ([46]).
ii) Gutiérrez, ([35]).
iii) α-teoría de Smale (artículo de Zhen-Shi-Ming), ([97]).
iv) α-teoría de Wang-Zhao, ([87]).
[M − t∗ , M + t∗ ]. (3.11)
y es única en
(M − t∗∗ , M + t∗∗ ), (3.12)
donde
√
∗ 1− 1 − 2δ
t = .
√δ
1 + 1 − 2δ
t∗∗ = ,
δ
son las raíces del polinomio mayorizante
1 2 e
p(t) = δt − t + δ, con δ = .
2 1−e
Además, el método de Newton-Raphson, definido por
f (En )
En+1 = En − , n ≥ 0, (3.13)
f 0 (En )
iniciando en E0 = M , converge a dicha solución.
Demostración. Tomemos E0 = M en el teorema de Kantorovich. Luego se deben
cumplir las siguientes condiciones:
i) f 0 (E0 ) 6= 0.
46 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
0)
ii) ff0(E
(E0 ) ≤ β.
(y)
iii) f (E)−f
f 0 (E0 ) ≤ γ(E − y), ∀E, y ∈ I.
iv) h = γβ ≤ 12 .
Así f (E )
0 e
0 ≤ = β = δ.
f (E0 ) 1−e
Además f (E) − f (y)
e
≤ |E − y|, por lo que γ = δ.
f 0 (E0 ) 1−e
Luego
e 2 1
h = γβ = δ 2 = ≤ .
1−e 2
Y por tanto
Luego √ √
0 < 2 − (1 + e2 ) ⇔ (1 + e)2 ≤ 2 ⇔ − 2 ≤ 1 + e ≤ 2. (3.14)
Tomando la parte positiva de (3.14) se sigue
√ √
1 + e ≤ 2 ⇔ e ≤ 2 − 1 ≈ 0.4142.
i) x0 ∈ I.
ii) f 0 (x0 ) 6= 0.
0)
iii) ff0(x
(x0 ) ≤ β.
0
0
(y)
iv) f (x)−f
f 0 (x0 ) ≤ γ|x − y|, ∀x, y ∈ I.
3.3. EL TEOREMA DE GUTIÉRREZ 47
v) h = γβ ≤ 1/2.
En 1997, José Manuel Gutiérrez presentó un nuevo teorema de convergencia
semilocal para el método de Newton-Raphson. En dicho teorema Gutiérrez no toma
en cuenta la condición v) de Kantorovich, sino que la sustituye por dos expresiones
en que se aplica la derivada segunda de la función en x
00
(x0 )
1. ff 0 (x0 ) ≤ b.
00
00
(x0 )
2. f (x)−f
f 0 (x0 ) ≤ K|x − x0 |.
luego
f (E ) e
0
0 ≤ = a.
f (E0 ) 1−e
f 00 (E ) e
0
0 ≤ = b.
f (E0 ) 1−e
f 00 (E) − f 00 (E ) e e
0
≤ |E − E0 | ⇒ K = .
f 0 (E0 ) 1−e 1−e
Así
e
a=b=K= = δ. (3.16)
1−e
48 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
δ δ
p(t) = δ − t + t2 + t3 . (3.17)
2 6
cuya gráfica es
p HtL
m
*
M t* t*
1
p0 (t) = −1 + δt + δt2 ⇒ p0 (0) = −1 < 0.
2
p00 (t) = δ + δt > 0, ∀δ > 0.
1 1 1
p(t̂) = (1 − ∆t̂ + t̂2 + t̂3 ).
∆ 2 6
1 √ √
= (4 − 1 + 2∆ + ∆(3 − 2 1 + 2∆)) < 0.
3∆
1 4 1√ 2 √
= ( +∆− 1 + 2∆ − ∆ 1 + 2∆) < 0. (3.20)
∆ 3 3 3
Recordemos que ∆ > 0, luego (3.20) será cierto si y solo si
4 1√ 2 √
+∆− 1 + 2∆ − ∆ 1 + 2∆ < 0. (3.21)
3 3 3
3.4. LA α-TEORÍA DE SMALE 49
De (3.21) se sigue
√ √ √ 3
4 + 3∆ < 1 + 2∆ + ∆ 1 + 2∆ = 1 + 2∆(1 + 2∆) = (1 + 2∆) 2 .
(4 + 3∆)2 < (1 + 2∆)3 .
16 + 24∆ + 9∆2 < 1 + 6∆ + 12∆2 + 8∆3 .
Luego
8∆3 + 3∆2 − 18∆ − 15 > 0 ⇔ ∆ ≈ 1.66032. (3.22)
Sustituyendo (3.22) en (3.18) se sigue
1
δ< . (3.23)
∆
Sustituyendo (3.23) en (3.16)
e 1 1
< ⇔e< ≈ 0.3759.
1−e ∆ 1+∆
Notemos que la condición e ≤ 0.3759 también nos garantiza tres cosas:
γt2
φ(t) = δ − t + .
1 − γt
i) f 0 (E0 ) 6= 0.
0)
ii) β(E0 , f ) = ff0(E
(E0 ) .
1 f
(k)(E )
0
iii) k! f 0 (E0 ) ≤ γ k−1 , k ≥ 2.
√
iv) α = βγ ≤ 3 − 2 2.
50 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK
Así
f (E ) e
0
β(E0 , f ) = 0 ≤ .
f (E0 ) 1−e
1 f (k) (E ) k−1
1 h e i k−1
1
0
γ(E0 , f ) = ≤ , k ≥ 2.
k! f 0 (E0 ) k!(1 − e)
" # 1
e k 1 k−1 √
α = βγ ≤ ≤ 3 − 2 2. (3.24)
1 − e k!
Consideremos a (3.24)
Sea " # k−1
1
e k 1 √
α≤ ≤ α0 ≤ 3 − 2 2. (3.25)
1 − e k!
Luego, de (3.25) se sigue
e k 1
≤ α0k−1 .
1 − e k!
e k
≤ α0k−1 k!.
1−e
e 1
≤ (α0k−1 k!) k . (3.26)
1−e
Ahora, sea
1
δk = (α0k−1 k!) k , k ≥ 2. (3.27)
Necesitamos conocer el mínimo valor de δk .
De (3.27) se sigue
1
δk+1 = [α0k (k + 1)!] k+1 .
y
δkk = (α0k−1 k!), k ≥ 2.
Por tanto
h i k+1
1
δ3 h 9α i 16 h 9(3 − 2√2) i 16
0
= = = 0,772 . . . < 1.
δ2 2 2
Entonces δ3 < δ2 .
3.5. LA α-TEORÍA DE WANG-ZHAO 51
Para k = 3 se sigue
δ4 h 64α i 12
1 h 64(3 − 2√2) i 12
1
0
= = = 1,83 . . . > 1.
δ3 9 9
Por tanto δ4 > δ3
Luego, si k ≥ 3, entonces
k+1
k+2
k+1 ! k + 2 k+1
k = > 1.
k+1
k+1
k!
i) f 0 (x0 ) 6= 0.
0)
ii) ff0(x
(x0 ) ≤ β.
1 f (x0 )
(k)
iii) k! f 0 (x0 ) ≤ γ k−1 , k ≥ 2.
√
iv) α = βγ ≤ 3 − 2 2.
1 f (k) (x0 )
≤ γk , k ≥ 2,
k! f 0 (x0 )
y la función mayorizante
X
φW (t) = β − t + γk tk . (3.29)
k≥2
i) f 0 (E0 ) 6= 0.
0)
ii) β(E0 , f ) = ff0(E
(E0 ) .
1 f (E0 )
(k)
iii) k! f 0 (E0 ) ≤ γk , k ≥ 2.
Así
f (E ) e
0
β(E0 , f ) = 0 ≤ , por tanto β = δ. (3.30)
f (E0 ) 1−e
1 f (k) (E0 ) 1 e δ
≤ = γk , por lo que γk = . (3.31)
k! f 0 (E0 ) k! 1 − e k!
3.5. LA α-TEORÍA DE WANG-ZHAO 53
p HtL
De (3.36) sigue
1 1 1
1 < ln 1 + ⇔ exp(1) < 1 + ⇔ exp(1) − 1 < .
δ δ δ
Luego
1
δ= . (3.37)
exp(1) − 1
Sustituyendo (3.30) en (3.37)
e 1 1
< ⇔ e exp(1) − e < 1 − e ⇔ e < ≈ 0.3678.
1−e exp(1) − 1 exp(1)
Notemos que la condición e ≤ 0.3678. también nos garantiza tres cosas:
1. La ecuación de Kepler tiene solución: E ∗ .
2. La función mayorizante φ(t) = δ exp(t) − (1 + δ)t tiene soluciones reales: t∗ y
t∗∗ .
3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en
(M − t∗∗ , M + t∗∗ ).
Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =
M , converge a E ∗ .
Condición √
t∗ t∗∗
√
1− 1−2δ 2 1+ 1−2δ 2
Kantorovich δ δ
Gutiérrez Menor raíz√positiva de p(t) Mayor raíz√positiva de p(t)
3 3 2 3 3 3 2 3
(1+δ )− (1+δ ) −8δ (1+δ )+ (1+δ ) −8δ
α-teoría de Smale 4δ 2 4δ 2
α-teoría de Wang-Zhao Menor raíz positiva de φ(t) Mayor raíz positiva de φ(t)
Cuadro 3.3: Dominios de existencia de solución, según las teorías en dos casos reales.
Aplicando los resultados obtenidos a dos casos reales, en concreto, se analizan los
caso del planeta Mercurio, cuya e = 0.205 y M = 0.0067π, y del asteroide Hungaria,
para el cual e = 0.073 y M = 0.69π, e comprueba que los dominios de existencia de
solución, véase Cuadro 3.3, para las diferentes técnicas aplicadas, son prácticamente
iguales.
Casos t∗∗
K t∗∗
G t∗∗
S t∗∗
W −Z
Mercurio 7.459 3.363 3.739 7.330
(-7.43, 7.48) (-3.34, 3.38) (-3.719, 3.761) (-7.31, 7.35)
Hungaria 25.09 7.271 12.659 79.166
(-22.9, 27.2) (-5.10, 9.43) (-10.4, 14.8) (-77.0, 81.3)
Cuadro 3.4: Dominios de unicidad de solución, según las teorías en dos casos reales.
e t∗∗
K t∗∗
G t∗∗
S t∗∗
W −Z
0,05 37.9473 9.25181 3.33209 4.49976
0,1 17.8882 5.93227 2.80848 3.57715
0,15 11.154 4.40664 2.45821 2.99359
0,2 7.74166 3.45089 2.14796 2.54264
0,25 5.64575 2.75074 1.87743 2.15329
0,3 4.18925 2.17266 1.62167 1.78134
0,35 3.06088 1.60847 1.31745 1.34972
57
58 BIBLIOGRAFÍA
[18] J. P. Dedieu and M. H. Kim, Newton’s method for analytic system of equations
with constant rank derivatives, Journal of Complexity, 18 (2002) 187–209.
[19] G. C. Donovan, A. R. Miller and T. J. Moreland, Pathological functions for
Newton’s method, American Mathematical Monthly, 100 (1993) 53–58.
[20] N. L. De la Caille, Sur les éléments de la théorie du soleil, Premier Mémoire,
Mémoires de l’Académie Royale des Sciences, A2 (1750) 166–178.
[21] J. M. Díaz y F. B. Trujillo, Introducción a los métodos numéricos para la re-
solución de ecuaciones, Servicio de publicaciones de la Universidad de Cádiz,
1998.
[22] P. Díez, A note on the convergence of the Secant Method for simple and multiple
roots, Applied Mathematics Letters, 16 (2003) 1211–1215.
[23] J. A. Ezquerro, J. M. Gutiérrez, M. A. Hernández y M. A. Salanova, El méto-
do de Halley: Posiblemente, el método más redescubierto del mundo,Margarita
Mathematica, Servicio de Publicaciones de la Universidad de la Rioja, Logroño,
2001.
[24] J. A. Ezquerro, Construcción de procesos iterativos mediante aceleración del
método de Newton, Tesis Doctoral, Servicio de Publicaciones de la Universidad
de la Rioja, Logroño, 1996.
[25] W. F. Ford and J. A. Pennline, Accelerate convergence in Newton’s method,
SIAM Review, 38 (1996) 658–659.
[26] J. S. Frame, A variation of Newton’s method. American Mathematical Monthly,
51 (1944) 36–38.
[27] C. E. Froberg, Introduction to numerical analysis, Addison-Wesley, Second edi-
tion, 1970.
[28] F. García y A. Nevot, Métodos numéricos en forma de ejercicios resueltos,
UPCU Departamento Publicaciones, Madrid, 1997.
[29] B. García, I. Higueras y T. Roldán, Análisis Matemático y Métodos Numéricos,
Universidad Pública de Navarra, Campus de Arrosadia, Pamplona, España,
2005.
[30] M. Gasca, Cálculo Numérico. Resolución de ecuaciones y sistemas, Editora
Librería Central, Zaragoza, 1987.
[31] E. Gaughan, Introducción al análisis, Editorial Alhambra S. A, Madrid, 1972.
[32] W. Gautschi, Numerical Analysis. An introduction, Birkhäuser Boston, USA,
1997.
[33] J. Gerlach, Accelerated convergence in Newton’s Method, SIAM Review, 36
(1994) 272–276.
[34] J. M. Gutiérrez, M. A. Hernández y M. Amparo Salanova, α-theory for nonlinear
Fredholm integral equations, Grazer Mathematische Berrichte, 346 (2004) 187–
196.
[35] J. M. Gutiérrez, A new semilocal convergence theorem for Newton’s method,
Journal of Computational and Applied Mathematics, 79 (1997) 131–145.
[36] J. M. Gutiérrez, El método de Newton en espacios de Banach, Tesis doctoral,
Universidad de La Rioja, Servicio de Publicaciones, Logroño, 1995.
[37] J. M. Gutiérrez y M. A. Hernández, A family of Chebyshev-Halley type method
in Banach spaces, Austral. Math. Soc. 55 (1997) 113–130.
BIBLIOGRAFÍA 59
[39] M. Grau and J. M. Gutiérez: Some family of zero-finder methods derive from
Obreshkov’s techiques, Comunicación particular.
[45] L. V. Kantorovich, The majorant principle and Newton’s method. Dokl. Akad.
Nauk, SSRR 76 (1951) 17–20.
[49] E. Kobal, Notice concerned with the calculation of roots of numerical equations,
Monatsh. Math. 02 (2002) 331–332.
[58] I. Newton, Sir Isaac Newton Mathematical Principles of Ntural Philosophy and
his System of the World, University of California Press, Berkeley, 1934.
[65] M. Pal, Numerical analysis for scientists and engineers, Alpha Science Interna-
tional Ltd, United Kingdom, 2007.
[72] E. Schröder, On infinitely many algorithms for solving equations, Math. Ann.
02 (1870) 317–365.
[74] J. N. Sharma, Numerical methods for engineers and scientists, Alpha Science
International LTD, Second edition, 2007.
[76] S. Smale, The fundamental theory for solving equations, The international con-
gress of mathematicians, Providence, USA, 1987.
[77] S. Smale, Newton’s method estimates from data at one point, The Merging of
Disciplines: New Directions in Pure Applied and Computational Mathematics,
R. Ewing, K. Gross and C. Martin (eds.), pp 185–196, Springer-Verlag, USA,
1986.
[82] J. F. Traub, Iterative methods for the solution of equations, Prentice -Hall,
Englewood Cliffs, N.J, 1964.
[87] D. Wang y F. Zhao, The Theory of Smale’s Point Estimation and its Applica-
tions, Journal of Computational and Applied Mathematics, 60 (1995) 253–269.
[97] Zhen Shi-Ming, Point estimates for Halley’s iteration, Acta Mathematicae Apli-
cate Sinica, 14 (1991) 381–383.
[98] http://www.uv.es/diazj/cn_tema2.pdf
[99] http://www.wikipedia.org/wiki/Metodo_de_Newton.html
[100] http://www.uam.es/personalpdi/ciencias/barcelo/cnumerico.html
[101] http://www.neoparaiso.com/logo/metodo-newton.html
[102] http://www.numericalmethods.eng.usf.edu/mws/gen/03n/e/mws.pdf
[103] http://www.descartes.cnice.mecd.es/materialesdidacticos.html
[104] http://www.cidse.itcr.ac.cr/revistamate/HERRAmInternet/ecuaexcl/lnode5.html
[105] http://www.docentes.uacj.mx/gtapia/AN/Unidad21/Newton.html
[106] http://www.numbers.computation.free.fr/Constant/Algoritms/newton.html
62 BIBLIOGRAFÍA
[107] http://www.allege.com/artigos/newtoncas.pdf
[108] http://www.pgrafica.webideas4a11.com/newton_raphson.html
[109] http://www.mathword.wolfram.com/NewtonMethod.html
[110] http://www.ugrad.math.ubc.ca/coursedoc/math100/notes/approx/newton.html
[111] http://www.sosmath.com/calculus/diff/der07/der07.html
[112] http://www.dailnet.unirioja.es/servlet/articulo?codigo=2159507
[113] http://www.mathumn.edu/~garrett/qr/Newton.html
[114] http://www.dedekind.mit.edu/18.013A/HTML/chapter13/section01.html
[115] http://www.ies.co.jp/math/java/cal/roota/roota.html
[116] www.alepho.clarku.edu/~djoyce/newton/method.html
[117] http://www.Shodor.org/UNChen/math/newton/index.html
[118] http://www.reserch.microsotf.com/~minka/papers/newton.html
[119] http:/www.planemath.org/encyclopedia/NewtonRaphsonMethod.html
[120] http://www.math.fullerton.edu/mathews/n2003/Newton’sMethodMod.html
[121] http://www.math.heldermann.de/JAA/JAA09/jaa0919.html
[122] http://numbers.computation.free.fr/Constants/Algorithms/Newton.html
BIBLIOGRAFÍA
View publication stats 63
Este libro se termino de imprimir en el mes de mayo del año 2009 en los talleres
gráficos de ServiCentro
C/ Progreso, Nagua, República Dominicana.