Vous êtes sur la page 1sur 76

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/305852121

Una Introducci�on al M�etodo de Newton para resolver ecuaciones no


lineales.

Book · April 2009

CITATIONS READS

0 970

1 author:

Manuel Aurelio Diloné


Universidad de La Rioja (Spain)
8 PUBLICATIONS   4 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Dinámica del método de Halley View project

Construcción de un modelo matemático para la solución óptima del problema de localización de los sistemas de distribución de gas natural
para abastecimiento del parque de generación de energía eléctrica. View project

All content following this page was uploaded by Manuel Aurelio Diloné on 09 August 2016.

The user has requested enhancement of the downloaded file.


Una introducción al método de Newton-Raphson
para resolver ecuaciones no lineales

Manuel Aurelio Diloné Alvarado

13 de julio de 2009
2

Una introducción al método de Newton-Raphson


para resolver ecuaciones no lineales.
3

Una introducción al método de Newton-Raphson


para resolver ecuaciones no lineales
Manuel Aurelio Diloné Alvarado. M.A

Impresión: Impresora ServiCentro. C/ Progreso, Nagua, Provincia María Trinidad


Sánchez. República Dominicana.

Impreso en la República Dominicana.


Printed in Dominican republic.
ISBN: 978-9945-00-206-5.
4
Dedicación

A mi esposa Jocelyn Espinal, gracias por brindarme en todo momento el apoyo,


el ánimo y el amor que he necesitado para terminar este proyecto. En gran medida
a ti debo el honor de haber finalizado este trabajo.
A mis hijos Anneuri Manuel y Manuel Aurelio Jr. Por ser ellos la fuente de mi
mayor inspiración.

5
6
Prólogo

Este documento es fruto del trabajo realizado por D. Manuel Aurelio Diloné Al-
varado durante su estancia de investigación en la Universidad de La Rioja, en los
cursos 2006–07, 2007–08 y 2008–09. Dicha estancia fue motivada por el convenio
firmado por la Universidad de La Rioja y la Secretaría de Estado de Educación Su-
perior, Ciencia y Tecnología de la República Dominicana con el objetivo de impulsar
los estudios de doctorado científico técnicos en dicho país.
Una de las primeras acciones que impulsó el citado convenio fue la llegada a la
Universidad de La Rioja, a comienzos del curso 2006–07, de dos profesores domini-
canos para la realización de los cursos de doctorado en dicha Universidad, uno de
los cuales era D. Manuel Aurelio Diloné Alvarado. En concreto, el profesor Diloné
se inscribió en el programa de doctorado que se imparte de forma conjunta entre
los departamentos de Matemáticas y Computación e Ingeniería Eléctrica de la Uni-
versidad de La Rioja, cursando con éxito las asignaturas en las que se matriculó.
Además de los conocimientos adquiridos en estas asignaturas, el profesor Diloné ha
complementado su formación con el manejo de algunas herramientas que en la ac-
tualidad resultan imprescindibles para cualquier investigador en Matemáticas, tales
como el procesador de textos científicos LATEX o el programa de cálculo simbólico
Mathematica.
Una vez superado el periodo de docencia, tuvo que afrontar la realización de un
trabajo de investigación, optando para ello por alguna de las líneas que se oferta-
ban desde el departamento de Matemáticas y Computación de la Universidad de La
Rioja. En concreto, la línea de investigación elegida fue Procesos iterativos para la
resolución de ecuaciones no lineales. Aplicaciones. Para ayudarle a llevar a cabo su
cometido al profesor Diloné se le asignó un tutor académico, que es quien subscribe
estas líneas. Recuerdo con cariño la primera entrevista que tuve como tutor de Dilo-
né, en la cual se me presentó como un «soldado disciplinado» dispuesto a conseguir
todas aquellas metas académicas que se le propongan.
Dentro de la línea de investigación elegida, el trabajo del profesor Diloné se centra
en el estudio del método de Newton y su aplicación a la ecuación de Kepler. Este
tema combina a la perfección dos de los tópicos más clásicos en el Análisis Numérico
y la Matemática Aplicada en general. Por una parte, el estudio de procesos iterativos
para resolver ecuaciones no lineales y, en particular el método de Newton, es un tema
de incuestionable actualidad, a tenor de las publicaciones al respecto que aparecen
en diversas revistas científicas. Por otra parte, la ecuación de Kepler es, sin duda, una
de las ecuaciones más estudiadas en la bibliografía matemática. La combinación de
ambos tópicos ofrece unas enormes posibilidades investigadoras, como lo demuestran
los logros alcanzados hasta el momento. En concreto, además de la publicación de
esta monografía, se ha presentado una comunicación en las III Jornadas de Análisis
Numérico y Aplicaciones, celebradas en la Universidad de La Rioja en noviembre
de 2008 y se tiene admitido un capítulo en el libro Computational Mathematics:
Theory, Methods and Application que publicará a finales de 2009 la editorial Nova
Science Publishers, Inc., con sede en Nueva York.
La tarea investigadora del profesor Diloné en la Universidad de La Rioja culmina-
rá a finales del presente curso 2008–09, con la defensa de su trabajo de investigación
y la obtención del Diploma de Estudios Avanzados. Pero es en ese momento, cuando
vuelva a su República Dominicana natal, cuando dará comienzo la etapa más apa-

7
8 PRÓLOGO

sionante de su labor investigadora: la realización de una tesis doctoral, su defensa


y la obtención del correspondiente título de doctor. Sin duda, con la estancia rea-
lizada en la Universidad de La Rioja y los logros alcanzados durante esta época, el
profesor Diloné ha iniciado con paso firme su andadura hacia el título de doctor.
Pero aún queda mucho camino por recorrer, mucho que investigar, redactar y pu-
blicar. Además habrá que salvar las dificultades añadidas que motivan el tener que
trabajar a distancia y el tener que «abrir huella» a la hora de realizar las gestiones
administrativas y burocráticas generadas al coordinar las distintas instituciones que
se puedan ver involucradas en este camino al doctorado.
Así, nos gustaría emular al insigne matemático riojano Julio Rey Pastor (Logro-
ño, 1888 – Buenos Aires, 1962), que con su vida y su obra mostró cómo el poder de
las Matemáticas permite cruzar fronteras y unir a pueblos y generaciones distintas.
Nos disponemos a cruzar el «río Océanos» (así es como Rey Pastor denominaba
coloquialmente al Océano Atlántico), tendiendo en este caso un puente entre las
orillas del río Ebro y las cálidas aguas caribeñas por el que las Matemáticas puedan
caminar a sus anchas. Es posible que el profesor Diloné sea el primero en cruzar este
puente pero, sin duda, no será el último ya que nos encontramos ante el inicio de
una colaboración a la que se la augura un gran futuro.

Logroño, abril de 2009


Dr. José Manuel Gutiérrez Jiménez
Profesor del Departamento de Matemáticas y Computación
de la Universidad de La Rioja
Nota preliminar del autor

Es bien sabido que la resolución de ecuaciones no lineales constituyen un aspecto


fundamental en el estudio de cualquier disciplina matemática. Con el texto que el
lector tiene en sus manos pretendemos completar la información que el discente de la
carrera de matemática posee de dicho aspecto para abordar con éxito un primer curso
de Análisis Matemático. Su contenido recoge una colección de teoremas y ejercicios,
quizás no tratados lo suficientemente aquí, concernientes al método de Newton-
Raphson, y otro adicional en donde se aplican las condiciones de la convergencia
semilocal del método anterior mencionado a la ecuación de Kepler.
El libro se estructura en tres capítulos: Resolución numérica de ecuaciones no
lineales, El método de Newton-Raphson y El método de Newton-Raphson aplicado
a la ecuación de Kepler. En el primer capítulo se trata de ofrecer una visión teórica
de los conceptos, que a nuestro parecer, son necesarios para lograr entender todos
los factores que se involucran en el proceso de solución de una ecuación no lineal a
partir de un método iterativo. El segundo capítulo se centra en el método de Newton-
Raphson y en el mismo se presenta la descripción del mismo a partir de tres puntos
de vistas: el desarrollo de Taylor, su construcción geométrica y como iteración de
punto fijo. También se presenta un estudio referido a la convergencia local, global y
semilocal de dicho método, así como un análisis de su orden de convergencia e índice
de eficiencia. Finalizamos este segundo capítulo con una serie de ejemplos numéricos
en los cuales se puede apreciar las fortalezas y debilidades que presenta el método de
Newton-Raphson. El tercer capítulo está dedicado al análisis del método de Newton-
Raphson aplicado a la ecuación de Kepler. En concreto, hacemos un estudio de las
condiciones de convergencia semilocal presentadas por Kantorovich y Smale, y de sus
variante, Gutiérrez y Wang-Zhao. Hemos querido abordar cada capítulo con ciertos
detalles, de manera que su lectura permitan al discente la mejor comprensión en
todos los pasos de las demostraciones de los teoremas y ejercicios resueltos que se
presentan en los mismos.
Deseo manifestar mi agradecimiento al Dr. José Manuel Gutiérrez Jiménez, Guti.
Por todas las cosas en que me ha ayudado me ha demostrado que, además de ser un
excelente matemático, es también mi amigo. Gracias Guti por estar siempre presente
en todos aquellos momentos en que las dudas parecían hacer naufragar esta inves-
tigación, sin tus consejos este libro nunca hubiese sido posible. Por último, también
quiero agradecer al personal del Departamento de Matemática y Computación de la
Universidad de La Rioja, y de manera muy especial al Dr. Juan Luis Varona, Dr.
Oscar Ciaurri, Dr. Manuel Bello y a la Dra. Natalia Romero. Gracias por vuestras
continuas muestras de solidaridad para conmigo.

Nagua, abril de 2009


Manuel Aurelio Diloné Alvarado
Miembro del Instituto Nacional de Formación y Capacitación del Magisterio
INAFOCAM

9
10 NOTA PRELIMINAR DEL AUTOR
Índice general

1. Resolución numérica de ecuaciones no lineales 1


1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Clasificación de los métodos iterativos. . . . . . . . . . . . . . . . . . 5

2. El Método de Newton-Raphson 7
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Descripción del método . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1. A partir del desarrollo de Taylor . . . . . . . . . . . . . . . . 9
2.2.2. Construcción geométrica: método de la tangente. . . . . . . . 9
2.2.3. Iteración del punto fijo. . . . . . . . . . . . . . . . . . . . . . 10
2.3. Estudio de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1. Convergencia Local. . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2. Convergencia Global. . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.3. Convergencia Semilocal. . . . . . . . . . . . . . . . . . . . . . 16
2.4. Orden de convergencia y eficiencia . . . . . . . . . . . . . . . . . . . 25
2.4.1. Orden de convergencia . . . . . . . . . . . . . . . . . . . . . . 25
2.4.2. Índice de eficiencia . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.3. Orden de convergencia computacional . . . . . . . . . . . . . 26
2.5. Ejemplos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.1. Ecuaciones no lineales resueltos por el método de Newton. . . 27
2.5.2. Ejemplos patológicos . . . . . . . . . . . . . . . . . . . . . . . 32

3. El método de Newton aplicado a la ecuación de Kepler 43


3.1. Introducción histórica . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2. El teorema de Kantorovich . . . . . . . . . . . . . . . . . . . . . . . 45
3.3. El teorema de Gutiérrez . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4. La α-teoría de Smale . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.5. La α-teoría de Wang-Zhao . . . . . . . . . . . . . . . . . . . . . . . . 51
3.6. Ejemplos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

Bibliografía 57

11
12 ÍNDICE GENERAL
Capítulo 1

Resolución numérica de
ecuaciones no lineales

1.1. Introducción
Muchos problemas relacionados con las Matemáticas se reducen a resolver una
ecuación
f (x) = 0, (1.1)
donde, en principio, supondremos que f es una función real de variable real. Pese
a su sencillez de planteamiento, éste ha sido un problema complicado que ha sido
tratado por numerosos matemáticos célebres: Cardano, Newton, Ruffini, Galois, etc.
Incluso para funciones «sencillas» como son los polinomios, el cálculo de sus raíces es
un tema complicado. En un principio, se intentó encontrar dichas raíces en función
de los coeficientes del polinomio, como ocurre con la ecuación de segundo grado:

2 −b ± b2 − 4ac
ax + bx + c = 0 ⇐⇒ x = .
2a
También se conocen fórmulas para polinomios de grados 3 y 4 aunque, debido a su
complejidad, no se suelen usar en la práctica. A principios del s. XIX, Galois probó
que no existen este tipo de fórmulas para polinomios de grado mayor o igual que 5.
El problema de no poder encontrar de forma exacta las soluciones de una ecuación
surgía también al trabajar con ecuaciones trascendentes, como la ecuación de Kepler,
relacionada con el cálculo de órbitas planetarias:

f (E) = E − e sen E − M

para distintos valores de E y de M .


Estas limitaciones obligan a buscar métodos para encontrar las soluciones de una
ecuación de forma aproximada. Básicamente, estos métodos generan una sucesión
{x1 , x2 , . . . , xn , . . . } que, en condiciones adecuadas, converge a una solución de la
ecuación (1.1). En muchas ocasiones, esta sucesión se genera de forma recursiva

xn+1 = F (xn , . . . , xn−p+1 ),

a partir de una función de iteración, F , que puede depender de uno o varios argu-
mentos.
Los intentos por resolver estos tipos de ecuaciones se vienen reflejando desde
la antigüedad. Leyendo a Knill [50], nos damos cuenta que desde las civilizaciones
griegas, aproximadamente dos mil años antes de Cristo, ya se conocían algoritmos
iterativos, tal es el caso de la fórmula de Herón para
√ el cálculo de raíces cuadradas,
donde partiendo de una aproximación inicial s de S se propone como nueva apro-
ximación (s + S/s)/2. Con esta fórmula, Herón podía aproximar el valor de la raíz

1
2 CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL

cuadrada que aparece en la fórmula del área de un triángulo:


p
S = p(p − a)(p − b)(p − c),

donde p = (a + b + c)/2 es el semiperímetro del triángulo de lados a, b y c.


La utilización de un algoritmo iterativo conlleva el planteamiento de varios pro-
blemas teóricos ya que es básico examinar su velocidad de convergencia, determinar
el número de iteraciones necesarias para obtener la precisión acordada, estudiar los
efectos de la aritmética del computador sobre la sucesión, así como resolver el pro-
blema de buscar una buena aproximación inicial.
El problema de resolver una ecuación presenta aspectos muy diferentes. Por ejem-
plo, con respecto a la función que se presente, la misma puede ser polinomial, tras-
cendental o no disponer de una expresión explícita de la misma, tal y como ocurre
cuando se trata de una ecuación diferencial. Por otra parte, está el problema que
presentan las soluciones, pues es sabido que una ecuación puede no tener solución,
tener una única solución, poseer soluciones múltiples o tener infinitas soluciones.
Definición 1 (Error Absoluto). Dada una sucesión {xn }∞ n=0 convergente a un
límite x∗ , definimos el error absoluto como la diferencia entre el valor exacto xn de
la sucesión y x∗ .
an = xn − x∗ .
En ocasiones se usa la expresión

|an | = |xn − x∗ |,

para referirse al módulo del error absoluto.


Definición 2 (Error Relativo). El error relativo del límite x∗ de una sucesión
{xn }∞
n=0 con respecto al valor exacto xn de la sucesión, es el cociente entre el módulo
del error absoluto y el valor absoluto del valor exacto.
|xn − x∗ |
rn = .
|xn |
El error relativo y el módulo del error absoluto tienen un uso muy especial en
la determinación del criterio de parada y el orden de convergencia de un algoritmo
iterativo.
Definición 3 (Criterios de parada). Los criterios de parada son los que definen
el momento en que se detendrá el algoritmo que se está ejecutando, pues establecen
cuando se está lo suficientemente cerca del valor buscado.
El proceso habitual para fijar un criterio de parada consiste en fijar un parámetro
pequeño llamado tolerancia, denotado usualmente por T OL, deteniéndose el proceso
cuando se cumple una de las siguientes condiciones
1. |xn − xn−1 | < T OL.

|xn −xn−1 |
2. |xn | < T OL.

Estos criterios están justificados en el hecho de que para muchas sucesiones, las
expresiones 1 y 2 intervienen en las cotas del error, es decir

|xn − x∗ | ≤ Kn |xn − xn−1 |,

de esta manera se consigue que si |xn −xn−1 | es pequeño, entonces el error cometido,
cuando Kn sea de un tamaño moderado, también será pequeño. Un error muy a
menudo cometido cuando se resuelve una ecuación no lineal (1.1) es el hecho de
usar, como único criterio de parada, la expresión

|f (xn )| < T OL,


1.1. INTRODUCCIÓN 3

pues suponer siempre que xn es una buena aproximación de la raíz si se cumple que
f (xn ) es pequeño, puede resultar completamente incorrecto para algunas funciones.
Este tipo de caso luego se verá en los ejemplos que presentaremos.
Definición 4 (Orden de convergencia). El orden de convergencia nos indica la
velocidad con la cual una sucesión converge a su límite. En términos matemáticos
asume la siguiente expresión:
|xn+1 − x∗ |
lı́m = C, con C ∈ R+ y p ≥ 1,
n→∞ |xn − x∗ |p

donde {xn } es la sucesión, x∗ el número al que converge la sucesión, p es el orden


de convergencia y C es la constante asintótica de error.
Si p = 1, 2, 3, 4, 5, se dice que es de orden lineal, cuadrático, cúbico, cuártico y
quíntico respectivamente.
Se debe recalcar la importancia práctica que presenta el orden de convergencia.
En efecto, cuando xi+1 está lo suficientemente cerca de x∗ , se cumple
|xi+1 − x∗ | ≈ µ|xi − x∗ |p ,
y haciendo
Dn = − log |xi − x∗ |,
se obtiene
Dn+1 = pDn + r, donde r = − log µ.
Esto significa que en cada iteración se multiplica aproximadamente por p, el
número de cifras exactas, de forma que, en general, un algoritmo con orden de
convergencia alto converge más rápidamente que un algoritmo de orden menor.
Cuando se verifica que
|xn+1 − x∗ | |xn+1 − x∗ |
lı́m =0 ó lı́m = 0,
n→∞ |xn − x∗ | n→∞ |xn − x∗ |2

el orden de convergencia de la sucesión {xn }∞ ∗


n=1 a x se llama superlineal o super-
cuadrático, respectivamente.
Una caracterización del orden del convergencia la encontramos en el teorema
de Schröder, cuya demostración damos a continuación. Parte de la demostración la
pueden encontrar en [48] y [82].
Teorema 1 (de Schröder). Consideremos un método iterativo
xn+1 = g(xn ), (1.2)
en el que g es continua y q veces diferenciable en en entorno de x∗ , un punto fijo de
g, x∗ = g(x∗ ). Entonces la sucesión {xn } converge a x∗ con orden de convergencia
q si
dj g(x∗ ) dq g(x∗ )
j
= 0, j = 1, 2, . . . , q − 1, 6= 0.
dx dxq
Demostración. Desarrollando (1.2) en serie de Taylor se obtiene
1 dq g(x)
xn+1 = g(xn ) = x∗ + g 0 (x∗ )(xn − x∗ ) + · · · + (xn − x∗ )q , x ∈ (xn , x∗ ).
q! dxq
Luego, usando la condición del enunciado, se sigue
1 dq g(x∗ )
xn+1 − x∗ = (xn − x∗ )q ,
q! dxq
con lo que
|xn+1 − x∗ | 1 dq g(x∗ )
lı́m ∗ q
= 6= 0.
n→∞ |xn − x | q! dxq
Por lo tanto el método tiene orden de convergencia q.
4 CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL

Otro importante aspecto que tiene que ver con la convergencia es el que se refiere
a la velocidad de convergencia de dos sucesiones, ya que ésta nos permitirá comparar
la velocidad de los diferentes algoritmos iterativos.
Definición 5 (Velocidad de convergencia de dos sucesiones). Dada una su-
cesión {xn } que converge a x y una sucesión {yn } que converge a y, se dice que {yn }
converge más rápidamente que {xn } si
y − yn
lı́m = 0.
n→∞ x − xn

Otro elemento que también se emplea para comparar la velocidad de convergencia


de dos sucesiones es la constante asintótica del error. En efecto, dadas dos sucesiones
con el mismo orden de convergencia, la que tenga la constante asintótica del error más
pequeña convergerá más rápidamente que la otra. El recíproco de esta proposición no
es cierto, pues dos sucesiones del mismo orden y con la misma constante asintótica
de error no tienen por qué converger con la misma velocidad. En [21], se muestran
varios ejemplos que verifican la no reciprocidad de la proposición.
Ejemplo 1. Dadas yn = an /n2 y xn = an /n con 0 < a ≤ 1, el orden de convergencia
es 1 y a es, para ambos casos, la constante asintótica del error, pero {yn } converge
más rápidamente a cero.
Solución 1. Notemos que al sustituir cualquier valor de 0 < a < 1 y n ≥ 1 se
obtiene
0 < yn < xn , ∀n ≥ 1.
Para una mayor profundidad de los aspectos concernientes a orden y velocidad
de convergencia, ver a [4], [16], [52], [64] y [73] entre otros.
En la determinación de las raíces de una ecuación no lineal, el aumento del orden
de convergencia permite reducir el número de iteraciones. Pero el aumento en el
orden requiere una mayor cantidad de evaluaciones de funciones y sus derivadas,
aumentando el tiempo de cálculo en cada iteración. Esto podría significar que el
aumento del orden de convergencia del método lleva implícito que el mismo sea
menos eficiente, pero no siempre es así ya que en realidad lo que se establece es un
equilibrio entre el orden de convergencia y el coste operacional del algoritmo.
Desde el punto de vista práctico, lo realmente importante no es ni el orden de
una sucesión ni el número de iteraciones necesarias para llegar a la precisión deseada,
sino el tiempo que emplea el computador en alcanzar tal precisión, por lo tanto el
coste del cómputo de una iteración es fundamental. En otras palabras, el índice de
eficiencia del método iterativo es básico. Veamos su definición:
Definición 6 (Índice de eficiencia computacional de un método). De acuerdo
con [38], existen dos tipos de índice de eficiencia:
i) El de aritmética con precisión fija y pequeña. El índice de eficiencia viene
definido por la expresión
IEC(p, d) = p1/d , (1.3)
donde p > 1 es el orden de convergencia del método y d es el número de
evaluaciones de la función f o de sus derivadas.
ii) El de aritmética con múltiple precisión. En este caso el índice de eficiencia del
método se denota por la fórmula
1 1−p−α
IEC(d, p, α) = p C(d,p,α) = p d ,

Donde p y d tienen el mismo significado que en la ecuación (1.3) y


d
C(d, p, α) = es el coste total o tiempo computacional de evaluar a f , en donde.
1 − p−α
α = logk+1 (2k + 1), para k ≥ 1.
1.2. CLASIFICACIÓN DE LOS MÉTODOS ITERATIVOS. 5

y k es una constante que indica el número de veces que se debe evaluar la


función f .
Computacionalmente hablando, cuanto mayor sea el índice de eficiencia mejor
es el método iterativo. Es importante señalar que una mejora en el orden de con-
vergencia de un método iterativo, no siempre implica una mejora en la eficiencia
computacional del mismo. Generalmente estas mejoras traen como consecuencia el
incremento del coste de evaluar la función, en perjuicio de su eficiencia.

1.2. Clasificación de los métodos iterativos.


Existen diferentes formas de clasificar los procesos iterativos, dependiendo de
los aspectos que se vayan a tener en cuenta. Por ejemplo, en función del número
de elementos de la sucesión {xn } que necesitamos para calcular xn+1 , los podemos
catalogar en dos grandes bloques
(i) Métodos de un punto. Aquellos en los que la sucesión de iteración es de la
forma
xn+1 = g(xn ).

Entre estos se encuentran el método de: Newton-Raphson, Halley, Super-


Halley, Chebyshev, etc.
(ii) Métodos multipunto. En estos la función de iteración es de la forma

xn+1 = g(xn , xn−1 , . . . , xn−p+1 ), con p ≥ 1.

Es decir, son métodos en los que el n-énesimo término viene dado en función de
los p términos anteriores. A este grupo pertenecen los métodos de: la Secante,
Steffensen, Falsa Posición o Regula Falsi, etc.
Pero ésta no es una clasificación única. Por ejemplo, Aubanell y Delshams [5]
presentan una clasificación de los métodos iterativos atendiendo a dos rasgos que los
caracterizan:
1. La herramienta que se emplea en el desarrollo de la función. De acuerdo a la
herramienta que se emplea en el desarrollo de la función, los métodos iterativos
se clasifican en:
Métodos de Taylor. Son aquéllos que utilizan el desarrollo de Taylor,
es decir, calculan a xn+1 a partir del conocimiento de la función y de sus
derivadas en un punto xn . Ejemplos: método de Euler, método de Punto
medio.
Métodos de Interpolación. En éstos se calcula xn+1 a partir del cono-
cimiento de la función en xn , xn−1 , . . . . Ejemplos: método de Lagrange,
método de Hermite.
2. La función que se desarrolla o se interpola. Por la función que se desarrolla o
se interpola, es decir, si se emplea g = f −1 , que es equivalente a buscar a x∗
tal que f (x∗ ) = 0 a buscar x∗ tal que g(0) = x∗ , es posible dar dos enfoques
a los métodos que se aplicaran en la solución del problema según se emplee el
desarrollo de Taylor o la interpolación de la función f ó g:

Métodos Directos. Si usamos la función f . Ejemplos: método de Newton-


Raphson, Método de Halley.
Métodos Inversos. Si empleamos la función g = f −1 . Ejemplo: método
de Chebyshev.

Además, teniendo en cuenta el comportamiento especial para raíces múltiples,


consideraremos un tercer bloque
6 CAPÍTULO 1. RESOLUCIÓN NUMÉRICA DE ENL

(iii) Métodos para raíces múltiples.


Es conocido que algunos métodos, i.e el método de Newton-Raphson y el mé-
todo de la Secante, disminuyen su orden de convergencia cuando la ecuación
que intentan resolver tienen raíces múltiples. Para evitar esta consecuencia se
han creado una serie de métodos que introducen en el método original una
constante de multiplicidad que permite aumentar nuevamente el orden de con-
vergencia.
Entre los métodos para encontrar raíces múltiples tenemos el de Newton-
Raphson modificado, Newton Relajado, King-Van de Vel, etc.
Capítulo 2

El Método de
Newton-Raphson

2.1. Introducción
La idea general de resolver una ecuación mediante un algoritmo iterativo o esti-
mando la solución mediante la adicción de un término corrector ha sido empleada
por muchas culturas milenarias. Por ejemplo, en la antigua Grecia y Babilonia se
emplearon métodos parecidos a los utilizados por Newton, para aproximar la solu-
ción de radicales. Métodos algebraicamente equivalente al de Newton también fueron
aplicados en el siglo XII, por el algebrista Sharaf al-Din al-Tusi. En el siglo XV ,
el matemático árabe Al-Kashi empleó un algoritmo numérico para encontrar las
raíces p-ésimas de N en la ecuación xp = N . También Henry Briggs, en su obra
Trigonometria Britannica publicada en 1633, usó un método parecido al de Newton.
Leyendo a Tjalling J. Ypma [96] encontramos que
la primera formulación del método de Newton-Raphson
apareció en un tratado de Newton titulado De analy-
si per aequationes numero terminorum infinitas, el cual
fue, probablemente, presentado a mediados del año 1669
y publicado en 1711 por William Jones. Esta primera for-
mulación es considerablemente diferente a la que conoce-
mos hoy en día y estaba definida para resolver sólamente
ecuaciones polinómicas. Además la forma de realizar los
cálculos son mucho más tediosos que en la formulación
actual. En 1671 Newton dio a conocer un tratado, con
una versión ligeramente más comprensible, titulado De
methodis fluxionum et serierum infinitarum, la cual fue Figura 2.1: Sir Isaac
publicada por John Colson en 1736. Newton (1643–1727)
El proceso descrito por Newton requiere un cálculo explícito de una sucesión
polinómica de la forma g1 , g2 , . . . , que lo convierte en un método muy laborioso.
También se observa que la estimación final x∗ es calculada al final del proceso como
x∗ = x0 + c0 + c1 + . . . en vez de hacer las estimaciones sucesivas de xn , lo cual
evidencia que Newton no utilizó una técnica recursiva.
La primera vez que Newton publica su método aplicado a ecuaciones no polinó-
micas fue en la segunda y tercera edición de su obra Philosophiae Naturalis Principia
Mathematica, la cual fue presentada en 1687 en Londres. En ellas describe las téc-
nicas para resolver la ecuación de Kepler

f (E) = E − e sen E − M, (2.1)

donde M es la anomalía media, E es la anomalía excéntrica y e es la excentricidad


de la elipse.

7
8 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

La segunda formulación del método de Newton


se debe a Joseph Raphson, quien en 1690 publicó
un tratado titulado Analysis aequationum univer-
salis en el cual se presentó un método nuevo para
resolver ecuaciones polinómicas. Una segunda edi-
ción de dicho tratado se publicó como libro en 1697,
con un apéndice que hace referencia a Newton. Se
comprueba que los dos métodos son matemática-
mente equivalentes, la diferencia es que Raphson
no necesitó generar una sucesión de polinomios, co-
mo lo hacía Newton.
Figura 2.2: Thomas Sim-
Raphson consideró una ecuación de la forma pson (1710 − 1761)
a3 − ba − c = 0, donde a es una variable. Prosigue
indicando que si g es una estimación de la solución
x∗ , entonces, una mejor aproximación se consigue haciendo a g + x, donde

c + bg − g 3
x= .
3g 2 − b

Formalmente esto es de la forma

f (g)
g+x=g− , con f (a) = a3 − ba − c,
f 0 (g)

pero como en el caso de Newton, Raphson también procedió de manera puramente


algebraica, aunque prefirió las reglas del cálculo al utilizar la forma de derivada,
pues en cada ejemplo escribió expresiones, tales como f (x) y f 0 (x), para referirse a
polinomios completos.
Los contactos entre Newton y Raphson parece que fueron muy limitados, aun-
que parece que Newton aprovechó las circunstancia de la muerte de Raphson para
adjuntar un apéndice al último libro de Raphson, titulado Historia fluxionum. En el
prefacio del tratado de 1690, Raphson se refiere a los trabajos de Newton, indicando
que su método no es único.
La tercera versión del método de Newton se
debe a Thomas Simpson y la misma está descrita
en un libro titulado Essays on Several Curious and
Useful Subjects in Speculative and Mixed Mathema-
ticks, publicado en 1740 en Londres. En el ensayo
número seis, Simpson describe un nuevo método
para la solución de ecuaciones numéricas, sin ha-
cer referencia a los trabajos de ningún predecesor.
En el prefacio de dicho ensayo, contrasta las téc-
nicas de su método, las cuales estaban basadas en
el análisis matemático y cálculo numérico, con los
métodos algebraicos de entonces. En éste se dan Figura 2.3: Joseph Louis
ejemplos de solución de ecuaciones polinómicas y Lagrange (1736 − 1813)
no polinómicas, con detalles para resolver ecuacio-
nes en una o dos variables mediante instrucciones que involucran el signo ẋ, el cual
es equivalente a dx/dt. Además aparece la primera formulación de un método itera-
tivo para resolver, en general, ecuaciones no lineales basados en el cálculo numérico.
Finalmente, fue Lagrange, en 1798, quien introdujo el método de Newton-Raphson
con la simbología que se emplea actualmente. La obra en que aparece esta notación
moderna se titula Sur la méthode d’Approximation donnée par Newton y en la mis-
ma no hace referencia a los trabajos de Simpson, aunque si menciona a Newton y
Raphson.
2.2. DESCRIPCIÓN DEL MÉTODO 9

2.2. Descripción del método de Newton-Raphson


El método de Newton-Raphson es un proceso iterativo que, en condiciones ade-
cuadas, permite aproximar una solución x∗ de una ecuación no lineal (1.1). Partiendo
de una aproximación inicial x0 de la raíz x∗ , el método de Newton-Raphson define
una sucesión
f (xn )
xn+1 = xn − 0 , n = 0, 1, 2, 3, . . . . (2.2)
f (xn )
Existen varias formas de deducir la expresión (2.2). A continuación presentamos,
de forma reducida, algunas de ellas.

2.2.1. A partir del desarrollo de Taylor


La técnica que explicaremos a continuación aparece en varios libros clásicos de
Análisis Numérico, entre ellos [16], [27], [48] y [53].
Sea x0 una aproximación de x∗ , la raíz de f (x) = 0. Buscamos un término
corrector h de forma que x + h sea la raíz buscada, es decir,

f (x0 + h) = f (x∗ ) = 0.

Si desarrollamos por la serie de Taylor f (x0 + h) se obtiene:

h2 00
0 = f (x0 + h) = f (x0 ) + hf 0 (x0 ) + f (x0 ) + · · · . (2.3)
2!
La solución exacta de esta ecuación nos daría el término corrector h tal que
x0 + h = x∗ .
Si en lugar de considerar la ecuación (2.3), tomamos su linealizada

f (x0 ) + hf 0 (x0 ) = 0,

obtenemos de forma sencilla su solución


f (x0 )
h=− .
f 0 (x0 )
Si bien este valor no es la solución exacta de (2.3), en condiciones adecuadas
podría ser una buena aproximación. De esta forma
f (x0 )
x0 + h = x0 − ,
f 0 (x0 )
sería una mejor aproximación a x∗ que la dada inicialmente por x0 .
Si denotamos por
f (x0 )
x1 = x0 − 0 ,
f (x0 )
y reiteramos el proceso obtenemos el método de Newton-Raphson: (2.2).

2.2.2. Construcción geométrica: método de la tangente.


Esta técnica aparece en una inmensa bibliografía de Métodos Matemáticos y
Análisis Numérico, entre los que podemos citar los siguientes: [10], [13], [15], [52],
[55], [69], [65], [68], [69], [74] y muchísimos más.
La técnica de iteración de este método consiste en tomar un punto inicial x0 , véase
la figura (2.4), para luego trazar por el punto (x0 , f (x0 )) la tangente geométrica a la
gráfica de la función f (x). Luego, la intersección de dicha tangente con el eje X nos
da un nuevo punto x1 , por el cual trazamos una nueva recta tangente a la gráfica
de la función, pero esta vez por el punto (x1 , f (x1 )). En condiciones adecuadas la
sucesión así obtenida
x0 , x1 , x2 , . . . , xn−1 , xn , . . .
10 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

tiende a la raíz exacta x∗ .


y

f Hx0 L

f Hx1 L

f Hx2 L

x
x* x2 x1 x0

Figura 2.4: Interpretación geométrica del método de Newton-Raphson

Por la ecuación de la recta tangente obtenemos


y − f (x0 ) = f 0 (x0 )(x1 − x0 ).
Luego, en la intersección con el eje X, (y = 0), se sigue
f (x0 )
x1 = x0 − .
f 0 (x0 )
Reiterando el proceso se llega a la función iterativa (2.2) para el punto xn .

2.2.3. Iteración del punto fijo.


El método de Newton-Raphson puede ser obtenido a partir de del método de
iteración del punto fijo. Para ello escribiremos la ecuación f (x) = 0 como
x = x − f (x), (2.4)
luego introducimos en (2.4) un parámetro λ, con lo cual
x + λx = λx + x − f (x),
de donde
λ 1
x= x+ (x − f (x)) = G(x). (2.5)
λ+1 1+λ
Si x∗ es una raíz de f (x), x∗ es un punto fijo de G(x). Si imponemos que G0 (x∗ ) =
0 es un punto fijo superatractor, entonces el parámetro λ debe cumplir
λ 1
+ (1 − f 0 (x∗ ) = 0,
1+λ 1+λ
de donde se obtiene
λ = f 0 (x∗ ) − 1. (2.6)
Sustituyendo (2.6) en (2.5) y utilizando la iteración del punto fijo, sigue
xn+1 = G(xn )
f 0 (x∗ − 1) 1
= 0 ∗
xn + 0 ∗ (xn − f (xn ))
f (x ) f (x )
f (xn )
= xn − 0 ∗ .
f (x )
Pero como x∗ es, en principio desconocido, podemos usar la aproximación definida
por x∗ ∼ xn para llegar al siguiente método iterativo.
f (xn )
xn+1 = xn − ,
f 0 (xn )
que es, de nuevo, el método de Newton-Raphson.
2.3. ESTUDIO DE CONVERGENCIA 11

2.3. Estudio de la convergencia del método de Newton-


Raphson
En los apartados anteriores, hemos visto como definir una sucesión

f (xn )
xn+1 = xn −
f 0 (xn )

con el objetivo de aproximar la solución de x∗ de la ecuación f (x) = 0.


Tenemos que ser conscientes de que la convergencia de {xn } hacia x∗ no siempre
va a suceder. Para que esto ocurra, se tienen que dar una serie de condiciones sobre
la función f , el punto de partida x0 o la raíz x∗ . En concreto, distinguiremos 3 tipos
de resultados de convergencia:

1. Local: Se dan condiciones sobre la raíz x∗ .

2. Semilocal: Se dan condiciones sobre el punto de partida x0 .

3. Global: Se dan condiciones sobre un intervalo.

Existen una gran cantidad de publicaciones con diversos resultados de conver-


gencia para el método de Newton-Raphson (véanse [4], [5], [7], [21], [28], [30], [47],
[52], [54], [55], [57],[60], [68], [73], [74], [78] y [82]). No es nuestro objetivo dar un
listado exhaustivo de todos ellos. No obstante, a modo de ejemplos, expondremos
uno o dos resultados de cada tipo de convergencia.

2.3.1. Convergencia Local.


El teorema que presentamos a continuación ha sido elegido tomando en cuenta
la forma sencilla y poderosa de su demostración. En el mismo se introducen dos
elementos, la función de iteración del método de Newton-Raphson (Nf (x)) y su
derivada (Lf (x)), las cuales toman la forma siguiente:

f (x)
Nf (x) = x− . (2.7)
f 0 (x)
f (x)f 00 (x)
Lf (x) = . (2.8)
f 0 (x)2

Las funciones (2.7) y (2.8) son muy utilizadas en las demostraciones de la con-
vergencia de muchos métodos iterativos, tales como el método de Halley y el método
de Chebyshev, así como en libros y artículos de Análisis Numérico, entre los que se
pueden citar a [2], [23], [40] y [84].
Es importante destacar que la expresión (2.8) es identificada como el Grado de
Convexidad Logarítmico de una función. Leyendo a [40] encontramos que el grado de
convexidad logarítmico de una función es una medida puntual de la convexidad, dada
por la resistencia de una función a ser «concavizada» por un operador logarítmico.
En otras palabras, es el numero de veces que hay que aplicar un operador logarítmico
a una función convexa para obtener como resultado una función cóncava.
Además, el grado de convexidad logarítmico está relacionado con la velocidad de
convergencia del método de Newton-Raphson. En efecto, leyendo a [24] encontramos
que a partir de la interpretación geométrica del método de Newton- Raphson se
verifica que a menor convexidad logarítmica de la función y = f (x), la sucesión de
Newton-Raphson presenta mayor velocidad de convergencia a la raíz de la ecuación
f (x) = 0, por lo que la convexidad logarítmica es aplicada para construir nuevas
variantes del método de Newton. Para un estudio profundo de las variaciones del
método de Newton a partir de la aplicación del grado de convexidad logarítmico,
consúltese nuevamente [24] y [36].
12 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Teorema 2. Sea f una función dos veces diferenciable en un entorno I de una


solución x∗ de f (x) = 0. Supongamos que f 0 (x∗ ) 6= 0. Entonces existe un r > 0 tal
que si x0 ∈ (x∗ − r, x∗ + r) la sucesión

f (xn )
xn+1 = xn − ,
f 0 (xn )

converge a x∗ .

Demostración. Como xn+1 = Nf (xn ), restando x∗ a ambos lados se sigue


Z x∗
∗ ∗ ∗
x − xn+1 = x − Nf (xn ) = Nf (x ) − Nf (xn ) = Nf0 (t)dt
xn
Z x∗
= Lf (t)dt.
xn

Como f (x∗ ) = 0 y f 0 (x∗ ) 6= 0, entonces Lf (x∗ ) = 0.


Por la continuidad de Lf (x), existe r ∈ R tal que si t ∈ (x∗ − r, x∗ + r), |Lf (t)| ≤
γ < 1.
De esta forma, si x0 ∈ (x∗ − r, x∗ + r), entonces
Z x∗

|x − x1 | ≤ Lf (t)dt ≤ γ|x∗ − x0 | < r, luego x1 ∈ (x∗ − r, x∗ + r).
x0

Inductivamente, si xn ∈ (x∗ − r, x∗ + r), entonces


Z x∗

|x∗ − xn+1 | ≤ Lf (t)dt ≤ γ|x∗ − xn | < r, es decir xn+1 ∈ (x∗ − r, x∗ + r).
xn

Además

|x∗ − xn+1 | ≤ γ|x∗ − xn | ≤ γ 2 |x∗ − xn−1 | ≤ · · · ≤ γ n+1 |x∗ − x0 |.

Luego
lı́m xn+1 = x∗ para todo x0 ∈ (x∗ − r, x∗ + r).
n→∞

2.3.2. Convergencia Global.


En el Análisis Numérico principalmente se emplean dos teoremas que permiten
conocer el comportamiento global de los métodos iterativos de un punto. Éstos son

1. El teorema del Punto Fijo.

2. El teorema de Fourier.

El teorema del Punto Fijo nos da las condiciones suficientes para la convergencia
de un algoritmo, a partir de un valor inicial tomado en un intervalo apropiado. Para
su demostración se hace necesario conocer de antemano el significado de función
contractiva.

Definición 7 (Función contractiva). Una función g(x) ∈ C 1 (I) es contractiva en


I, si existe 0 < L < 1 tal que para todo x, y ∈ I, se cumple

|g(x) − g(y)| ≤ L|x − y|.

A la condición |g(x) − g(y)| ≤ L|x − y| se le llama condición de Lipchitz y a L


constante de Lipchitz. Normalmente se dice que una función g(x) es contractiva si
su constante de Lipchitz es menor que la unidad.
2.3. ESTUDIO DE CONVERGENCIA 13

Teorema 3 (Punto Fijo). Sea I un intervalo cerrado y g : I → I una contracción


(L < 1). Bajo estas condiciones se cumple que:
i) La sucesión definida por xn+1 = g(xn ) converge para todo valor inicial x0 ∈ I.
ii) La sucesión converge a un punto fijo de g, es decir si x∗ = lı́mn→∞ xn ⇒ x∗ =
g(x∗ ).
iii) Este punto fijo es único en I, es decir, existe un único x∗ ∈ I tal que g(x∗ ) =
x∗ .
Demostración. Para demostrar i) probaremos que la sucesión {xn } es de Cauchy.
En efecto, consideremos la sucesión definida por el enunciado del teorema

xn+1 = g(xn ). (2.9)

Como la diferencia entre dos términos cualesquiera de (2.9) cumple que

|xn+m − xn | = |xn+m − xn+m−1 + xn+m−1 − · · · + xn+1 − xn |.

De donde

|xn+m − xn | ≤ |xn+m − xn+m−1 | + · · · + |xn+1 − xn |. (2.10)

Pero

|xn+m − xn+m−1 | ≤ Lm−1 |xn+1 − xn | + · · · + L2 |xn+1 − xn | +


L|xn+1 − xn | + |xn+1 − xn | = |xn+1 − xn |(1 + L + L2 + · · · + Lm−1 ).

Luego
|xn+m − xn+m−1 | ≤ |xn+1 − xn |(1 + L + L2 + · · · + Lm−1 ).
Ahora (1 + L + L2 + · · · + Lm−1 ) es la suma de los términos de una progresión
geométrica, por tanto
1 − Lm
|xn+m − xn+m−1 | ≤ |xn+1 − xn | . (2.11)
1−L
Asimismo

|xn+1 − xn | ≤ L|xn − xn−1 | ≤ L2 |xn−1 − xn−2 | ≤ · · · ≤ Ln |x1 − x0 |. (2.12)

Sustituyendo (2.11) y (2.12) en (2.10) se sigue


1 − Lm
|xn+m − xn | ≤ Ln |x1 − x0 |.
1−L
Esto nos garantiza que la sucesión es de Cauchy, ya que si L < 1 el término
1 − Lm
|x1 − x0 |,
1−L
está acotado y el término Ln puede ser todo lo pequeño posible sin más que tomar
un n suficientemente grande.
Por tanto, bajo estas condiciones, para todo ε > 0 podemos encontrar un k ∈ N
tal que ∀ n ≥ k, m ≥ 1 se cumple que

|xn+m − xn | < ε.

Es decir que la sucesión {xn } es de Cauchy, y por tanto convergente.


Para probar ii) es suficiente ver que al verificar la condición de Lipchitz, g es
continua y por tanto

g( lı́m xn ) = lı́m g(xn ) = lı́m xn+1 ⇒ x∗ = g(x∗ ).


n→∞ n→∞ n→∞
14 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Para demostrar iii), supongamos que existen dos puntos fijos x∗ 6= x∗∗ con lo
que
|x∗ − x∗∗ | = |g(x∗ ) − g(x∗∗ )|.
Luego, por la condición de Lipchitz se sigue

|x∗ − x∗∗ | ≤ L|x∗ − x∗∗ |,

lo cual es un absurdo, ya que por hipótesis L < 1. Luego, x∗ = x∗∗ .

Teorema 4 (Condiciones de convergencia de Fourier). Sea f (x) : [a, b] → R


una función f ∈ C 2 [a, b] que cumple las siguientes condiciones:

i) f (a)f (b) < 0.

ii) f 0 (x) 6= 0, ∀x ∈ [a, b].

iii) f 00 (x) no cambia de signo en [a, b].

iv) máx{| ff0(a) f (b)


(a) |, | f 0 (b) |} ≤ b − a.

Entonces existe una única raíz x∗ de (1.1) en [a, b] y la sucesión {xn }∞


n=0 , definida
por (2.2) converge hacia x∗ para cualquier valor inicial x0 ∈ [a, b].

Demostración. De acuerdo a las condiciones que se establecen en las hipótesis, pue-


den darse varias posibilidades. Para fijar ideas asumiremos que f 0 (x) < 0 y que
f 00 (x) ≥ 0 en [a, b], con lo cual se asegura que ii) y iii) se cumplan.
Notemos que en estas condiciones x∗ es la única raíz de f (x) = 0 en [a, b].
Además, al ser f 0 (x) < 0 y verificar i), se sigue que f (a) > 0 y f (b) < 0, tal y como
se muestra en la gráfica (2.5).

b
x
a

Figura 2.5: Interpretación geométrica del teorema de Fourier.

Visto esto, y asumiendo que x0 ∈ [a, x∗ ] demostraremos que:

{xn }∞
n=0 es una sucesión creciente.

El límite de {xn }∞
n=0 es la raíz x

Veamos la primera parte. Si x0 ∈ [a, x∗ ] entonces xn < xn+1 < x∗ . La demostra-


ción será por inducción.
Para n = 0 verificaremos que x0 < x1 < x∗ .
Por (2.2) sabemos que
f (x0 )
x1 = x0 − 0 .
f (x0 )
2.3. ESTUDIO DE CONVERGENCIA 15

Pero f 0 (x0 ) < 0 y f (x0 ) > 0, luego

f (x0 )
x1 − x0 = − > 0,
f 0 (x0 )
por tanto x0 < x1 .
Ahora demostraremos que x1 < x∗ , para esto comprobaremos que x∗ − x1 > 0.
Aplicando el teorema del valor medio, se sigue

x∗ − x1 = Nf (x∗ ) − Nf (x0 ) = Nf0 (γ)(x∗ − x0 ),

donde
f (γ)f 00 (γ)
Nf0 (γ) = > 0, para γ ∈ (x0 , x∗ ).
f 0 (γ)2
Luego
x∗ − x1 > 0.
Asumiendo que xk < xk+1 < x∗ demostraremos que xk+1 < xk+2 < x∗ . Lo
haremos aplicando un procedimiento análogo al anterior. Primero demostraremos
que xk+1 < xk+2 .
Nuevamente, por (2.2) se obtiene

f (xk+1 )
xk+2 = xk+1 − .
f 0 (xk+1 )

Pero acá también se cumple que f 0 (xk+1 ) < 0 y f (xk+1 ) > 0, por tanto

f (xk+1 )
xk+2 − xk+1 = − > 0,
f 0 (xk+1 )
luego
xk+1 < xk+2 .
Para demostrar que xk+2 < x∗ comprobaremos que x∗ − xk+2 > 0. Aplicando de
nuevo el teorema del valor medio, se sigue

x∗ − xk+2 = Nf (x∗ ) − Nf (xk+1 ) = Nf0 (θ)(x∗ − xk+1 ),

donde
f (θ)f 00 (θ)
Nf0 (θ) = Lf (θ) = > 0, para θ ∈ (xk+1 , x∗ ).
f 0 (θ)2
Por lo tanto x∗ − xk+2 > 0, xk+2 < x∗ . Así queda demostrado que {xn }∞ n=0 es
una sucesión creciente acotada superiormente por x∗ y, en consecuencia, {xn } es una
sucesión convergente.
Veamos ahora que el límite de la sucesión {xn }∞ ∗
n=0 es la raíz x .
Aplicando límites a (2.2) se sigue
 f (xn ) 
lı́m xn+1 = lı́m xn − .
n→∞ n→∞ f 0 (xn )
Pero
lı́m xn+1 = lı́m xn = L.
n→∞ n→∞

Además, como f y f 0 son funciones continuas en [a, b],

f (L) f (L)
L=L− =⇒ 0 = 0.
f 0 (L) f (L)

Como f 0 (L) < 0 se sigue que f (L) = 0 y, por tanto, L = x∗ .

Quedan por comprobar los casos siguientes


16 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

1) f 0 (x) < 0, f 00 (x) ≤ 0, x ∈ [a, b].

2) f 0 (x) > 0, f 00 (x) ≥ 0, x ∈ [a, b].

3) f 0 (x) > 0, f 00 (x) ≤ 0, x ∈ [a, b].

Sin embargo, el caso 3) se reduce al caso estudiado cambiando a f por −f . A su


vez, el caso 1) se reduce al 2) de la misma forma. En ese sentido hagamos el siguiente
análisis.
Haciendo un cambio de variable z = −x y llamando q a la función resultante se
sigue
f (x) = f (−z) = q(z),
esta función está definida en [−b, −a] y se comprueba que

dq(z) dz
f 0 (x) = = −q 0 (z).
dz dx
Análogamente se comprueba que f 00 (x) = q 00 (z). Esto significa que la raíz x∗ de
(1.1) en [a, b] se habrá transformado en la raíz −x∗ de q(z) = 0 en [−b, −a].
Entonces, el caso 2) se reduce también al que hemos estudiado, porque si f 0 (x) >
0 y f 00 (x) ≥ 0 en [a, b], q 0 (z) < 0 y q 00 (z) ≥ 0 en [−b, −a], luego el teorema será
válido para q. Deshaciendo el cambio, también será cierto para el caso 2) y para el
caso 1).
De acuerdo a [40], las condiciones de Fourier son insuficientes para asegurar la
convergencia del método de Newton-Raphson, pues tomando en cuenta la interpre-
tación geométrica del método de Newton-Raphson, nos damos cuenta que su con-
vergencia está asegurada siempre y cuando la segunda derivada de la función f 00 (x)
no cambie de signo en el intervalo [a, b] en que aparece la solución x∗ . Es decir,
cuando la función tenga un punto de inflexión en su dominio. En ese sentido, [40]
realiza un estudio del método de Newton-Raphson en función del grado de convexi-
dad logarítmico (2.8). Para mayores detalles de este estudio refierase nuevamente a
[40].

2.3.3. Convergencia Semilocal.


Históricamente hablando, en 1829, Cauchy pre-
sentó el primer resultado de convergencia semilocal
para el método de Newton-Raphson. Los detalles
de dicho teorema se encuentran en [12], mientras
que en [94] aparece un resumen parecido al que
presentamos a continuación.

Teorema 5 (Cauchy). Sea X = R, F = f ∈


C2 , σ0 = − ff0(x0)
(x0 ) , η = |σ0 | y


[x0 , x0 + 2σ0 ], si σ0 ≥ 0,
I = hx0 , x0 +2σ0 i ≡


[x0 + 2σ0 , x0 ], si σ0 < 0.
Figura 2.6: Augustin Louis
Asumamos que x0 ∈ X y además que Cauchy (1789 − 1857)

i) f 0 (x0 ) 6= 0.

iv) |f 00 (x0 )| ≤ K ∈ I.

v) 2Kη < |f 0 (x0 )|,

entonces F (x) tiene a x∗ como solución única en I.


2.3. ESTUDIO DE CONVERGENCIA 17

Este resultado, inicialmente establecido para


funciones reales de variable real, fue generalizado
años más tarde por Kantorovich en su célebre teo-
rema enunciado para operadores definidos en espa-
cios de Banach.
Leyendo a [36], encontramos que fue a finales
del 1940 cuando L. V. Kantorovich y L. B. Rall in-
trodujeron el método de Newton-Raphson en estos
tipos de espacios. Su planteamiento establece que
si F es un operador suficientemente diferenciable
definido entre dos espacios de Banach X e Y , a
partir de un punto x0 ∈ X se construye la sucesión
de Newton-Raphson Figura 2.7: Leonid V. Kan-
xn+1 = xn − F (xn ) F (xn ), torovich (1912 − 1986)
0 −1
(2.13)
donde F 0 (xn )−1 es el inverso del operador lineal F 0 (xn ).
A partir de ciertas condiciones, Kantorovich demostró que la sucesión {xn },
generada a partir de (2.13) está bien definida y es convergente a una solución de
F (x) = 0. Para una vision mas profunda del teorema de Kantorovich se puede
consultar a [44], [60] y [62].
A finales de los años 80, surgió una
nueva teoría sobre la convergencia semi-
local de procesos iterativos. Esta teoría,
conocida como α- teoría fue introducida
por H. M. Kim y S. Smale [18]. Kim la
introdujo en su tesis doctoral titulada
Computational Complexity of the Euler
Type Algorithms for the Roots of Poly-
nomials, publicada en febrero del 1986
y en un artículo publicado en 1988 bajo
el título On approximate zeroes and root
finding algorithms. En ambos trabajos Figura 2.8: Stephen Smale (1930)
Kim aplicó la α-teoría a ecuaciones po-
linómicas de una variable. Por su parte,
Smale en un libro titulado New Directions in Pure, Applied and Computational Mat-
hematics, publicado en 1986, introdujo la α-teoría para sistemas de ecuaciones, los
cuales tienen solución en base a tres invariantes de la forma

β(F, x) = ||DF (x)−1 F (x)||.


Dk F (x) (k−1)
1
γ(F, x) = sup ||DF (x)−1 || , k ≥ 2,
k!
α(F, x) = β(F, x)γ(F, x).

donde F es un un operador definido entre dos espacios de Banach.


En este trabajo demostraremos el teorema de Kantorovich y de la α teoría de
Smale como una versión en R que podrá ser extendida al caso general.
Teorema 6 (Teorema de Kantorovich en R). Sea f : I → R, en donde I es un
intervalo abierto en R, una función diferenciable en I. Asumamos, sin pérdida de
generalidad, que f (x0 ) 6= 0 y que
i) x0 ∈ I.
ii) f 0 (x0 ) 6= 0.

0)
iii) ff0(x
(x0 ) ≤ β.
0
0
(y)
iv) f (x)−f
f 0 (x0 ) ≤ γ|x − y|, ∀x, y ∈ I.
18 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

v) h = γβ ≤ 1/2.
vi) t∗ = √2β es tal que (x0 − t∗ , x0 + t∗ ) ⊂ I.
1+ 1−2h

Entonces el método de Newton-Raphson


f (xn )
xn+1 = xn − , n ≥ 0,
f 0 (xn )

está bien definido y {xn }∞ ∗ ∗


n=0 converge a x ∈ I, donde f (x ) = 0.

Demostración. Para encontrar una sucesión que mayorice a {xn }∞


n=0 vamos a con-
siderar el polinomio
1 2
p(t) = γt − t + β, (2.14)
2
cuyas raíces son √
∗ ∗∗ 1± 1 − 2γβ
t ,t = ,
γ
tal y como se muestra en la gráfica (2.9)

p HtL

*
t* t*

Figura 2.9: Gráfica del polinomio mayorizante p(t) = 21 γt2 − t + β

Notemos que (2.14) tendrá solución en R cuando 1 − 2γβ ≥ 0, de donde γβ ≤ 12 .


Esto explica la condición v)
Aplicando el método de Newton-Raphson a (2.14) se sigue
 " #

t p(tn ) −β+tn − 12 γt2n
n+1 = tn − p0 (tn ) = tn − 1−γtn .
(2.15)


t0 = 0.

Notemos que el polinomio p(t) cumple las condiciones de Fourier. Así, tomando
a t0 = 0 se genera una sucesión monótona creciente cuyo límite es t∗ . Ahora, por
inducción probaremos que

|xn+1 − xn | ≤ tn+1 − tn , ∀ n ≥ 0.

Sustituyendo a n = 0 en (2.15) se sigue

p(t0 ) p(0)
t1 − t0 = − =− 0 = β, t1 = β.
p0 (t0 ) p (0)

Sustituyendo n = 0 en (2.2) y aplicando iii)

|x1 − x0 | ≤ β = t1 − t0 .

En consecuencia x1 ∈ I ya que |x1 − x0 | < t1 < t∗ .


2.3. ESTUDIO DE CONVERGENCIA 19

Supongamos que x0 , x1 , . . . , xm ∈ I y además que |xi+1 − xi | ≤ ti+1 − ti para


i = 0, 1, . . . , m − 1, demostraremos que |xm+1 − xm | ≤ tm+1 − tm .
En efecto, como

|xm − x0 | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |x1 − x0 |.


≤ (tm − tm−1 ) + (tm−1 − tm−2 ) + · · · + (t1 − t0 ).
= tm − t0 = tm < t∗ ,

se tiene que xm ∈ I.
Por otra parte, notemos que
1 1
1 − γ|xm − x0 | ≥ 1 − γtm ⇒ ≤ .
1 − γ|xm − x0 | 1 − γtm

Además f (x ) f (x ) f 0 (x )
m m 0
|xm+1 − xm | = 0 = 0 . (2.16)
f (xm ) f (x0 ) f 0 (xm )
Aplicando la condición iv) se sigue
f 0 (x ) − f 0 (x ) f 0 (xm )
m 0
≤ γ|xm −x 0 | ⇒ 1− ≤ γ|xm −x0 | ≤ γ(tn −t0 ) < γt∗ < 1.
f 0 (x0 ) f 0 (x0 )

Luego
f 0 (xm )
−γ|xm − x0 | ≤ 1 − ≤ γ|xm − x0 |.
f 0 (x0 )
Entonces
f 0 (xm )
−γ|xm − x0 | − 1 ≤ − ≤ γ|xm − x0 | − 1.
f 0 (x0 )
Luego
f 0 (xm ) f 0 (xm )
−1 < 1 − ⇒ − < 0.
f 0 (x0 ) f 0 (x0 )
Así f 0 (x ) f 0 (x )
m m
0 = 0 ≥ 1 − γ|xm − x0 |.
f (x0 ) f (x0 )
De donde f 0 (x )
0 1
0 ≤ . (2.17)
f (xm ) 1 − γ|xm − x0 |
Ahora bien, de (2.2) se deduce

f (xm ) = f (xm ) − f (xm−1 ) − f 0 (xm−1 )(xm − xm−1 ).

Luego

f (x ) f (x ) − f (x 0 Z xm h f 0 (t) − f 0 (x i
m m m−1 ) − f (xm−1 )(xm − xm−1 ) m−1 )
0 = = dt .
f (x0 ) f 0 (x0 ) xm−1 f 0 (x0 )

Haciendo el cambio de variable t = xm−1 + s(xm − xm−1 ) se sigue


f (x ) Z 1 f 0 (x 0
m m−1 + s(xm − xm−1 )) − f (xm−1 )
0 ≤ |(xm − xm−1 )|ds. (2.18)
f (x0 ) 0 f 0 (x0 )

Aplicando la condición iv) a (2.18) se sigue


f (x ) Z 1 Z 1
1
m 2 2
0 ≤ γs|xm − x m−1 | ds = γ|xm − xm−1 | sds ≤ γ|xm − xm−1 |2 .
f (x0 ) 0 0 2
(2.19)
20 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Sustituyendo (2.17) y (2.19) en (2.16) se sigue


1
2 γ(tm − tm−1 )2
|xm+1 − xm | ≤ . (2.20)
1 − γtm
Por otra parte
p(tm )
tm+1 − tm = − . (2.21)
p0 (tm )
De (2.14) se obtiene

p0 (t) = γt − 1. (2.22)
p00 (t) = γ. (2.23)
p(i) (t) = 0, i ≥ 3.

Aplicando el desarrollo de Taylor a (2.14) se sigue


1
p(tm ) = p(tm−1 ) + p0 (tm−1 )(tm − tm−1 ) + p00 (tm−1 )(tm − tm−1 )2 + 0. (2.24)
2
Pero
p(tm−1 )
tm − tm−1 = − . (2.25)
p0 (tm−1 )
Luego, sustituyendo (2.23) y (2.25) en (2.24) se sigue
1
p(tm ) = γ(tm − tm−1 )2 . (2.26)
2
Sustituyendo (2.26) y (2.22) en (2.21)
1
2 γ(tm − tm−1 )2
tm+1 − tm = . (2.27)
1 − γtm
Finalmente, sustituyendo (2.27) en (2.20)

|xm+1 − xm | ≤ tm+1 − tm .

El proceso inductivo queda probado. Como {tn }∞


n=0 es convergente, se sigue que
{xn }∞
n=0 también es convergente.
De (2.19) se deduce que cuando m → ∞, entonces f (xm ) → 0. Por tanto {xm }
converge a x∗ , la solución de f (x∗ ) = 0.

Teorema 7 (α-teoría de Smale en R.). Sea f : D ⊆ R → R una función continua


y diferenciable en un intervalo D en el que se cumplen las siguientes condiciones:

0)
i) ff0(x 0
(x0 ) ≤ β. f (x0 ) 6= 0.

1 f (x0 )
(k)
ii) k! f 0 (x0 ) ≤ γ k−1 , para k ≥ 2.

iii) α = βγ ≤ 3 − 2 2.
Entonces el método de Newton-Raphson definido por (2.2) converge a x∗ solución
de f (x) = 0.
Demostración. Dado {xn }, se demostrará que |xn+1 − xn | ≤ tn+1 − tn , donde {tn }
es una sucesión real obtenida al aplicar el método de Newton-Raphson a la función
mayorante φ(t).
Consideremos la función
X γt2 1
φ(t) = β − t + γ k−1 tk = β − t + , para 0 ≤ t < , (2.28)
1 − γt γ
k≥2
2.3. ESTUDIO DE CONVERGENCIA 21

cuya gráfica es

Φ HtL

*
t* t*

γt2
Figura 2.10: Gráfica de la función mayorizante φ(t) = β − t + 1−γt

Notemos que para φ(t) = 0 se debe cumplir

φ(t) = 2γt2 − t(α + 1) + β = 0,

de donde p
∗ ∗∗ (α + 1) ± (α + 1)2 − 8α
t ,t = . (2.29)

Luego, para que (2.29) tenga raíz en R se debe cumplir

(α + 1)2 − 8α ≥ 0, de donde α2 − 6α + 1 ≥ 0, por tanto α ≤ 3 − 2 2.

Como vemos, este resultado se deduce directamente de la condición iii).


Ahora, sea {tn } la sucesión obtenida al aplicar el método de Newton-Raphson a
(2.28), es decir:

t φ(tn ) β(1 − γtn )2 − tn (1 − γtn )2 + γt2n (1 − γtn )
n+1 = tn − 0
= .
φ (tn ) −1 + 2γtn (2 − γtn ) (2.30)

t0 = 0.

Observemos que para n = 0, de (2.30) se obtiene

t1 − t0 = β,
φ(t )
0
0 ≤ β,
φ (t0 )
φ(t0 )
= β,
φ0 (t0 )
φ(0)
− 0 = β.
φ (0)

Asimismo, si sustituimos n = 0 en (2.2) y aplicamos i) se sigue


f (x )
0
|x1 − x0 | ≤ 0 ≤ β = t1 − t0 . (2.31)
f (x0 )
f (x ) φ(t0 )
0
0 ≤ β=− 0 . (2.32)
f (x0 ) φ (t0 )

Por otra parte, notemos que


X
φ0 (t) = −1 + kγ k−1 tk−1 ⇒ φ0 (t0 ) = φ0 (0) = −1. (2.33)
k≥2
22 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Además
X
φ00 (t) = k(k − 1)γ k−1 tk−2 .
k≥2
X
000
φ (t) = k(k − 1)(k − 2)γ k−1 tk−3 .
k≥3
..
.
X
φ(j) (t) = k(k − 1) . . . (k − j + 1)γ k−1 tk−j .
k≥j

Entonces

φ(j) (t0 ) = φ(j) (0) = k!γ k−1 . (2.34)

Luego, de (2.34) y (2.33) se obtiene

φ(j) (t0 ) 1 φ(j) (t0 )


γ k−1 = =− . (2.35)
k! k! φ0 (t0 )

Aplicando ii) en (2.35) se sigue

1 f (k) (x0 ) 1 φ(k) (t0 )


0 ≤ γ k−1 = − . (2.36)
k! f (x0 ) k! φ0 (t0 )

Probaremos que las desigualdades (2.31), (2.32) y (2.36) se cumplen siempre. En


otras palabras, demostraremos que si (2.31), (2.32) y (2.36), se cumplen, entonces
f (x ) φ(tj )
j
0 ≤ − 0 , para j = 0, 1, 2, . . . . (2.37)
f (xj ) φ (tj )
1 f (k) (xj ) 1 φ(k) (tj )
0 ≤ − , para k ≥ 2 y j = 0, 1, 2, . . . .
k! f (xj ) k! φ0 (tj )
|xj+2 − xj+1 | ≤ tj+2 − tj+1 .

La demostración será por inducción.


Para j = 0; (2.31), (2.32) y (2.36) son ciertas por hipótesis. Comprobaremos que
si son ciertas para j, también lo serán para j + 1.
Aplicando el desarrollo de Taylor a f (xj+1 ) se sigue
X 1
f (xj+1 ) = f (xj ) + f 0 (xj )(xj+1 − xj ) + f (k) (xj )(xj+1 − xj )k . (2.38)
k!
k≥2

Pero
f (xj )
(xj+1 − xj ) = − . (2.39)
f 0 (xj )
Sustituyendo (2.39) en (2.38) se sigue

f (xj ) X 1 (k)
f (xj+1 ) = f (xj ) − f 0 (xj ) + f (xj )(xj+1 − xj )k .
f 0 (xj ) k!
k≥2

Así X 1
f (xj+1 ) = f (k) (xj )(xj+1 − xj )k .
k!
k≥2

Luego
f (x ) X 1 f (k) (x ) f (x ) k X h 1 φ(k) (tj ) ih φ(tj ) ik
j+1 j j
0 ≤ 0 0 ≤ − − 0 . (2.40)
f (xj ) k! f (xj ) f (xj ) k! φ0 (tj ) φ (tj )
k≥2 k≥2
2.3. ESTUDIO DE CONVERGENCIA 23

Si ahora aplicamos el desarrollo de Taylor a φ(tj+1 ) se sigue


X 1
φ(tj+1 ) = φ(tj ) + φ0 (tj )(tj+1 − tj ) + φ(k) (tj )(tj+1 − tj )k . (2.41)
k!
k≥2

Pero
φ(tj )
(tj+1 − tj ) = − . (2.42)
φ0 (tj )
Sustituyendo (2.42) en (2.41) sigue

φ(tj ) X 1 (k)
φ(tj+1 ) = φ(tj ) − φ0 (tj ) + φ (tj )(tj+1 − tj )k .
φ0 (tj ) k!
k≥2

Así X 1
φ(tj+1 ) = φ(k) (tj )(tj+1 − tj )k .
k!
k≥2

Luego

φ(tj+1 ) X 1 φ(k) (tj ) Xh 1 φ(k) (tj ) ih φ(tj ) ik


k
− = − (tj+1 − tj ) = − − 0 .
φ0 (tj ) k! φ0 (tj ) k! φ0 (tj ) φ (tj )
k≥2 k≥2

Entonces, (2.40) se transforma en


f (x ) φ(tj+1 )
j+1
0 ≤− 0 . (2.43)
f (xj ) φ (tj )

Por otra parte, aplicando el desarrollo de Taylor a la derivada de (2.38) se sigue


X 1
f 0 (xj+1 ) = f (k+1) (xj )(xj+1 − xj )k .
k!
k≥0

Luego
f 0 (xj+1 ) X 1 f (k+1) (xj ) X φ(k+1) (tj ) h φ(tj ) ik
k
1 − 0 ≤ |x j+1 − xj | ≤ −(k + 1) .
f (xj ) k f 0 (xj ) φ0 (tj ) φ0 (tj )
k≥1 k≥1
(2.44)
Por otro lado
X h φ(t ) ik
j
φ0 (tj+1 ) = φ0 (tj ) + (k + 1)φ(k+1) (tj ) 0 .
φ (tj )
k≥1

De donde
X h φ(t ) ik
j
φ0 (tj ) − φ0 (tj+1 ) = −(k + 1)φ(k+1) (tj ) .
φ0 (tj )
k≥1
0 0
φ (tj ) − φ (tj+1 ) X φ(k+1) (tj ) h φ(tj ) ik
= −(k + 1) .
φ0 (tj ) φ0 (tj ) φ0 (tj )
k≥1

φ0 (tj+1 ) X φ(k+1) (tj ) h φ(tj ) ik


1− 0 = −(k + 1) . (2.45)
φ (tj ) φ0 (tj ) φ0 (tj )
k≥1

Sustituyendo (2.45) en (2.44) se sigue


f 0 (xj+1 ) φ0 (tj+1 )

1 − 0 ≤1− 0 < 1,
f (xj ) φ (tj )

pues φ es de signo constante en (0, t∗ ).


24 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Así f 0 (x )
j 1 φ0 (tj )
0 ≤ h i = . (2.46)
f (xj+1 ) φ0 (t
1 − 1 − φ0 (tj+1
) φ0 (tj+1 )
j)

Aplicando el desarrollo de Taylor a f (k) (xj+1 ) se sigue


X1
f (k) (xj+1 ) = f (k+1) (xj )(xj+1 − xj )i .
i!
i≥0

Luego

1 f (k) (xj+1 ) X (k + 1)! 1 f (k+1) (x )


j
≤ |xj+1 − xj |i ≤
k! f 0 (xj ) k! i! (k + 1)! f 0 (xj )
i≥0
X k + i −1 φ(k+1) (tj ) 

≤ (tj+1 − tj )i =
i (k + 1)! φ0 (tj )
i≥0

1 X 1 φ(k+1) (tj ) 1 φ(k) (tj+1 )


= − 0
(tj+1 − tj )i = − .
k! i! φ (tj ) k! φ0 (tj )
i≥0

Además
1 φ(k) (tj+1 ) 1 X 1 φ(k+1) (tj )
= (tj+1 − tj )i .
k! φ0 (tj ) k! i! φ0 (tj )
1≥0

Así que
1 f (k) (xj+1 ) 1 φ(k) (tj+1 )
0 ≤− . (2.47)
k! f (xj ) k! φ0 (tj )
Entonces f (x ) f 0 (x ) f (x )
j+1 j j+1
0 ≤ 0 0 . (2.48)
f (xj+1 ) f (xj+1 ) f (xj )
Sustituyendo (2.46) y (2.43) en (2.48) se sigue
f (x ) φ0 (tj ) φ(tj+1 ) φ(tj+1 )
j+1
0 ≤− 0 0
=− 0 .
f (xj+1 ) φ (tj+1 ) φ (tj ) φ (tj+1 )
Asimismo
1 f (k) (xj+1 ) 1 f (k) (xj+1 ) f 0 (xj )
0 ≤ 0 . (2.49)
k! f (xj+1 ) k! f 0 (xj ) f (xj+1 )
Sustituyendo (2.46) y (2.47) en (2.49) sigue

1 f (k) (xj+1 ) 1 φ(k) (tj+1 ) φ0 (tj ) 1 φ(k) (tj+1 )


0 ≤− 0 0
=− .
k! f (xj+1 ) k! φ (tj ) φ (tj+1 ) k! φ0 (tj+1 )
Por último
f (x ) φ(tj+1 )
j+1
|xj+2 − xj+1 | ≤ 0 ≤− 0 = tj+2 − tj+1 .
f (xj+1 ) φ (tj+1 )
Luego, hemos probado que

|xk+1 − xk | ≤ tk+1 − tk .

Además {tk } es convergente a t∗ , por tanto {tk } es de Cauchy, lo cual implica


que {xk } también es de Cauchy y que {xk } converge a x∗ .
Por otra parte, notar que de (2.37) se deduce que
f (x ) φ(xj ) φ(t∗ )
j
lı́m 0 ≤ lı́m − 0 = − 0 ∗ = 0.
j→∞ f (xj ) j→∞ φ (xj ) φ (t )
Entonces f (x∗ ) = 0, luego x∗ es la solución de f (x).
2.4. ORDEN DE CONVERGENCIA Y EFICIENCIA 25

2.4. Orden de convergencia y eficiencia del método


de Newton-Raphson
2.4.1. Orden de convergencia
Como establecimos en la sección 1.1, el orden de convergencia de un método
iterativo nos indica la «velocidad» con la cual una sucesión converge a su límite. La
característica principal de esta «velocidad» se verifica en la proporción con que se
multiplican los dígitos significativos de la solución aproximada. Así, cuando el mé-
todo iterativo posee convergencia lineal, los dígitos significativos se reproducen a la
misma escala, mientras que si la convergencia es cuadrática, los dígitos significativos
en cada iteración se van incrementando en potencia de dos y así sucesivamente.
El teorema que presentamos a continuación demuestra que para raíces simples el
método de Newton-Raphson posee un orden de convergencia cuadrático o de orden
dos.
Teorema 8. Sea x∗ una raíz simple de (1.1), es decir f (x∗ ) = 0 y f 0 (x∗ ) 6= 0.
Entonces el método de Newton-Raphson definido por (2.13) es de segundo orden o
de convergencia cuadrática.
Demostración. Para demostrar lo anteriormente indicado se comprobará que Nf0 (x∗ ) =
Lf (x∗ ) = 0 y Nf00 (x∗ ) = L0f (x∗ ) 6= 0.
En efecto
f (x∗ )f 00 (x∗ )
Nf0 (x∗ ) = Lf (x∗ ) = = 0, pues f (x∗ ) = 0 y f 0 (x∗ ) 6= 0.
f 0 (x∗ )
Además
f 0 (x∗ )f 00 (x∗) f 00 (x∗ )
Nf00 (x∗ ) = L0f (x∗ ) = = 6= 0, pues f 0 (x∗ ) 6= 0 y f 00 (x∗ ) 6= 0.
f 0 (x∗ )2 f 0 (x∗ )
Luego, por el teorema de Schröder, el orden de convergencia de (2.13) es cuadrá-
tico.
Además, la constante del error asintótico es
1 |f 00 (x∗ )|
C= .
2 |f 0 (x∗ )|

Como se ha demostrado, el orden de convergencia del método de Newton-Raphson


es, por lo menos, cuadrático, siempre y cuando las raíces de la función f (x) sean
simples. Es conocido que, para raíces múltiples, se pierde la convergencia cuadrática,
pasando a convergencia lineal.

2.4.2. Índice de eficiencia


Es importante indicar que, al contrario del continente europeo, en el continente
americano, y en gran parte de las islas que conforman la cuenca del Caribe, se utiliza
la coma gramatical para separar las cantidades que representan miles de unidades.
Asimismo, se emplea el punto gramatical para separar las partes que representan
fracciones de unidades. En adelante usaremos la coma y el punto desde una visión
americana.
Tomando en cuenta a (1.3), sabemos que
IEC(p, d) = p1/d .
Considerando que p = 2, d = 2, luego
1 √
IEC(p, d) = 2 2 = 2 ≈ 1.414213562373095,
es el índice de eficiencia del método de Newton-Raphson.
26 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

2.4.3. Orden de convergencia computacional


Recordemos que en la matemática computacional un método iterativo trata de
resolver una ecuación del tipo (1.1) mediante aproximaciones sucesivas a la solución.
Tomando esto en cuenta, Weerakoon y Fernando [90], Grau [38] y Grau y Gutiérrez
[39] han introducido formas diferentes de aproximar el orden de convergencia de un
método iterativo. En concreto, cada uno de ellos define lo que se llama el orden de
convergencia computacional OCC de un método iterativo. Nos encontramos, por
tanto, con tres definiciones del OCC, que denotaremos OCCW , OCCG y OCCGG .
De acuerdo a [90], el OCCW viene expresado por la fórmula

ln |(xn+1 − x∗ )/(xn − x∗ )|
OCCW = , (2.50)
ln |(xn − x∗ )/(xn−1 − x∗ )|

en donde x∗ es una raíz de la función f (x) y xn+1 , xn y xn−1 son tres iteraciones
consecutivas próximas a la raíz x∗ .
Por su parte [38] define el OCCG a partir de la expresión

ln |(xn+1 − xn )/(xn − xn−1 )|


OCCG = , (2.51)
ln |(xn − xn−1 )/(xn−1 − xn−2 )|

en donde xn+1 , xn , xn−1 y xn−2 son cuatro iteraciones consecutivas próximas a la


raíz x∗ .
Mientras que [39] definen el OCC a partir de la expresión

ln |(xn − α
e/(xn−1 − α
e)|
OCCGG = , (2.52)
ln |(xn−1 − αe)/(xn−2 − α
e)|

en donde xn+1 , xn , xn−1 y xn−2 son cuatro iteraciones consecutivas próximas a la


raíz x∗ y
(xn+1 − xn )2
α
e = xn+1 −
xn+1 − 2xn + xn−1
Notemos que en (2.50) es necesario conocer la solución de la ecuación, mientras
que en (2.51) y (2.52) no es necesario conocer dicha solución, esto implica que la
aplicación de la ecuación (2.50) podría tener inconvenientes cuando una iteración
xn está muy próxima a la solución x∗ . En ese caso, aparecerían dos iteraciones
sucesivas con el mismo valor. Es importante señalar que la suceción de iteraciones
que se apliquen tanto en (2.50) como en (2.51) y (2.52) deben estar lo mas próximas
posibles a x∗ .
A continuación se va a calcular el OCCG , OCCW y el OCCGG para un conjunto
de funciones test. Las funciones que se presentan en la siguiente tabla fueron tomadas
de [63], [83] y [90]. En la siguiente tabla se comprueba que el OCCG , OCCW y el
OCCGG promedio del método de Newton-Raphson es 2.02298, 1.99904 y 1.96442
respectivamente, lo cual significa que, computacionalmente hablando, el orden del
método de Newton-Raphson también es cuadrático. Los valores que se presentan se
obtuvieron mediante el siguiendo procedimiento:

1. La solución aproximada de cada ecuación se encontró utilizando el código para


implementar el método de Newton-Raphson con el paquete Mathematica.

2. Los valores iniciales se tomaron de forma optimizada, es decir, lo más próximo


a la solución.

3. Para aplicar a (2.50) se tomo la solución apróximada generada por cada ecua-
ción y se tomaron las tres soluciones sucesivas más próximas a dicha solución
apróximada.

4. Para aplicar a (2.51) y (2.52) se tomaron las cuatro soluciones sucesivas más
próximas a la supuesta solución generadas por cada ecuación.
2.5. EJEMPLOS NUMÉRICOS 27

Función f (x) x0 OCCG OCCW OCCGG Raíz (x∗ )


x3 + 4x2 − 10 1.0 2.00564 1.99957 1.9804 1.365230
sen2 (x) − x2 + 1 1.0 2.00155 1.99966 1.98758 1.404491
x2 − ex − 3x + 2 1.0 1.99794 1.99825 1.94079 0.257530
cos(x) − x 1.0 1.93728 1.99803 1.91155 0.739085
(x − 1)3 − 1 1.8 2.0099 1.99939 1.97686 2.000000
x3 − 10 1.5 2.00299 1.99916 1.9937 2.154434
x2
xe − sen2 (x) + cos(x) + 5 -1.0 2.0438 1.99968 1.98951 -1.166495
x3 + log(x) 0.5 2.00087 2.00067 2.00067 0.704709
1
x − sen(x) + 1 -1.0 2.36985 2.00013 2.00326 -0.629446
2
x sen (x) + ex cos(x) sen(x) − 28
2 2
4.4 1.85999 1.9959 1.85991 4.622104
Promedio 2.02298 1.99904 1.96442

Cuadro 2.1: OCC promedio del método de Newton.

2.5. Ejemplos numéricos

En esta sección aplicaremos el método de Newton-Raphson a partir de dos mo-


mentos. En un primer momento se presentan una serie de problemas en los cuales
el método de Newton-Raphson funciona perfectamente. En el segundo momento se
presentan los ejemplos patológicos, es decir, aquellas situaciones en los cuales el
método de Newton-Raphson no arroja los resultados esperados.

2.5.1. Ecuaciones no lineales resueltos por el método de New-


ton.

Los ejemplos presentados a continuación han sido diseñados y codificados en el


lenguaje del paquete Mathematica. Para un estudio más profundo de este acápite,
véase [8], [28], [47],[55], [57], [66], [69], [91], [113], [114], [116] y [120].

Ejemplo 2. Al principio de cada año un banco deposita v euros en un fondo de


inversión y retira un capital de M euros al final del n− ésimo año. Mediante el
método de Newton-Raphson se pretende calcular el tipo medio de interés anual r de
esta inversión, sabiendo que M está relacionada con r por la siguiente ecuación.

n
X 1+r
M =v (1 + r)k = v [(1 + r)n − 1].
r
k=1

Solución 2. Observando la ecuación anterior, se deduce que r es la solución de la


ecuación

1+r
f (r) = M − v [(1 + r)n − 1], f (r) = 0.
r

Para la construcción de la gráfica, vamos a suponer que v es 10, 000 euros y que
después de 5 años M es igual a 60, 000 euros. Bajo estas condiciones se obtiene la
gráfica (2.11)
28 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

30 000

20 000

10 000

-0.2 -0.1 0.1 0.2

-10 000

-20 000

-30 000

Figura 2.11: Gráfica de la función f (r) = M − v 1+r n


r [(1 + r) − 1]

1. Se observa que f (r) tiene solución única en el intervalo [0.0, 0.1]


2. Construcción de la función de iteración.

1+r
f (r) = 60, 000 − 10, 000 [(1 + r)5 − 1].
r
f (rn )
rn+1 = rn − .
f 0 (rn )
1 + 20rn2 + 30rn3 + 18rn4 + 4rn5
rn+1 = . (2.53)
15 + 40rn + 45rn2 + 24rn3 + 5rn4

r rn
0 0.1
1 0.06325399881896841
2 0.06140685508980816
3 0.06140241156217179
4 0.0614024115365252
5 0.0614024115365252

Cuadro 2.2: Valores obtenidos a partir de (2.53)

3. Resultado.
Después de 4 iteraciones el método converge a la raíz aproximada x4 = 0.0614024115365252.
Luego, el tipo de interés es aproximadamente igual a 6.14 %
Ejemplo 3. En cursos de física avanzada se sabe que la posición en función del
tiempo para un tiro parabólico viene dada por la forma
v0 2
x(t) = x0 + 2x (1 − e−w t ),
w
1 h g  2
 i
y(t) = y0 + 2 v0y + 2 1 − e−w t − gt ,
w w
k
donde w2 = m , x(t): alcance con respecto al tiempo, y(t): altura con respecto al
tiempo, x0 : distancia inicial con respecto a la tierra, y0 : altura inicial con respecto
a tierra, v0x : velocidad inicial con respecto a la tierra, v0y : velocidad inicial con
respecto a la altura, t: tiempo, g: gravedad, k: constante de proporcionalidad, m:
masa.
Supongamos que un proyectil√ de masa m = 4 Kg es lanzado desde la tierra con
una velocidad inicial k~v0 k = 2 m s , formando con la horizontal un ángulo de θ = 4 .
π

Si la constante de proporcionalidad k = 2 Kg s y tomamos la gravedad g = 9.8 s2 ,


m

aproximaremos el alcance del proyectil aplicando el método de Newton-Raphson.


2.5. EJEMPLOS NUMÉRICOS 29

Solución 3. Por los datos suministrados en el enunciado, sabemos que k~v0 k = 2
y θ = π4 , luego


√ 2
v 0x = k~v0 k cos(θ) = 2
= 1.
√2
√ 2
v0y = k~v0 k sen(θ) = 2 = 1.
2

Notemos que w2 = 12 . Tomando el origen de referencia en el punto de lanza-


miento, se tiene que (x0 , y0 ) = (0, 0), luego, la posición en función del tiempo del
proyectil es

 1

x(t) = 2 1 − e− 2 t . (2.54)
h  1
 i
y(t) = 2 (1 − 2g) 1 − e− 2 t − gt . (2.55)

El plan ahora es determinar la solución t∗ de y(t) = 0, luego x(t∗ ) sería el alcance


del proyectil. Así

y(tn )
tn+1 = tn − .
y 0 (tn )
[20.6(1 − e−0.5tn ) − 9.8tn ]
= tn − . (2.56)
10.3e−0.5tn − 9.8

En adelante hay que tener cuidado en seleccionar a t0 , pues una mala elección
puede hacer que se obtenga una solución que no nos interese. Por ejemplo, si toma-
mos t0 = 0.03, la solución que se obtiene tiende a t∗ = 0, que al ser sustituida en
(2.54), nos daría una falso alcance.
La razón de la convergencia anterior es que la función y(t) corta al eje de las
abscisa en t = 0 y además tiene un máximo relativo en t = 0.099523, luego, al ser
y(t) una función creciente en el intervalo I = (0, 0.099523), si tomamos un t0 ∈ I,
la sucesión que se obtiene converge a t = 0.

-0.4 -0.2 0.2 0.4

-0.2

-0.4

-0.6

-0.8

h  1
 i
Figura 2.12: Gráfica de la función y(t) = 2 (1 − 2g) 1 − e− 2 t − gt

Este problema se resuelve tomando un valor t0 > 0.099523. Si tomemos a t0 = 0.4


se genera la siguiente tabla
30 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

n tn
0 0.4
1 0.26405006877449
2 0.21254143019785
3 0.20132631548484
4 0.20072639679455
5 0.20072466363483
6 0.20072466362036
7 0.20072466362036
8 0.20072466362036

Cuadro 2.3: Valores obtenidos a partir de (2.56).

Así, t6 ≈ 0.20072466362036 es una aproximación de la solución t∗ . Sustituyendo


este valor en (2.54), se obtiene que el alcance del proyectil sería x(t6 ) = 2(1 −
e−0.5t6 ) ≈ 0.190981 metros.

Ejemplo 4. Aplicando el procedimiento que desarrolló F. Vieta, a finales del siglo


XVI, calcularemos las dos primeras aproximaciones del polinomio x3 − 2x − 5 = 0.
Verificaremos que este procedimiento coincide con el método de Newton-Raphson.

Solución 4. De los datos del problema se obtiene que el polinomio a considerar es


P (x) = x3 − 2x − 5. Notemos que P (2) = −1 < 0 y P (3) = 16 > 0, luego, por el
teorema de Bolzano, existe una raíz x∗ del polinomio P (x) tal que x∗ ∈ (2, 3). Luego,
el valor entero x0 más próximo e inferior a la raíz es x0 = 2, el cual tomaremos
como una primera raíz, es decir x∗ ≈ x0 = 2.
Realizando el cambio de variable x = x0 + s = 2 + s, el polinomio P (x) se
transforma en
P (2 + s) = −1 + 10s + 6s2 + s3 . (2.57)
Despreciando los términos de grado superior a uno de (2.55) sigue

P (2 + s) = −1 + 10s.

Cuya raíz es s = 1/10. Luego, la nueva aproximación de la raíz del polinomio


original es
x∗ ≈ x1 = x0 + s = 2 + 0.1 = 2.1.
Realizando el cambio de variable x = x1 + s el polinomio P (x) ahora es

P (2.1 + s) = 0.061 + 11.23s + 6.3s2 + s3 . (2.58)

Nuevamente despreciando, de (2.58), los términos de grado superior a uno, ob-


tenemos que
P (2.1 + s) = 0.061 + 11.23s,
cuya raíz es s = −0.00543188. Luego, la nueva aproximación de la raíz x∗ del poli-
nomio P (x) es

x∗ ≈ x2 = x1 − 0.00543188 = 2.1 − 0.00543188 = 2.09457.

Aplicando el método de Newton-Raphson para aproximar la raíz de P (x) sigue

P (xn )
xn+1 = xn − ,
P 0 (xn )
x3 − 2xn − 5
= xn − n 2 . (2.59)
3xn − 2

Tomando a x0 = 2, obtenemos la siguiente tabla


2.5. EJEMPLOS NUMÉRICOS 31

n 0 1 2 3 4
xn 2.000000 2.100000 2.094568 2.094551 2.094551

Cuadro 2.4: Valores obtenidos a partir de (2.59).

En la tabla se verifica que las dos primeras iteraciones coinciden con el método
aplicado por Vieta.
Ejemplo 5. Aplicaremos el método de Newton-Raphson para encontrar la solución
aproximada de la ecuación
f (x) = 6x3 − 39x2 + 45x = 0,
comenzando a partir de la solución inicial x0 = 4.
Solución 5. 1. Gráfica de la función.

100

50

-2 2 4 6 8
-50

-100

-150

Figura 2.13: Gráfica de la función f (x) = 6x3 − 39x2 + 45x

La gráfica muestra la existencia de tres raíces, aproximaremos la mayor de


ellas, tomando un x0 = 4.
2. Construcción de la función de iteración.

f (xn )
xn+1 = xn − .
f 0 (xn )
45xn − 39x2n + 6x3n
= xn − .
45 − 26xn + 6x2n
−13x2n + 4x3n
= . (2.60)
6x2n − 26xn + 15

n 0 1 2 3 4 5 6
xn 4.000000 6.857143 5.708987 5.160504 5.011191 5.000060 5.000000

Cuadro 2.5: Valores obtenidos a partir de (2.60).

3. Resultado.
La raíz aproximada es x6 = 5.
Ejemplo 6. Comprobaremos que la ecuación
f (x) = ex + x,
tiene una única raíz real y aproximaremos dicha raíz por el método de Newton-
Raphson. Detendremos el proceso de iteración cuando se verifique que |xn − xn−1 | ≤
0.5 × 10−3 .
32 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Solución 6. 1. Gráfica de la función.

20

15

10

-3 -2 -1 1 2 3

Figura 2.14: Gráfica de la función f (x) = ex + x

Se verifica que la función f (x) = ex + x, es continua y derivable en el intervalo


[−1, 0]. Como

f (−1) = −0.632121 < 0,


f (0) = 1 > 0.

Además se verifica que f 0 (x) = ex +1 > 0 en todo el intervalo, luego f (x) tiene
a lo sumo una solución en [−1, 0]. Tomemos x0 = −1
2. Construcción de la función de iteración.

f (xn−1 )
xn = xn−1 − , n ≥ 1,
f 0 (xn−1 )
exn−1 + xn−1
xn = xn−1 − ,
1 + exn−1
exn−1 (−1 + xn−1 )
xn = . (2.61)
1 + exn−1

n 0 1 2 3
xn -1.000000 -0.537883 -0.566987 -0.567143

Cuadro 2.6: Valores obtenidos a partir de (2.61).

3. Resultado.
La raíz aproximada es x3 = −0.567143.

2.5.2. Ejemplos patológicos


Entenderemos por ejemplos patológicos, como aquellos ejemplos en los cuales el
método de Newton-Raphson falla o converge a una solución no esperada. Son diversas
las razones que permiten el desarrollo de estos casos, pero las más importantes son:
Cuando la sucesión diverge lentamente a +∞.
Cuando la sucesión de puntos generada por la función oscila sin converger.
En caso de que se presente el fenómeno de la periodicidad, es decir, cuando
los resultados de la función generan una sucesión de puntos que tienden a
repetirse. Es lo que se conoce como la presencia de ciclos atractores.
2.5. EJEMPLOS NUMÉRICOS 33

En caso de que se presente el fenómeno de repulsión, es decir, cuando los valores


de la función de iteración se alejan de la posible solución.
Antes de iniciar con dichos ejemplos, recordemos las condiciones típicas para la
convergencia de (2.2), dichas condiciones fueron tomadas de ([8]).
Sea f (x) una función, x0 un punto inicial e I0 = [x0 , 2µ0 ], donde µo = ff0(x 0)
(x0 ) , un
intervalo en el cual la función es dos veces diferenciable, entonces las condiciones

sup |f 00 (x)| = M, |f 0 (x0 )| ≥ 2|µ0 |M, (2.62)


x∈I0

son suficientes para asegurar la existencia de una solución x∗ de f (x) en I0 , y para


la convergencia de (2.2) a esa solución.
De forma general, la condición (2.62) se cumple para

|f 00 (xn )| ≤ M, |f 0 (xn )| ≥ 2|µn |M, n = 1, 2, · · ·

Recordemos también que en la solución de una ecuación mediante métodos nu-


méricos, comúnmente se aplica el siguiente criterio de parada

|xn+1 − xn | < ε, ε > 0. (2.63)

Donde xn es el n−ésimo termino de la sucesión generada y ε > 0 es la tolerancia.


Veamos algunos ejemplos que demuestran lo anteriormente señalado. Para un
análisis más profundo de estos de ejemplos ver [8], [19], [28], [42], [47] y [57].
Ejemplo 7. Parte del ejemplo que detallamos a continuación aparece en [8]. En el
mismo se presenta un caso de repulsión. Dada la función

f (x) = x1/3 , (2.64)

demostraremos que para cualquier valor inicial diferente de cero, el método de Newton-
Raphson diverge.
Solución 7. Notemos que la función dada posee solución única en x∗ = 0. Aplicando
el método de Newton-Raphson a (2.64) sigue

f (xn )
xn+1 = xn − ,
f 0 (xn )
1/3
xn
= xn − −2
= −2xn ,
1/3xn 3
luego, para cualquier punto de partida distinto de cero, el método de Newton-Raphson
se aleja de la solución x∗ = 0. En efecto, dado x0 se sigue

x1 = −2x0
x2 = 2 2 x0
..
.
xn = (−1)n 2n x0 .

Luego si x0 > 0 se tiene que

lı́m xn = ∞,
n→∞
lı́m xn = −∞.
n→∞
n par n impar

Si x0 < 0 se obtiene
lı́m xn = −∞,
n→∞
lı́m xn = ∞.
n→∞
n par n impar

En ambos casos el método de Newton-Raphson presentará una divergencia osci-


latoria.
34 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Ejemplo 8. El siguiente ejemplo aparece en [19]. En el mismo se presenta una


función que posee falsa convergencia.
Buscaremos una función h(x) en la que el método de Newton-Raphson genere
una sucesión {xn } divergente, pero que cumpla la condición (2.63).

Solución 8. Notemos que para valores pequeños de x, la función del ejemplo 7



f (x) = 3 x, (2.65)

posee un punto fijo repulsor en cero. También observemos que para valores grandes
de x, la función
2
ψ(x) = e−x , (2.66)
tendrá un comportamiento semejante. Por consiguiente, tomaremos a la función h
como el producto de (2.65) y (2.66). Así
√ 2
h(x) = 3
xe−x . (2.67)

La función (2.67) tiene una solución trivial en x = 0, pero como demostraremos,


la iteración bajo el método de Newton-Raphson nunca converge a este cero, a menos
que no se escoja a x0 = 0. Sin embargo, si aplicamos (2.63) como criterio de con-
vergencia y si ninguna de las iteraciones es un punto crítico de h(x), el método de
Newton-Raphson tendría convergencia en una zona en la cual no hay ceros.
Aplicando el método de Newton-Raphson a (2.67) sigue

h(xn ) xn h 1 i 2xn (1 + 3x2n )


xn+1 = xn − = xn − 1 = x n 1− 1 = − . (2.68)
h0 (xn ) 3 − 2x2n 3 − 2x2n 1 − 6x2n

Analicemos a (2.68) y caractericemos su punto fijo.

2xn (1 + 3x2n ) 0 2(−1 − 9x2 + 36x3 )


xn+1 = f (xn ), donde f (x) = − y f (x) = .
1 − 6x2n (1 − 6x)2

Como

f (0) = 0 y f 0 (0) = −2, entonces para x = 0 existe un punto fijo repulsor.

Analicemos su comportamiento. Supongamos √ que xn no pertenece al intervalo


(− √16 , √16 ). Asumamos también que xn 6= 1/ 6, porque la derivada de h(x) en ese
punto se hace cero, aún así, el método de Newton-Raphson diverge. En efecto, si
xn > √16 entonces

 2 + 6x2 + 1 − 6x2  −3xn


n n
xn+1 − xn = f (xn ) − xn = −xn 2
= > 0.
1 − 6xn 1 − 6x2n

Es decir xn+1 > xn , luego xn → ∞.


Análogamente, si xn < − √16 , entonces

−3xn
xn+1 − xn = < 0, luego xn+1 < xn , por tanto xn → −∞.
1 − 6x2n

Para xn 6= 0 y xn ∈ (− √16 , √16 ) se obtiene


x 1 + 3x2 1 + 3x2n
n+1 n
= 2 = 2 > 2.
xn 1 − 6x2n 1 − 6x2n

Entonces
1
|xn+1 | > 2|xn |, luego, en algun momento xn+1 > √ , por tanto xn → ∞.
6
2.5. EJEMPLOS NUMÉRICOS 35

Si para algún n se obtiene que f (xn ) = ± √16 , entonces xn+1 → ±∞.


Por tanto, en todos los casos la sucesión diverge a ±∞.

0.6

0.4

0.2

-3 -2 -1 1 2 3

-0.2

-0.4

-0.6

√ 2
Figura 2.15: Gráfica de la función h(x) = 3
xe−x

-2 -1 1 2

-5

−2x(1+3x2 )
Figura 2.16: Gráfica de la función f (x) = 1−6x2 .

Ejemplo 9. La siguiente función ha sido considerada en [42]. Su gráfica puede verse


en la figura 2.17. Dada la función

 π
π − 2x sen( x ), si x 6= 0,
f (x) = (2.69)


π, si x = 0.

Demostraremos que la sucesión generada a partir de aplicar el método de Newton-


Raphson a (2.69), converge a un límite que no es solución de (2.69).

Solución 9. Notemos que lı́mx→0 f (x) = π, luego f (x) es continua en todo punto.
Aplicando el método de Newton-Raphson a (2.69) se sigue

f (xn ) πxn − 2πxn cos( xπn )


xn+1 = xn − = − . (2.70)
f 0 (xn ) 2[π cos( xπn ) − xn sen( xπn )]

1
Notemos que (2.70), a partir de x0 = 0,5 genera la sucesión xn = 2n+1 . En
1
efecto, se prueba por inducción que si xn = 2n+1 , entonces
1 1
π 2n+1 − 2π 2n+1 cos(2n π) 1 π 1
xn+1 = − = ( n+1 ) = n+2 .
2π 2π 2 2
Luego
1
lı́m xn = lı́m = 0. (2.71)
x→∞ x→∞ 2n+1
36 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

x3x2 x1 x0
x
-1.5 -1.0 -0.5 0.5 1.0 1.5

Figura 2.17: Gráfica de la función f (x) = π − 2x sen( πx ) y de las iteraciones del


método de Newton-Raphson.

Sin embargo, de (2.69) se sigue que f (0) = π, luego, el límite de (2.71) no es


solución de (2.69).

En el siguiente ejemplo, el método de Newton-Raphson da como resultado una


sucesión oscilante divergente.

Ejemplo 10. Dada la función f (x) = arctan(x) aplicaremos el método de Newton-


Raphson empleando un x0 = 1,45. Comprobaremos que los resultados obtenidos re-
presentan una sucesión oscilante divergente.

Solución 10. 1. Construcción de la función de iteración.

f (xn )
xn+1 = xn − .
f 0 (xn )
= xn − (1 + x2n ) arctan(xn ). (2.72)

Estudiemos la sucesión (2.72) y caractericemos el punto fijo. Sea

xn+1 = f (xn ),

donde
f (x) = x − (1 + x2 ) arctan x, (2.73)

y
f 0 (x) = −2x arctan x. (2.74)

Para f (x) = x, se sigue que x∗ = 0 es un punto fijo de (2.73). Sustituyendo


dicho punto fijo en (2.74) se obtiene que f 0 (x∗ ) = 0, por tanto, el cero es un
punto fijo superatractor de (2.72).
Notar que
1
|f 0 (x)| < 1 ⇔ |x arctan x| < ,
2
pero
x arctan x − 0.5 = 0 ⇔ x = 0.765378926665789 = a,

por lo tanto
|f 0 (x)| < 1 ⇔ |x| < a,

luego, para todo x0 ∈ (−a, a) se asegura la convergencia de (2.72).


2.5. EJEMPLOS NUMÉRICOS 37

x
-a a

Figura 2.18: Gráfica de f (x) = x arctan x

Para x0 ∈
/ (−a, a), el método de Newton-Raphson puede converger o presentar
una divergencia oscilatoria.
y

1.0

0.5

x
-4 -2 2 4

-0.5

-1.0

Figura 2.19: Gráfica de la función f (x) = arctan(x) y de las iteraciones del método
de Newton-Raphson.

La gráfica (2.19), para un x0 = 1.45 muestra la presencia de una sucesión


oscilatoria alrededor de la solución única x = 0.
n xn
0 1.4500
1 -1.55026
2 1.84593
3 -2.88911
4 8.67845
5 -102.443
6 16281.4
7 −4,16358 × 108
8 2,72305 × 1017
9 −1,16474 × 1035
10 2,13099 × 1070
11 −7,13317 × 10140

Cuadro 2.7: Valores obtenidos a partir de (2.72).

El próximo ejemplo prueba que el método de Newton-Raphson produce una


sucesión que tiende casi a repetirse (esto es lo que se llama un ciclo atractor).
Ejemplo 11. Aplicaremos el método de Newton-Raphson a la ecuación x3 −x−3 = 0
iniciando el proceso para x0 = 0.
38 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

Solución 11. 1. Construcción de la función de iteración.


x3n − xn − 3 2x3 + 3
xn+1 = xn − 2
= n2 . (2.75)
3xn − 1 3xn − 1
Realicemos un análisis de la función de iteración (2.75).
2. Determinemos y caractericemos sus puntos fijos.
xn+1 = g(x)
donde
2x3 + 3
g(x) = , (2.76)
3x2 − 1
si g(x) = x, se sigue
2x3 + 3
= x ⇔ x∗ = 1.6717.
3x2 − 1
Luego, sustituyendo x∗ = 1.6717 en la derivada de (2.76) se obtiene que
g 0 (x∗ ) < 1, es decir, (2.75) posee un punto fijo atractor.
Veamos ahora la monotonía de (2.76).
√ Notemos que a partir del denominador
de (2.76) se obtiene que x = ±1/ 3.
10

-3 -2 -1 1 2 3

-5

-10

2x3 +3
Figura 2.20: Gráfica de la función asociada al método de Newton, g(x) = 3x2 −1

Observando la gráfica (2.20) se verifica que (2.76) es monótona creciente en los


intervalos (−∞, − √13 ), (− √13 , 0) y (x∗ , +∞).
Analicemos el comportamiento de (2.76) cuando x0 ≥ x∗ . En efecto, si
x0 ≥ x∗ entonces xn → x∗ de forma decreciente, es decir
xn+1 < xn , ∀n ≥ 0

y
5

x*
x
2 3 4 5

Figura 2.21: Comportamiento de (2.76) cuando x0 ≥ x∗


2.5. EJEMPLOS NUMÉRICOS 39

Si x0 ∈ ( √13 , x∗ ), entonces x1 > x∗ , luego, por el caso anterior también convergerá


a x∗ , pues

xn+1 < xn , ∀n ≥ 1

x
1 x* 2 3 4 5

-2

Figura 2.22: Comportamiento de (2.76) cuando x0 ∈ ( √13 , x∗ )

En un entorno de cero (−, ), si x0 ∈ (−, ), entonces xn presentará ciclos.


Experimentalmente se ha comprobado que  ≈ 0.058.

x
-3 -2 -1 1 2

-5

-10

-15

-20

-25

Figura 2.23: Iteraciones del método de Newton-Raphson para f (x) = x3 − x − 3

En cualquier otro caso, se tiene convergencia, ya que

Si x0 > x∗ , entonces xn converge monótonamente a x∗ .

Si x0 < x∗ y x0 6= (−, ) llega el momento en el que xn > x∗ , luego también


converge.

Ejemplo 12. Dada la ecuación f (x) = cos(x) aplicaremos el método de Newton-


Raphson, utilizando una aproximación inicial x0 = 3,0. Comprobaremos que el mé-
todo de Newton-Raphson produce una sucesión que converge a una solución no es-
perada.

Solución 12. 1. Gráfica de la función.


40 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

y
1.0

0.5

x
-6 -4 -2 2 4 6

-0.5

-1.0

Figura 2.24: Iteraciones del método de Newton-Raphson para f (x) = cos(x)

Se observa que existen infinitas raíces: (2k + 1)π/2, k ∈ Z. Tomando una


aproximación inicial x0 = 3, se espera que converja a una de las soluciones
más próximas: π/2 ó 3π/2. Sin embargo, converge a −3π/2, como se ve en el
cuadro (2.8).

n xn
0 3.00000
1 -4.01525
2 -4.85266
3 -4.71146
4 -4.71239
5 -4.71239
6 -4.71239

Cuadro 2.8: Valores obtenidos al aplicar el método de Newton-Raphson a f (x) =


cos(x)

La tabla muestra que el método de Newton-Raphson no converge a la solución


esperada, esto es debido a que la pendiente de la derivada de la función es muy
pequeña y la recta tangente a la función es casi horizontal. Además, se tomó una
aproximación inicial que coincidía con el punto de inflexión de la curva que representa
la función.
El ejemplo siguiente muestra una ecuación cuyas raíces son complejas.

Ejemplo 13. Dada la ecuación x2 − 2x + 5 = 0, aplicaremos el método de Newton-


Raphson tomando a x0 = 3,5 como la aproximación inicial.

Solución 13. 1. Construcción de la función de iteración.

5 − 2xn + x2
xn+1 = xn − ,
−2 + 2xn
−5 + x2n
= . (2.77)
2(−1 + xn )

Análicemos a 2.77. Veamos si tiene puntos fijos.

xn+1 = h(xn )

donde
−5 + x2
h(x) = , (2.78)
2(−1 + x)
2.5. EJEMPLOS NUMÉRICOS 41

pero h(x) = x ⇔ x = 1 ± 2i, luego (2.77) tampoco tiene puntos fijos.

-4 -2 2 4

-2

-4

-6

−5+x2
Figura 2.25: Gráfica de la función h(x) = 2(−1+x)

Luego, véase Figura (2.26), para cualquier x0 , la función (2.78) presentará una
divergencia oscilatoria.

x0
x

Figura 2.26: Comportamiento de (2.78)cuando x0 < 0

50

40

30

20

10

x
-6 -4 -2 2 4 6

Figura 2.27: Iteraciones del método de Newton-Raphson para f (x) = x2 − 2x + 5

La gráfica comprueba que no existe solución real, pues la curva no corta al eje
0X.
42 CAPÍTULO 2. EL MÉTODO DE NEWTON-RAPHSON

x0 -4 -0.7 0.5 6.5 10


x1 -1.1 1.3264 4.75 3.3863 5.2777
x2 0.9023 -4.9628 2.3416 1.3550 2.6713
x3 21.4389 -1.6460 0.1801 -4.4548 0.6390
x4 11.1216 0.4328 3.0295 -1.3607 6.3603
x5 5.8632 4.2426 1.0293 0.6667 3.3070
.. .. .. .. .. ..
. . . . . .
x10 -23.6247 0.1392 -2.9444 -0.2840 2.7082
x11 -11.2311 2.8932 -0.4652 1.9155 0.6832
.. .. .. .. .. ..
. . . . . .
x40 -10.5682 -2.4868 -1.3910 8.2370 6.0321

Cuadro 2.9: Valores obtenidos al aplicar el método de Newton a f (x) = x2 − 2x + 5

La tabla muestra las sucesiones originadas a partir de diferentes valores iniciales,


las mismas oscilan de izquierda a derecha sin converger, por lo tanto ninguna de las
aproximaciones que se verifican son un valor aproximado de la raíz.
Capítulo 3

El método de Newton
aplicado a la ecuación de
Kepler

3.1. Introducción histórica a la ecuación de Kepler.


Johannes Kepler (1571 − 1630) fue un astrólogo ale-
mán nacido en Württemberg. Realizó sus estudios en la
Universidad de Tübingen, donde su maestro M. Mästlin
le inició en el sistema heliocéntrico de Copérnico. En-
señó matemática en Heidelberg y Tubinga. En su obra
Materium Cosmographicum mostró que los planos de las
órbitas planetarias son próximos entre sí, pero diferen-
tes, y que las mismas pasan, no por el centro de la órbita
terrestre, como lo había establecido Copérnico, sino por
el sol. En 1600, un edicto de la iglesia católica le obliga
a renunciar a su cátedra en la universidad de Graz; emi-
grando a Dinamarca, donde inicia a trabajar con Tycho
Brahe. Kepler, a la muerte de Tycho Brahe, quedo en Figura 3.1: Johannes
posesión de sus datos astronómicos, los cuales eran para Kepler (1571 − 1630)
su época, los más precisos.
Fue alrededor del año 1609, cuando Kepler, en su libro Astronomia Nova, enunció
la ley de las órbitas, cuya expresión analítica es una ecuación algebraica no lineal de
la forma
f (E) = E − e sen E − M. (3.1)

Para la solución de la ecuación de Kepler es necesario conocer los valores de la


anomalía media, M , y de la excentricidad, e, de la órbita. La ecuación de Kepler fue
una de las primeras ecuaciones que mediante métodos numéricos se le dio solución.
Desde los días de Newton este problema a sido extensamente estudiado y su solución
se a conseguido de diversas maneras. Esto, como lo establece Danby, [17] , demuestra
que el tema es abierto y existen muchas posibilidades para promover la invención de
nuevas alternativas de solución.
Veamos algunos momentos importantes en la solución de (3.1).
Jacques Cassini, [11], publicó un artículo en el cual emplea un método geométrico
para dar solución a la ecuación de Kepler. Para la anomalía excéntrica obtuvo la
expresión
1 1
EC = M + . (3.2)
2 2
Jeremiah Horrocks, en 1638, describe un método basado en diferencias apróxi-

43
44 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

madas, para tal caso emplea la fórmula

EH − M = e sen EH = sen(EH − M ). (3.3)

Donde
1 3
EH ≈e sen3 M + E.
6
Peder Horrebow, en 1717, obtuvo una solución de la ecuación de Kepler que está
estrechamente relacionada a la solución de Horrocks. Los detalles de la solución están
contenidos en unos artículos publicados en 1717 y 1718, los cuales fueron compilados
en 1742 en un manuscrito titulado Adytum Astronomiae.

E = M − e sen(∠BCF ). (3.4)

Donde ∠BCF es E0 .
Cristopher Wren, en 1658, ofrece una solución de la ecuación de Kepler basada
en las cicloides, la misma aparece en un tratado publicado por John Wallis, [89]. La
solución que aparece en la sección De problemate Kepleriano per cycloidem solvendo
es
E = M − e sen E = |OH| + |HF | = |OF |. (3.5)
Isaac Newton, en el Libro I, proposición 31 de la Principia de 1686, emplea la
construcción de Wren para ubicar la posición de un planeta en una órbita elíptica,
pero luego, en el Scholium, presenta una forma más práctica de resolver ese problema.
John Couch Adams, en [1], presenta un método basado en la curva de los senos.

E = M − e sen E. (3.6)

T. Levi-Civita, [51], presenta una interesante solución a la ecuación de Kepler en


forma de series infinitas. Su trabajo fue puramente analítico. Demostró que si

e exp( 1 − e2 )
z= √ , 0 ≤ e < 1, (3.7)
1 + 1 − e2
entonces la ecuación de Kepler tendrá por solución a

X
E= Ln (M )z n , 0 ≤ z < 1. (3.8)
n=0

K. Stumpff, [80], aplicó las series de Lie a algunos problemas de la mecánica


celeste, obteniendo una solución en series de Lie para la ecuación de Kepler.
h i X ∞
(M − M0 )n n
E = exp (M − M0 )D(x)|x=E0 = D (x)|x=E0 , (3.9)
n=0
n!

donde D(x) es un operador lineal de la forma


1
D(x) = . (3.10)
1 − e cos x
En este acápite se considera la famosa ecuación de Kepler, consúltese (2.1), donde
e y M son conocidos, como función test para analizar diversos resultados de con-
vergencia semilocal para el método de Newton-Raphson. En concreto, se estudian
los resultados dados por Kantorovich ([46]) y Smale ([77], [87]) y algunas de sus
variantes ([35], [88]). Dichos resultados, además de garantizar la convergencia del
método de Newton-Raphson a una solución de (2.1), pueden verse también como
unos resultados de existencia y unicidad de solución para la ecuación de Kepler.
Así, y generalizando el trabajo realizado en [97], obtendremos distintos dominios de
existencia y unicidad de la forma

[M − t∗ , M + t∗ ] y (M − t∗∗ , M + t∗∗ ), respectivamente.


3.2. EL TEOREMA DE KANTOROVICH 45

Los valores de t∗ y t∗∗ están dados en función de la excentricidad e de la órbita.


Tanto en la teoría de Kantorovich como en la de Smale (α-teoría), la idea de
la demostración consiste en construir una función mayorizante de la cual obtener
información sobre la convergencia del método de Newton-Raphson.
Así, sea φ(t) una función mayorizante obtenida por alguna de las teorías conside-
radas. Se comprobará que φ(t) tiene dos raíces: t∗ y t∗∗ que son las que proporcionan
los dominios de existencia y unicidad buscados.
Aunque la idea que presentamos se aplica a la ecuación de Kepler, se podría
seguir el mismo esquema para otros tipos de ecuaciones: Complejas, sistemas de
ecuaciones, ecuaciones funcionales, etc.
En lo que sigue:
1. Vamos a construir la función mayorizante para la ecuación de Kepler siguiendo
4 teorías:

i) Kantorovich, ([46]).
ii) Gutiérrez, ([35]).
iii) α-teoría de Smale (artículo de Zhen-Shi-Ming), ([97]).
iv) α-teoría de Wang-Zhao, ([87]).

2. Vamos a ver bajo qué condiciones la correspondiente función mayorizante tiene


raíces reales. Esto nos va a dar un resultado que garantiza la existencia de
solución para la ecuación de Kepler en términos de la excentricidad e.
3. Vamos a determinar los correspondientes dominios de existencia y unicidad en
cada caso.

3.2. El teorema de Kantorovich


Teorema 9. Si e ≤ 0.4142, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo

[M − t∗ , M + t∗ ]. (3.11)

y es única en
(M − t∗∗ , M + t∗∗ ), (3.12)
donde

∗ 1− 1 − 2δ
t = .
√δ
1 + 1 − 2δ
t∗∗ = ,
δ
son las raíces del polinomio mayorizante
1 2 e
p(t) = δt − t + δ, con δ = .
2 1−e
Además, el método de Newton-Raphson, definido por

f (En )
En+1 = En − , n ≥ 0, (3.13)
f 0 (En )
iniciando en E0 = M , converge a dicha solución.
Demostración. Tomemos E0 = M en el teorema de Kantorovich. Luego se deben
cumplir las siguientes condiciones:

i) f 0 (E0 ) 6= 0.
46 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

0)
ii) ff0(E
(E0 ) ≤ β.

(y)
iii) f (E)−f
f 0 (E0 ) ≤ γ(E − y), ∀E, y ∈ I.

iv) h = γβ ≤ 12 .

Para ello, calcularemos los parámetros β y γ.


Notemos que

f 0 (E) = 1 − e cos E ⇒ |f 0 (E0 )| ≥ 1 − e.


f 0 (y) = 1 − e cos y.
|f (E0 )| ≤ |e sen E0 | ≤ e.
|f (E) − f 0 (y)| = e| cos E − cos y| ≤ e|E − y|.
0

Así f (E )
0 e
0 ≤ = β = δ.
f (E0 ) 1−e
Además f (E) − f (y)
e
≤ |E − y|, por lo que γ = δ.
f 0 (E0 ) 1−e
Luego
 e 2 1
h = γβ = δ 2 = ≤ .
1−e 2
Y por tanto

2e2 ≤ (1 − e)2 ⇔ 2e2 ≤ 1 − 2e + e2 ⇔ 0 ≤ 1 − 2e − e2 ⇔ 0 ≤ 2 − (1 − 2e + e2 ).

Luego √ √
0 < 2 − (1 + e2 ) ⇔ (1 + e)2 ≤ 2 ⇔ − 2 ≤ 1 + e ≤ 2. (3.14)
Tomando la parte positiva de (3.14) se sigue
√ √
1 + e ≤ 2 ⇔ e ≤ 2 − 1 ≈ 0.4142.

Notemos que la condición e ≤ 0.4142 garantiza tres cosas:

1. La ecuación de Kepler tiene solución: E ∗ .

2. El polinomio mayorizante p(t) = 1/2δt2 − t + δ tiene soluciones reales: t∗ y t∗∗ .

3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en


(M − t∗∗ , M + t∗∗ ).

Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =


M , converge a E ∗ .

3.3. El teorema de Gutiérrez


Como vimos en el acápite anterior, el teorema de Kantorovich presenta las si-
guientes condiciones:

i) x0 ∈ I.

ii) f 0 (x0 ) 6= 0.

0)
iii) ff0(x
(x0 ) ≤ β.
0
0
(y)
iv) f (x)−f
f 0 (x0 ) ≤ γ|x − y|, ∀x, y ∈ I.
3.3. EL TEOREMA DE GUTIÉRREZ 47

v) h = γβ ≤ 1/2.
En 1997, José Manuel Gutiérrez presentó un nuevo teorema de convergencia
semilocal para el método de Newton-Raphson. En dicho teorema Gutiérrez no toma
en cuenta la condición v) de Kantorovich, sino que la sustituye por dos expresiones
en que se aplica la derivada segunda de la función en x
00
(x0 )
1. ff 0 (x0 ) ≤ b.
00
00
(x0 )
2. f (x)−f
f 0 (x0 ) ≤ K|x − x0 |.

Además, aplica la condición iii) en la forma


f (x )
0
0 ≤ a,
f (x0 )
con lo que se obtiene el nuevo polinomio mayorizante
b K
p(t) = a − t + t2 + t3 . (3.15)
2 6
Los detalles de la demostración de éste teorema se encuentran en [35]. A conti-
nuación analizaremos su aplicación al caso de la ecuación de Kepler.
Teorema 10. Si e ≤ 0.3759, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo (3.11) y es única en (3.12) donde t∗ y t∗∗
son las raíces del polinomio mayorizante
1 1 e
p(t) = δ − t + δt2 + δt3 , con δ = .
2 6 1−e
Además, el método de Newton-Raphson, definido por (3.13), iniciando en E0 =
M , converge a dicha solución.
Demostración. Tomemos a E0 = M en el teorema de Gutiérrez. Luego se deben
cumplir las siguientes condiciones:

0)
i) ff0(E
(E0 ) ≤ a.
00
(E0 )
ii) ff 0 (E 0)
≤ b.
00
00
(E0 )
iii) f (E)−f
0
f (E0 ) ≤ K|E − E0 |.

Ahora calcularemos los parámetros a, b y K. Observemos que

f 0 (E) = 1 − e cos E ⇒ |f 0 (E0 )| = |1 − e cos E| ≥ 1 − e.


f 00 (E) = e sen E ⇒ |f 00 (E0 )| = |e sen E0 | ≤ e.
|f 00 (E) − f 00 (E0 )| = e| sen E − sen E0 | ≤ e|E − E0 |.

luego
f (E ) e
0
0 ≤ = a.
f (E0 ) 1−e
f 00 (E ) e
0
0 ≤ = b.
f (E0 ) 1−e
f 00 (E) − f 00 (E ) e e
0
≤ |E − E0 | ⇒ K = .
f 0 (E0 ) 1−e 1−e
Así
e
a=b=K= = δ. (3.16)
1−e
48 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

Sustituyendo (3.16) en (3.15) se obtiene

δ δ
p(t) = δ − t + t2 + t3 . (3.17)
2 6
cuya gráfica es

p HtL

m
*
M t* t*

Figura 3.2: Gráfica del polinomio mayorizante p(t) = δ − t + 2δ t2 + 6δ t3

En donde M y m representan el máximo y el mínimo de la función p(t) respec-


tivamente, analicemos a (3.17).

1
p0 (t) = −1 + δt + δt2 ⇒ p0 (0) = −1 < 0.
2
p00 (t) = δ + δt > 0, ∀δ > 0.

Entonces existe un único mínimo t̂ tal que p0 (t̂) = 0. Luego


√ r
0 −δ ± δ 2 + 2δ 2
p (t̂) = 0 ⇔ t̂ = = −1 ± 1 + .
δ δ
Tomando la raíz positiva se sigue
r
2
t̂ = −1 + 1+ .
δ
Notemos que haciendo
∆ = 1/δ, se sigue (3.18)

t̂ = −1 + 1 + 2∆.
y
1 1 1
p(t̂) = (1 − ∆t̂ + t̂2 + t̂3 ). (3.19)
∆ 2 6
Apliquemos la condición de convergencia a (3.19). Sea p(t̂) < 0, luego

1 1 1
p(t̂) = (1 − ∆t̂ + t̂2 + t̂3 ).
∆ 2 6
1 √ √
= (4 − 1 + 2∆ + ∆(3 − 2 1 + 2∆)) < 0.
3∆
1 4 1√ 2 √
= ( +∆− 1 + 2∆ − ∆ 1 + 2∆) < 0. (3.20)
∆ 3 3 3
Recordemos que ∆ > 0, luego (3.20) será cierto si y solo si

4 1√ 2 √
+∆− 1 + 2∆ − ∆ 1 + 2∆ < 0. (3.21)
3 3 3
3.4. LA α-TEORÍA DE SMALE 49

De (3.21) se sigue
√ √ √ 3
4 + 3∆ < 1 + 2∆ + ∆ 1 + 2∆ = 1 + 2∆(1 + 2∆) = (1 + 2∆) 2 .
(4 + 3∆)2 < (1 + 2∆)3 .
16 + 24∆ + 9∆2 < 1 + 6∆ + 12∆2 + 8∆3 .

Luego
8∆3 + 3∆2 − 18∆ − 15 > 0 ⇔ ∆ ≈ 1.66032. (3.22)
Sustituyendo (3.22) en (3.18) se sigue

1
δ< . (3.23)

Sustituyendo (3.23) en (3.16)

e 1 1
< ⇔e< ≈ 0.3759.
1−e ∆ 1+∆
Notemos que la condición e ≤ 0.3759 también nos garantiza tres cosas:

1. La ecuación de Kepler tiene solución: E ∗ .

2. El polinomio mayorizante p(t) = δ − t + 12 δt2 + 16 δt3 tiene dos soluciones reales:


t∗ y t∗∗ .

3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en


(M − t∗∗ , M + t∗∗ ).

Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =


M , converge a E ∗ .

3.4. La α-teoría de Smale


Teorema 11. Si e ≤ 0.3594, entonces la ecuación de Kepler tiene solución. Dicha
solución está localizada en el intervalo (3.11) y es única en (3.12) donde t∗ y t∗∗
son las raíces de la función mayorizante

γt2
φ(t) = δ − t + .
1 − γt

Con δ definido en 3.16 y


δ k−11
γ = sup( ) .
k≥2 k!
Además, el método de Newton-Raphson, definido por (3.13), iniciando en E0 =
M , converge a dicha solución.

Demostración. Tomemos a E0 = M en el teorema de la α-teoría de Smale. Luego


se deben cumplir las siguientes condiciones:

i) f 0 (E0 ) 6= 0.

0)
ii) β(E0 , f ) = ff0(E
(E0 ) .

1 f
(k)(E )
0
iii) k! f 0 (E0 ) ≤ γ k−1 , k ≥ 2.

iv) α = βγ ≤ 3 − 2 2.
50 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

Calculemos los parámetros β, γ y α.


Notemos que

f 0 (E) = 1 − e cos E ⇒ |f 0 (E0 )| ≥ 1 − e.


00
f (E) = e sen E ⇒ |f 00 (E0 )| ≤ e.
f 000 (E) = e cos E ⇒ |f 000 (E0 )| ≤ e.
..
.
|f k (E0 )| ≤ e, k ≥ 2.

Así
f (E ) e
0
β(E0 , f ) = 0 ≤ .
f (E0 ) 1−e
1 f (k) (E ) k−1
1 h e i k−1
1
0
γ(E0 , f ) = ≤ , k ≥ 2.
k! f 0 (E0 ) k!(1 − e)
" # 1
 e k 1 k−1 √
α = βγ ≤ ≤ 3 − 2 2. (3.24)
1 − e k!

Consideremos a (3.24)
Sea " # k−1
1
 e k 1 √
α≤ ≤ α0 ≤ 3 − 2 2. (3.25)
1 − e k!
Luego, de (3.25) se sigue
 e k 1
≤ α0k−1 .
1 − e k!
 e k
≤ α0k−1 k!.
1−e
 e  1
≤ (α0k−1 k!) k . (3.26)
1−e
Ahora, sea
1
δk = (α0k−1 k!) k , k ≥ 2. (3.27)
Necesitamos conocer el mínimo valor de δk .
De (3.27) se sigue
1
δk+1 = [α0k (k + 1)!] k+1 .
y
δkk = (α0k−1 k!), k ≥ 2.
Por tanto
h i k+1
1

δk+1 α0k (k + 1)!   k+1


k
− k−1
k
  k+1
1 1
−k 1
= h i k1 = α0 k! (k + 1) k+1 .
δk
α0k−1 k!
h α (k + 1)k i k(k+1)
1
0
= , k ≥ 2. (3.28)
k!
Ahora utilizaremos (3.28) para hallar el mínimo de δk . Lo haremos por inducción.
Si k = 2, luego

δ3 h 9α i 16 h 9(3 − 2√2) i 16
0
= = = 0,772 . . . < 1.
δ2 2 2
Entonces δ3 < δ2 .
3.5. LA α-TEORÍA DE WANG-ZHAO 51

Para k = 3 se sigue

δ4 h 64α i 12
1 h 64(3 − 2√2) i 12
1
0
= = = 1,83 . . . > 1.
δ3 9 9
Por tanto δ4 > δ3
Luego, si k ≥ 3, entonces
 k+1
k+2
 
k+1 !  k + 2 k+1
 k = > 1.
k+1
k+1
k!

Por tanto δk+1 > δk , ∀k ≥ 3.


Así, el mínimo corresponde a k = 3, luego
1
δ3 = [6α02 ] 3 = 0.5610688.

Conocido el ínfimo de δk , inmediatamente de (3.26) podemos conocer el mínimo


valor de e. Así
e δ3
≤ δ3 ⇔ e ≤ (1 − e)δ3 ⇔ e(1 + δ3 ) ≤ δ3 ⇔ e ≤ ≈ 0.3594.
1−e 1 + δ3
Notemos que la condición e ≤ 0.3594. otra vez nos garantiza tres cosas:

1. La ecuación de Kepler tiene solución: E ∗ .


δ 2 t2
2. La función mayorizante φ(t) = δ − t + 1−δt tiene soluciones reales: t∗ y t∗∗ .

3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en


(M − t∗∗ , M + t∗∗ ).

Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =


M , converge a E ∗ .

3.5. La α-teoría de Wang-Zhao


Como hemos visto, la α-teoría de Smale es una técnica muy conocida para es-
tudiar la convergencia semilocal del método de Newton-Raphson, esto es, establece
sobre un punto inicial x0 y una función f ciertas condiciones que permiten al método
de Newton-Raphson converger.
Recordemos que las condiciones impuestas por la α-teoría son:

i) f 0 (x0 ) 6= 0.

0)
ii) ff0(x
(x0 ) ≤ β.

1 f (x0 )
(k)
iii) k! f 0 (x0 ) ≤ γ k−1 , k ≥ 2.

iv) α = βγ ≤ 3 − 2 2.

También recordemos que que los resultados de la convergencia son probados a


partir de de la siguiente función mayorizante
X γt2
φS (t) = β − t + γ k−1 tk = β − t + .
1 − γt
k≥2
52 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

Wang y Zhao,[87], consideraron que la condición iv) es muy restrictiva y de-


mostraron que la convergencia del método de Newton-Raphson se puede obtener,
además de las dos primeras condiciones, a partir de las condiciones del tipo

1 f (k) (x0 )
≤ γk , k ≥ 2,
k! f 0 (x0 )

y la función mayorizante
X
φW (t) = β − t + γk tk . (3.29)
k≥2

Notemos que γk ≤ γ k−1 , para k ≥ 2. Luego φW (t) ≤ φS (t), para t ≥ 0. En


consecuencia φS (t) mayoriza a φW (t), por tanto φS (t) = 0 implica que φW (t) = 0,
pero no lo contrario.
El trabajo de Wang y Zhao tiene un gran significado teórico, pues los mismos pue-
den ser aplicados a situaciones donde la α-teoría de Smale falla. En [34] encontramos
un ejemplo que ilustra éste caso.
A continuación presentamos un teorema en el que se aplica la α-teoía de Wang-
Zhao a la ecuación de Kepler.

Teorema 12. Si e ≤ 0.3678, entonces la ecuación de Kepler tiene solución. Dicha


solución está localizada en el intervalo (3.11) y es única en (3.12) donde t∗ y t∗∗
son las raíces de la función mayorizante
e
φ(t) = δ exp(t) − (1 + δ)t, con δ = .
1−e

Además, el método de Newton-Raphson, definido por (3.13), iniciando en E0 =


M , converge a dicha solución.

Demostración. Tomemos a E0 = M en el teorema de la α-teoría de Wang-Zhao.


Luego se deben cumplir las siguientes condiciones:

i) f 0 (E0 ) 6= 0.

0)
ii) β(E0 , f ) = ff0(E
(E0 ) .


1 f (E0 )
(k)
iii) k! f 0 (E0 ) ≤ γk , k ≥ 2.

Para ello calcularemos los parámetros β y γ.


Observar que

f 0 (E) = 1 − e cos E ⇒ |f 0 (E0 )| ≥ 1 − e.


f 00 (E) = e sen E ⇒ |f 00 (E0 )| ≤ e.
f 000 (E) = e cos E ⇒ |f 000 (E0 )| ≤ e.
..
.
|f k (E0 )| ≤ e, k ≥ 2.

Así
f (E ) e
0
β(E0 , f ) = 0 ≤ , por tanto β = δ. (3.30)
f (E0 ) 1−e
1 f (k) (E0 ) 1 e  δ
≤ = γk , por lo que γk = . (3.31)
k! f 0 (E0 ) k! 1 − e k!
3.5. LA α-TEORÍA DE WANG-ZHAO 53

Sustituyendo (3.30) y (3.31) en (3.29) se sigue


X X 1
δ−t+ γk tk = δ − t + δtk .
k!
k≥2 k≥2
X tk
= δ−t+δ .
k!
k≥2
= δ − t + δ[exp(t) − 1 − t].
= δ exp(t) − (1 + δ)t = p(t). (3.32)
Cuya gráfica es

p HtL

Figura 3.3: Gráfica del polinomio mayorizante p(t) = δ exp(t) − (1 + δ)t

En donde m también representa el mínimo de la función p(t), analicemos a (3.32)


p0 (t) = δ[exp(t)] − (1 + δ) ⇒ p0 (0) = δ − 1 − δ = −1 < 0.
p00 (t) = δ[exp(t)] ⇒ f 00 (t) > 0, ∀t > 0.
Luego, existe un único mínimo t̂ tal que p0 (t̂) = 0. Notar que
p0 (t̂) = δ[exp(t̂)] − (1 + β) = 0.
Por tanto
1+δ 1
δ[exp(t̂)] = 1 + δ ⇔ exp(t̂) = ⇔ exp(t̂) = 1 + .
δ δ
Luego
1
t̂ = ln(1 + ). (3.33)
δ
Ahora analicemos la condición de convergencia de p(t̂). Sea p(t̂) < 0, luego
p(t̂) = δ[exp(t̂)] − (1 + δ)t̂ < 0. (3.34)
Sustituyendo (3.33) en (3.34) se sigue
h   1 i  1
p(t̂) = δ exp ln 1 + − (1 + δ) ln 1 + < 0.
δ δ
 1   1 
= δ 1+ − (1 + δ) ln 1 + < 0.
δ δ
 1 
= (1 + δ) − (1 + δ) ln 1 + < 0.
δ
h  1 i
= (1 + δ) 1 − ln 1 + < 0. (3.35)
δ
Recordemos que (1 + δ) > 0, luego (3.35) será cierto si y sólo si
 1
1 − ln 1 + < 0. (3.36)
δ
54 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

De (3.36) sigue
 1 1 1
1 < ln 1 + ⇔ exp(1) < 1 + ⇔ exp(1) − 1 < .
δ δ δ
Luego
1
δ= . (3.37)
exp(1) − 1
Sustituyendo (3.30) en (3.37)
e 1 1
< ⇔ e exp(1) − e < 1 − e ⇔ e < ≈ 0.3678.
1−e exp(1) − 1 exp(1)
Notemos que la condición e ≤ 0.3678. también nos garantiza tres cosas:
1. La ecuación de Kepler tiene solución: E ∗ .
2. La función mayorizante φ(t) = δ exp(t) − (1 + δ)t tiene soluciones reales: t∗ y
t∗∗ .
3. E ∗ está localizada en el intervalo [M − t∗ , M + t∗ ] y es la única solución en
(M − t∗∗ , M + t∗∗ ).
Por último, el método de Newton-Raphson definido por (3.13), iniciando en E0 =
M , converge a E ∗ .

3.6. Ejemplos numéricos.


En esta sección describiremos el comportamiento de los radios de existencia, t∗ ,
y de los radios de unicidad, t∗∗ , bajo las diferentes teorías estudiadas. Así, t∗K , t∗G ,
t∗S and t∗W −Z , serán los radios de existencia obtenidos bajos las condiciones de las
teorás de Kantorovich, Gutiérrez, Smale y wang-Zhao respectivamente. Asimismo,
t∗∗ ∗∗ ∗∗ ∗∗
K , tG , tS and tW −Z serán los radios de unicidad.

Condición √
t∗ t∗∗

1− 1−2δ 2 1+ 1−2δ 2
Kantorovich δ δ
Gutiérrez Menor raíz√positiva de p(t) Mayor raíz√positiva de p(t)
3 3 2 3 3 3 2 3
(1+δ )− (1+δ ) −8δ (1+δ )+ (1+δ ) −8δ
α-teoría de Smale 4δ 2 4δ 2
α-teoría de Wang-Zhao Menor raíz positiva de φ(t) Mayor raíz positiva de φ(t)

Cuadro 3.1: Radios de existencia, t∗ , y de unicidad, t∗∗ , en función del parámetro


δ.

En concreto, véase el Cuadro 3.1, si tomamos E0 = M e introducimos el paráme-


e
tro δ = 1−e , siendo e la excentricidad de la elipse, podemos ver en qué condiciones
se asegura la existencia y unicidad de solución para la ecuación de Kepler.

Condición Función mayorizante e


Kantorovich p(t) = 12 δt2 − t + δ e ≤ 0.4142
Gutiérrez p(t) = δ − t + 21 δt2 + 16 δt3 e ≤ 0.3759
γt2
α-teoría de Smale φ(t) = δ − t + 1−γt , γ = supk≥2 (δ/k!)1/(k−1) e ≤ 0.3594
α-teoría de Wang-Zhao φ(t) = δ exp(t) − (1 + δ)t e ≤ 0.3678

Cuadro 3.2: Funciones mayorizantes en función del parámetro δ y valores de e para


los cuales existe solución

Comparando los dominios de existencia y unicidad de solución obtenidos según


las distintas técnicas, véase el Cuadro 3.2. Se observa que, bajo las condiciones
3.6. EJEMPLOS NUMÉRICOS 55

de Cauchy-Kantorovich, la ecuación de Kepler posee el mayor rango de solución


(e ≤ 0.4142).
La comparación, véase nuevamente el Cuadro 3.2, también nos permite verificar
que bajo las condiciones del teorema de Gutiérrez, la ecuación de Kepler posee un
rango de solución, (e < 0.3759), mayor que bajo las condiciones de la α-teoría de
Wang-Zhao, (e < 0.3678), y de la α-teoría de Smale (e ≤ 0.3594).

Casos t∗K t∗G t∗S t∗W −Z


Mercurio 0.269 0.268 0.267 0.263
[-0.24, 0.29] [-0.24, 0.29] [-0.24, 0.29] [-0.24, 0.28]
Hungaria 0.079 0.079 0.079 0.079
[2.08, 2.24] [2.08, 2.24] [2.08, 2.24] [2.08, 2.24]

Cuadro 3.3: Dominios de existencia de solución, según las teorías en dos casos reales.

Aplicando los resultados obtenidos a dos casos reales, en concreto, se analizan los
caso del planeta Mercurio, cuya e = 0.205 y M = 0.0067π, y del asteroide Hungaria,
para el cual e = 0.073 y M = 0.69π, e comprueba que los dominios de existencia de
solución, véase Cuadro 3.3, para las diferentes técnicas aplicadas, son prácticamente
iguales.

Casos t∗∗
K t∗∗
G t∗∗
S t∗∗
W −Z
Mercurio 7.459 3.363 3.739 7.330
(-7.43, 7.48) (-3.34, 3.38) (-3.719, 3.761) (-7.31, 7.35)
Hungaria 25.09 7.271 12.659 79.166
(-22.9, 27.2) (-5.10, 9.43) (-10.4, 14.8) (-77.0, 81.3)

Cuadro 3.4: Dominios de unicidad de solución, según las teorías en dos casos reales.

En cuanto a los dominios de unicidad de solución, consúltese el cuadro 3.4, se ve-


rifica que bajo las condiciones de la Gutiérrez y de Kantorovich, el planeta Mercurio
posee el menor y mayor dominio de unicidad respectivamente. Asimismo, para las
condiciones de Gutiérrez y la α-teoría de Wang-Zhao, el asteroide Hungaria posee
el menor y mayor dominio de unicidad respectivamente.
Finalmente, hacemos un estudio comparativo de cómo se comportan los radios
de existencia y unicidad de solución para la ecuación de Kepler, obtenidos a partir
de los diferentes resultados de convergencia semilocal estudiados. Analizamos su
comportamiento en función de la excentricidad e.

e t∗K t∗G t∗S t∗W −Z


0,05 0.0527047 0.052706 0.0530554 0.052706
0,1 0.111806 0.111832 0.113400 0.111833
0,15 0.179307 0.179483 0.183295 0.179491
0,2 0.258343 0.259118 0.266465 0.259171
0,25 0.354249 0.357119 0.369312 0.357403
0,3 0.477412 0.487869 0.505545 0.489402
0,35 0.653407 0.702381 0.724562 0.716639

Cuadro 3.5: Dominios de existencia.

Entre el dominio de existencia y la excentricidad, consúltese el cuadro 3.5, existe


una relación directamente proporcional.
Para una misma excentricidad, véase nuevamente el cuadro 3.5, los dominios
de existencia que representan cada una de las teorías estudiadas son prácticamente
iguales.
56 CAPÍTULO 3. EL MÉTODO DE NEWTON APLICADO A LA EK

e t∗∗
K t∗∗
G t∗∗
S t∗∗
W −Z
0,05 37.9473 9.25181 3.33209 4.49976
0,1 17.8882 5.93227 2.80848 3.57715
0,15 11.154 4.40664 2.45821 2.99359
0,2 7.74166 3.45089 2.14796 2.54264
0,25 5.64575 2.75074 1.87743 2.15329
0,3 4.18925 2.17266 1.62167 1.78134
0,35 3.06088 1.60847 1.31745 1.34972

Cuadro 3.6: Dominios de unicidad.

Entre el dominio de unicidad y la excentricidad, véase el cuadro 3.6, existe una


relación inversamente proporcional.
Con la misma excentricidad, consúltese nuevamente el cuadro 3.6, en cada teoría
se obtienen dominios de unicidad completamente diferentes.
Bibliografía

[1] J. C. Adams: On Newton’s solution of Kepler’s problem. Monthly Notices of


Royal Astronomical Society, Vol. 43, (1882) pp. 43–49.
[2] S. Amat, S. Busquier, J. M. Gutiérrez, Geometric constructions of iterative
functions to solve nonlinear equations, Journal of Computational and Applied
Mathematics, 157 (2003) 197–205.
[3] S. Amat, S. Busquier, D. El Kebir, J. Molina, A fast Chebyshev’s method for
quadratic equations, Applied Mathematics and Computation, 148 (2004) 461–
474.
[4] I. K. Argyros, Newton methods. Nova Science Publisher, Inc, New York, 2004.
[5] A. Aubanell. A. Benseny y A. Delshams, Útiles básicos de cálculo numérico,
Editorial Labor, S. A, Barcelona, España, 1993.
[6] D. K. R. Babajee and M. Z. Dauhoo, An analysis of the properties of the variants
of Newton’s method wiht third order convergence, Applied Mathematics and
Computation, 183, Issue 1 (2006) 659–684.
[7] R. G. Bartle, Introducción al análisis matemático, Editorial Limusa, S. A, Mé-
xico. 1980.
[8] A. Ben-Israel, Newton’s Method with modified funtions, Contemporary Mathe-
matics, 204 (1997) 39–50.
[9] R. Burden and D. Faires, Análisis Numérico, Grupo Editorial Iberoamérica,
España, 1985.
[10] B. Carnahan and H. A. Luther, Applied Numerical Method, John Wiley and
Sons, New York, 1969.
[11] J. D. Cassini: Nouvelle manière géometrique et directe de trauver les apogées,
les excentricités, et les anomalies du mouvement des planètes. Memoires de l’
Académie Royale des Science, Vol. 10, (1669) pp. 488–491.
[12] A. L. Cauchy, Leçons sur le Calcul Differentiel, Sur la détermination approxi-
mative des racines d’une équation algébrique ou transcendante, París, 1829.
[13] S. C. Chapra and R. P. Canale, Numerical methods for engineers, McGrau-Hill,
1998.
[14] J. Chavarriga, I. A. García, J. Giné, Manual de métodos numéricos, Ediciones
de la Universidad de Lleida, 1998.
[15] A. M. Cohen, Análisis Numérico, Editora Reverté, S.A, 1977.
[16] D. Conte y C. De Boor, Análisis Numérico elemental, McGrau-Hill. Inc, USA,
1972.
[17] J. M. A. Danby and T. M. Burkardt: The solution of Kepler equation I. Celestial
Mechanics, Vol. 31, (1983) pp. 95–107.

57
58 BIBLIOGRAFÍA

[18] J. P. Dedieu and M. H. Kim, Newton’s method for analytic system of equations
with constant rank derivatives, Journal of Complexity, 18 (2002) 187–209.
[19] G. C. Donovan, A. R. Miller and T. J. Moreland, Pathological functions for
Newton’s method, American Mathematical Monthly, 100 (1993) 53–58.
[20] N. L. De la Caille, Sur les éléments de la théorie du soleil, Premier Mémoire,
Mémoires de l’Académie Royale des Sciences, A2 (1750) 166–178.
[21] J. M. Díaz y F. B. Trujillo, Introducción a los métodos numéricos para la re-
solución de ecuaciones, Servicio de publicaciones de la Universidad de Cádiz,
1998.
[22] P. Díez, A note on the convergence of the Secant Method for simple and multiple
roots, Applied Mathematics Letters, 16 (2003) 1211–1215.
[23] J. A. Ezquerro, J. M. Gutiérrez, M. A. Hernández y M. A. Salanova, El méto-
do de Halley: Posiblemente, el método más redescubierto del mundo,Margarita
Mathematica, Servicio de Publicaciones de la Universidad de la Rioja, Logroño,
2001.
[24] J. A. Ezquerro, Construcción de procesos iterativos mediante aceleración del
método de Newton, Tesis Doctoral, Servicio de Publicaciones de la Universidad
de la Rioja, Logroño, 1996.
[25] W. F. Ford and J. A. Pennline, Accelerate convergence in Newton’s method,
SIAM Review, 38 (1996) 658–659.
[26] J. S. Frame, A variation of Newton’s method. American Mathematical Monthly,
51 (1944) 36–38.
[27] C. E. Froberg, Introduction to numerical analysis, Addison-Wesley, Second edi-
tion, 1970.
[28] F. García y A. Nevot, Métodos numéricos en forma de ejercicios resueltos,
UPCU Departamento Publicaciones, Madrid, 1997.
[29] B. García, I. Higueras y T. Roldán, Análisis Matemático y Métodos Numéricos,
Universidad Pública de Navarra, Campus de Arrosadia, Pamplona, España,
2005.
[30] M. Gasca, Cálculo Numérico. Resolución de ecuaciones y sistemas, Editora
Librería Central, Zaragoza, 1987.
[31] E. Gaughan, Introducción al análisis, Editorial Alhambra S. A, Madrid, 1972.
[32] W. Gautschi, Numerical Analysis. An introduction, Birkhäuser Boston, USA,
1997.
[33] J. Gerlach, Accelerated convergence in Newton’s Method, SIAM Review, 36
(1994) 272–276.
[34] J. M. Gutiérrez, M. A. Hernández y M. Amparo Salanova, α-theory for nonlinear
Fredholm integral equations, Grazer Mathematische Berrichte, 346 (2004) 187–
196.
[35] J. M. Gutiérrez, A new semilocal convergence theorem for Newton’s method,
Journal of Computational and Applied Mathematics, 79 (1997) 131–145.
[36] J. M. Gutiérrez, El método de Newton en espacios de Banach, Tesis doctoral,
Universidad de La Rioja, Servicio de Publicaciones, Logroño, 1995.
[37] J. M. Gutiérrez y M. A. Hernández, A family of Chebyshev-Halley type method
in Banach spaces, Austral. Math. Soc. 55 (1997) 113–130.
BIBLIOGRAFÍA 59

[38] M. Grau: Eficiencia computacional de métodos iterativos con multiprescisión,


Comunicación particular.

[39] M. Grau and J. M. Gutiérez: Some family of zero-finder methods derive from
Obreshkov’s techiques, Comunicación particular.

[40] M. A. Hernández y M. A. Salanova, La convexidad en la resolución de ecua-


ciones escalares no lineales, Servicio de Publicaciones de la Universidad de la
Rioja, Logroño, 1996.

[41] F. H. Hildebrand, Introduction to Numerical Analysis, Dover Publications, Inc,


New York, 1974.

[42] P. Horton, No Fooling! Newton’s Method Can Be Fooled, Mathematics Magazi-


ne, 80 (2007) 383–387.

[43] J. A. Infante y J. M. Rey, Métodos numéricos. Teoría, problemas y prácticas


con MATLAB, Ediciones Pirámide, tercera edición, Madrid, 2007.

[44] L. V. Kantorovich, On Newton’s method for functional equations, Dokl. Akad.


Nauk, SSRR 59 (1948) 1237–1240.

[45] L. V. Kantorovich, The majorant principle and Newton’s method. Dokl. Akad.
Nauk, SSRR 76 (1951) 17–20.

[46] L. V. Kantorovich and G. P. Akilov, Functional Analysis, Pergamom, Oxford,


(1982).

[47] A. Kharab and R. B. Guen, An introduction to numerical methods. A MATLAB


approach, Chapman and Hall/ CRC, Florida, 2002.

[48] D. Kincaid, Análisis Numérico, Addison-Wesley Iberoamericana, 1991.

[49] E. Kobal, Notice concerned with the calculation of roots of numerical equations,
Monatsh. Math. 02 (2002) 331–332.

[50] R. J. Knill, A modified Babylonian algorithm, Amer. Math. Monthly, 99 (1997)


734–737.

[51] T. Levi-Civita: Sopra la equazione di Kepler. Astronomische Nachrichten, Vol.


164, (1904) pp. 313–314.

[52] O. M. López, Métodos iterativos de resolución de ecuaciones, Editorial Alham-


bra, S. A, Madrid, 1986.

[53] R. Lozada, Análisis Matemático, Ediciones Pirámide, Madrid, 1978.

[54] I. Martín. y V. M. Pérez, Cálculo numérico para computación en ciencia e


ingeniería. MATLAB, Editora Síntesis S.A, Madrid, 1998.

[55] V. Muto, Curso de métodos numéricos, Servicio editorial de la Universidad del


Pais Vasco, 1998.

[56] S. Nakamura, Análisis numérico y visualización gráfica con MATLAB, Prentice-


Hill Inc, A Simon y Schuster Company, Mexico, 1997.

[57] C. Neuhauser, Matemática para ciencias, Pearson Educación, S. A, Madrid,


2004.

[58] I. Newton, Sir Isaac Newton Mathematical Principles of Ntural Philosophy and
his System of the World, University of California Press, Berkeley, 1934.

[59] A. Newmaier, Introduction to numerical analysis, Cambridge University Press,


UK, 2001.
60 BIBLIOGRAFÍA

[60] J. M. Ortega and W. C. Rheinbolt, Iterative Solution of Nonlinear Equations


in Several Variables, SIAM, Philadelphia, 2000.

[61] M. A. Ostrowski, Solution of Equations and Sistems of Equations, Academic


Press, New York, 1966.

[62] M. A. Ostrowski, Solution of Equations in Euclidean and Banach Spaces, Aca-


demic Press, New York, 1976.

[63] A. Y. Özban, Some new variants of Newton’s method, Applied Mathematics


Letters, 17 (2004) 667–682.

[64] J. R. Pastor, P. Callejas y C. Trejo, Análisis Matemático, Editora Kapeluz,


Argentina, 1969.

[65] M. Pal, Numerical analysis for scientists and engineers, Alpha Science Interna-
tional Ltd, United Kingdom, 2007.

[66] A. Quarteroni y F. Saleri, Cálculo científico con MATLAB y Octave, Springer-


Verlag, Roma, 2006.

[67] V. Ramírez, D. Barrera, M. Pasadas y P. González, Cálculo numérico con Mat-


hematica, Editora Ariel, Barcelona, 2001.

[68] A. Ralston, Introducción al análisis numérico, Editora Limusa, México, 1978.

[69] F. J. Rodríguez, Cálculo y Métodos Numéricos. Teoría, Algoritmos y Proble-


mas resueltos, Universidad Pontificia de Comillas, Colección Ingeniería, Madrid,
España, 2003.

[70] T. R. Scavo and J. B. Thoo, On the geometry of Halley’s method, American


Mathematical Monthly, 102 (2002) 417–426.

[71] F. Scheid, Análisis Numérico, McGrau-Hill, México, 1998.

[72] E. Schröder, On infinitely many algorithms for solving equations, Math. Ann.
02 (1870) 317–365.

[73] R. E. Scraton, Métodos numéricos básicos, McGrau-Hill, México, 1987.

[74] J. N. Sharma, Numerical methods for engineers and scientists, Alpha Science
International LTD, Second edition, 2007.

[75] W. T. Shaw, Complex analysis with Mathematica, Cambridge University Press,


United Kingdom, 2006.

[76] S. Smale, The fundamental theory for solving equations, The international con-
gress of mathematicians, Providence, USA, 1987.

[77] S. Smale, Newton’s method estimates from data at one point, The Merging of
Disciplines: New Directions in Pure Applied and Computational Mathematics,
R. Ewing, K. Gross and C. Martin (eds.), pp 185–196, Springer-Verlag, USA,
1986.

[78] M. Spivac, Calculus. Cálculo infinitesimal, Editora Reverté, S. A, Segunda edi-


ción, Barcelona, 1992.

[79] G. W. Steward, Afternotes on numerical analysis, SIAM, Philadelphia, 1996.

[80] K. Stumpff: On the application of Lie-series to problems of celestial mechanics.


National Aeronautics and Space Administration. Tecnical notes. USA. 1986.

[81] E. Süli and D. Mayers, An introduction to numerical analysis, Cambridge Uni-


versity Press, UK, 2003.
BIBLIOGRAFÍA 61

[82] J. F. Traub, Iterative methods for the solution of equations, Prentice -Hall,
Englewood Cliffs, N.J, 1964.

[83] N. Ujeviéc, An iterative method for solving nonlinear equations, Journal of


Computational and Applied Mathematics, 2 (2006) 1–9.

[84] J. L. Varona, Graphic and numerical comparisons between iterative methods,


Math. Intelligencer, 24 (2002) 37–46.

[85] J. L. Varona, Representación gráfica de fractales mediante un programa de cálcu-


lo numérico simbólico, La Gaceta de la RSME, 6 (2003) 214–230.

[86] O. Vaarmann, High order iterative methods for decomposition-coordination pro-


blems, Technological and economic development of economy, XII (2006) 56–61.

[87] D. Wang y F. Zhao, The Theory of Smale’s Point Estimation and its Applica-
tions, Journal of Computational and Applied Mathematics, 60 (1995) 253–269.

[88] X. H. Wang, Convergence of Newton’s method and uniqueness of the solution


of equations in Banach space, IMA J. Numer. Anal. 20 (2000) 123–134.

[89] J. Wallis: Problematis Kepleriani per cycloidem solutio. Opera Mathematica,


Vol.1, (1695) pp. 540 − −541.

[90] S. Weerakoon and T. G. I. Fernando, A variant of Newton’s method with accele-


rated third-order convergence, Applied Mathematics Letters, 13 (2000) 87–93.

[91] S. Wolfram, The Mathematica Book, Cambridge University Press, U. K, 1996.

[92] C. Woodford and C. Phillips, Numerical methods with worked examples,


Chapman-Hall, U. K, 1997.

[93] D. T. Whiteside, The mathematical papers of Isaac Newton, Cambridge Uni-


versity Press. 06 (1974) 308–323.

[94] T. Yamamoto, Historical development in convergence analysis for Newton’s and


Newton-like methods, Journal of Computational and Applied Mathematics, 124
(2000) 1–23.

[95] D. M. Young. and R. G. Todd, A Survey of Numerical Mathematics, Dover


Publications, Inc, New York, 1973.

[96] T. J. Ypma, Historical Developmente of Newton-Raphson Method, SIAM Re-


view, 37 (1965) 531–551.

[97] Zhen Shi-Ming, Point estimates for Halley’s iteration, Acta Mathematicae Apli-
cate Sinica, 14 (1991) 381–383.

[98] http://www.uv.es/diazj/cn_tema2.pdf

[99] http://www.wikipedia.org/wiki/Metodo_de_Newton.html

[100] http://www.uam.es/personalpdi/ciencias/barcelo/cnumerico.html

[101] http://www.neoparaiso.com/logo/metodo-newton.html

[102] http://www.numericalmethods.eng.usf.edu/mws/gen/03n/e/mws.pdf

[103] http://www.descartes.cnice.mecd.es/materialesdidacticos.html

[104] http://www.cidse.itcr.ac.cr/revistamate/HERRAmInternet/ecuaexcl/lnode5.html

[105] http://www.docentes.uacj.mx/gtapia/AN/Unidad21/Newton.html

[106] http://www.numbers.computation.free.fr/Constant/Algoritms/newton.html
62 BIBLIOGRAFÍA

[107] http://www.allege.com/artigos/newtoncas.pdf
[108] http://www.pgrafica.webideas4a11.com/newton_raphson.html
[109] http://www.mathword.wolfram.com/NewtonMethod.html
[110] http://www.ugrad.math.ubc.ca/coursedoc/math100/notes/approx/newton.html
[111] http://www.sosmath.com/calculus/diff/der07/der07.html

[112] http://www.dailnet.unirioja.es/servlet/articulo?codigo=2159507
[113] http://www.mathumn.edu/~garrett/qr/Newton.html
[114] http://www.dedekind.mit.edu/18.013A/HTML/chapter13/section01.html

[115] http://www.ies.co.jp/math/java/cal/roota/roota.html
[116] www.alepho.clarku.edu/~djoyce/newton/method.html
[117] http://www.Shodor.org/UNChen/math/newton/index.html
[118] http://www.reserch.microsotf.com/~minka/papers/newton.html
[119] http:/www.planemath.org/encyclopedia/NewtonRaphsonMethod.html

[120] http://www.math.fullerton.edu/mathews/n2003/Newton’sMethodMod.html
[121] http://www.math.heldermann.de/JAA/JAA09/jaa0919.html
[122] http://numbers.computation.free.fr/Constants/Algorithms/Newton.html
BIBLIOGRAFÍA
View publication stats 63

Este libro se termino de imprimir en el mes de mayo del año 2009 en los talleres
gráficos de ServiCentro
C/ Progreso, Nagua, República Dominicana.

Vous aimerez peut-être aussi