Vous êtes sur la page 1sur 22

METODOS CERRADOS

SERIE DE MACLAURIN (SENO Y COCENO)

Suponga que se desea aproximar una función f(x), alrededor del valor x = 0 de la
variable independiente, mediante series de potencias; es decir

La serie indicada en la ecuación (1) se conoce como serie de McLaurin. El objetivo


es determinar los coeficientes C0, C1, C2, C3,... de la serie.

El proceso de determinación de los coeficientes de la serie de McLaurin consiste en


derivar, repetidamente, ambos lados de la ecuación 1

Donde, el exponente de f indica orden de la derivada. Es f´acil generalizar el


resultado para obtener

Es importante notar que en las ecuaciones (2-6), los términos indicados por puntos
suspensivos siempre incluyen la variable independiente x a una potencia igual o
mayor a la primera. Por lo tanto, evaluando ambos lados de la ecuación (5) para x
= 0, se tiene que

y los coeficientes de la serie de McLaurin están dados por


Así pues, la serie de McLaurin puede escribirse como

FUNCION DEL SENO

Considere la función f(x) = Sen (x) y su aproximación alrededor de x = 0. Derivando


la función, se tiene que
FUNCION DEL COSENO
EJEMPLOS
METODO GRAFICO

Un método simple para obtener una aproximación a la raíz de la ecuación f(x) = 0


consiste en graficar y observar en donde cruza el eje x. Este punto, que representa
el valor de x para el cual f(x) = 0 , proporciona una aproximación inicial de la raíz.

Las técnicas gráficas tienen un valor práctico limitado, ya que no son precisas. Sin
embargo, los métodos gráficos se utilizan para obtener aproximaciones de la raíz.
Dichas aproximaciones se pueden usar como valores iniciales en los métodos
numéricos analizados en este capítulo y en el siguiente. Las interpretaciones
gráficas, además de proporcionar estimaciones de la raíz, son herramientas
importantes en la comprensión de las propiedades de las funciones y en la
prevención de las fallas de los métodos numéricos. algunas de las formas en las
que la raíz puede encontrarse (o no encontrarse) en un intervalo definido por un
límite inferior xl y un límite superior xu. representa el caso en que una sola raíz está
acotada por los valores positivo y negativo de f(x). Sin embargo, donde f(xl) y f(xu)
están también en lados opuestos del eje x, muestra tres raíces que se presentan en
ese intervalo. En general, si f(xl) y f(xu) tienen signos opuestos, existe un número
impar de raíces en el intervalo. si f(xl) y f(xu) tienen el mismo signo, no hay raíces o
hay un número par de ellas entre los valores. Aunque dichas generalizaciones son
usualmente verdaderas, existen casos en que no se cumplen. Por ejemplo, las
funciones tangenciales al eje x y las funciones discontinuas) pueden violar estos
principios. Un ejemplo de una función que es tangencial al eje x es la ecuación
cúbica f(x) = (x – 2)(x – 2)(x – 4). Observe que cuando x = 2, dos términos en este
polinomio son iguales a cero. Matemáticamente, x = 2 se llama una raíz múltiple.
EJEMPLO
METODO DE LA FALSA POSICION

Es un método iterativo de resolución numérica de ecuaciones no lineales. El método


combina el método de bisección y el método de la secante.

Como en el método de bisección, se parte de un intervalo inicial [a0,b0] con f(a0) y


f(b0) de signos opuestos, lo que garantiza que en su interior hay al menos una raíz.
El algoritmo va obteniendo sucesivamente en cada paso un intervalo más pequeño
[ak, bk] que sigue incluyendo una raíz de la función f.
A partir de un intervalo [ak, bk] se calcula un punto interior ck:

Dicho punto es la intersección de la recta que pasa por (a,f(ak)) y (b,f(bk)) con el eje
de abscisas (igual a como se hace en el método de la secante).

Se evalúa entonces f(ck). Si es suficientemente pequeño, ck es la raíz buscada. Si


no, el próximo intervalo [ak+1, bk+1] será:

 [ak, ck] si f(ak) y f(ck) tienen signos opuestos;


 [ck, bk] en caso contrario.

Se puede demostrar que bajo ciertas


condiciones el método de la falsa posición
tiene orden de convergencia lineal, por lo
que suele converger más lentamente a la
solución de la ecuación que el método de
la secante, aunque el método de la falsa
posición siempre converge a una solución
de la ecuación.

El algoritmo tiene el inconveniente de que,


si la función es convexa o cóncava cerca
de la solución, el extremo del intervalo más
alejado de la solución queda fijo variando
únicamente el más cercano, convergiendo muy lentamente.

Aunque el método de la falsa posición parecería ser siempre la mejor opción entre
los métodos cerrados, hay casos donde funciona de manera deficiente. En efecto,
hay ciertos casos donde el método de bisección ofrece mejores resultados.
EJEMPLO
METODO DE BISECCION

Es un algoritmo de búsqueda de raíces que trabaja dividiendo el intervalo a la mitad


y seleccionando el subintervalo que tiene la raíz.

Este es uno de los métodos más sencillos y de fácil intuición para resolver
ecuaciones en una variable, también conocido como Método de Intervalo Medio.
Se basa en el teorema del valor intermedio (TVI), el cual establece que toda función
continua f en un intervalo cerrado [a,b] toma todos los valores que se hallan entre
f(a) y f(b). Esto es que todo valor entre f(a) y f(b) es la imagen de al menos un valor
en el intervalo [a,b]. En caso de que f(a) y f(b) tengan signos opuestos, el valor cero
sería un valor intermedio entre f(a) y f(b), por lo que con certeza existe un p en [a,b]
que cumple f(p)=0. De esta forma, se asegura la existencia de al menos una
solución de la ecuación f(a)=0.
El método consiste en lo siguiente:

 Debe existir seguridad sobre la continuidad de la función f(x) en el intervalo


[a,b]
 A continuación, se verifica f(a) * f(b)<0
 Se calcula el punto medio m del intervalo [a,b] y se evalúa f(m) si ese valor
es igual a cero, ya hemos encontrado la raíz buscada
 En caso de que no lo sea, verificamos si f(m) tiene signo opuesto con f(a) o
con f(b)
 Se redefine el intervalo [a, b] como [a, m] ó [m, b] según se haya determinado
en cuál de estos intervalos ocurre un cambio de signo
 Con este nuevo intervalo se continúa sucesivamente encerrando la solución
en un intervalo cada vez más pequeño, hasta alcanzar la precisión deseada

El método de bisección es menos eficiente que el método de Newton, pero es


mucho más seguro para garantizar la convergencia. Si f es una función continua en
el intervalo [a, b] y f(a)f(b) < 0, entonces este método converge a la raíz de f. De
hecho, una cota del error absoluto es:

en la n-ésima iteración. La bisección converge linealmente, por lo cual es un poco


lento. Sin embargo, se garantiza la convergencia si f(a) y f(b) tienen distinto signo.
Si existieran más de una raíz en el intervalo entonces el método sigue siendo
convergente pero no resulta tan fácil caracterizar hacia qué raíz converge el método.

Un inconveniente del método de bisección es que al dividir el intervalo de xl a xu en


mitades iguales, no se toman en consideración las magnitudes de f(xl) y f(xu). Por
ejemplo, si f(xl) está mucho más cercana a cero que f(xu), es lógico que la raíz se
encuentre más cerca de xl que de xu (figura 5.12). Un método alternativo que
aprovecha esta visualización gráfica consiste en unir f(xl) y f(xu) con una línea recta.
La intersección de esta línea con el eje de las x representa una mejor aproximación
de la raíz. El hecho de que se reemplace la curva por una línea recta da una “falsa
posición” de la raíz; de aquí el nombre de método de la falsa posición, o en latín,
regula falsi. También se le conoce como método de interpolación lineal.

EJEMPLO
METODOS ABIERTOS

MÉTODO DEL PUNTO FIJO

El método del punto fijo es un método iterativo que permite resolver sistemas de
ecuaciones no necesariamente lineales. En particular se puede utilizar para
determinar raíces de una función de la forma f(x), siempre y cuando se cumplan los
criterios de convergencia.

El método de iteración de punto fijo, también denominado método de aproximación


sucesiva, requiere volver a escribir la ecuación f(x)=0 en la forma x= g(x).
Llamemos x a la raíz de f. Supongamos que existe y es conocida la función g tal
que:
f(x) = x – g(x) Ax del dominio.
Entonces:
F(x) = 0  x – g(x)= 0  x = g(x)
Tenemos, pues, a x como punto fijo de g.

El procedimiento empieza con una estimación o conjetura inicial de x que es


mejorada por iteración hasta alcanzar la convergencia.
Para que converja, la derivada (dg/dx) debe ser menor que 1 en magnitud (al
menos para los valores x que se encuentran durante las iteraciones). La
convergencia será establecida mediante el requisito de que el cambio en x de una
iteración a la siguiente no sea mayor en magnitud que alguna pequeña cantidad ε.

EJEMPLO.

f(x) = x2 - 2x - 3 = 0, tiene dos ceros. x = 3 y x = -1


Supóngase que se reordena para lograr la forma equivalente:

Si se comienza con x0 = 4 y se itera con la iteración de punto fijo (1), los valores
sucesivos de x son:

Parece que los valores convergen a x = 3.

Otro reordenamiento de f(x) = 0 es:

Si nuevamente se comienza con x0 = 4, los valores sucesivos de x son:


Parece que ahora x converge al otro cero de f, x = -1.

Considérese un tercer reordenamiento

Comenzando de nuevo con x0 = 4 se obtiene:

x0 = 4
x1 = 6.5
x2 = 19.625
x3 = 191.070

Resulta evidente que las iteraciones son divergentes.

MÉTODO DE NEWTON-RAPHSON

En análisis numérico, el método de Newton (conocido también como el método


de Newton-Raphson o el método de Newton-Fourier) es un algoritmo para
encontrar aproximaciones de los ceros o raíces de una función real. También puede
ser usado para encontrar el máximo o mínimo de una función, encontrando los ceros
de su primera derivada.

El método de Newton-Raphson es un método abierto, en el sentido de que no está


garantizada su convergencia global. La única manera de alcanzar la convergencia
es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se
ha de comenzar la iteración con un valor razonablemente cercano al cero
(denominado punto de arranque o valor supuesto).

La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de


la propia función; si ésta presenta múltiples puntos de inflexión o pendientes
grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo
diverja aumentan, lo cual exige seleccionar un valor supuesto cercano a la raíz. Una
vez que se ha hecho esto, el método linealiza la función por la recta tangente en
ese valor supuesto.

La abscisa en el origen de dicha recta será, según el método, una mejor


aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones
hasta que el método haya convergido lo suficiente.

Supongamos que tenemos la aproximación a la raíz de ,

Trazamos la recta tangente a la curva en el punto ésta cruza al eje en un


punto que será nuestra siguiente aproximación a la raíz .

Para calcular el punto calculamos primero la ecuación de la recta tangente.


Sabemos que tiene pendiente

Y por lo tanto, la ecuación de la recta tangente es:

Hacemos
Y despejamos

Que es la fórmula iterativa de Newton-Raphson para calcular la siguiente


aproximación:

Si

Fíjate como el método de Newton-Raphson no trabaja con intervalos que nos


aseguren que encontraremos la raíz, y de hecho no tenemos ninguna garantía de
que nos aproximaremos a dicha raíz. Desde luego, existen ejemplos donde este
método no converge a la raíz, en cuyo caso se dice que el método diverge. Sin
embargo, en los casos donde si converge a la raíz lo hace con una rapidez
impresionante, por lo cual es uno de los métodos preferidos por excelencia.

También observa como en el caso de que el método no se puede aplicar.


De hecho, vemos geométricamente que esto significa que la recta tangente es
horizontal y por lo tanto no intersecta al eje en ningún punto, a menos que coincida
con éste, en cuyo caso mismo es una raíz de .

Para hacer referencia a las aproximaciones podemos usar la letra «p » o la letra «


x », en este caso manejaremos la letra x.

Aquí te presento de manera resumida los pasos para obtener la solución


aproximada de una función utilizando el método de Newton - Raphson:

0 Paso
Definir f(x)
Escribir xi (aproximación inicial)
Definir la tolerancia (E)
Pedir el No máximo de iteraciones (I)

1. Paso
Inicializar el contador de iteraciones (iContador)
2. Paso
Mientras contador <= I seguir con los pasos 3 al 6

3. Paso Calcular la siguiente aproximación con la fórmula

1. Paso
Si / x - xi / < E, entonces salir y escribir como solución aproximada a X
2. Paso

Contador = contador + 1. Además xi pasa a ser x, es decir, la aproximación anterior.

EJEMPLO:
MÉTODO DE LA SECANTE

El método de la secante es un método para encontrar los ceros de una función de


forma iterativa.

Es una variación del método de Newton-Raphson donde en vez de calcular


la derivada de la función en el punto de estudio, teniendo en mente la definición de
derivada, se aproxima la pendiente a la recta que une la función evaluada en el
punto de estudio y en el punto de la iteración anterior.

Este método es de especial interés cuando el coste computacional de derivar la


función de estudio y evaluarla es demasiado elevado, por lo que el método de
Newton no resulta atractivo.
En otras palabras, el método de la secante es un algoritmo de la raíz de
investigación que utiliza una serie de raíces de las líneas secantes para aproximar
mejor la raíz de una función f. El método de la secante se puede considerar como
una aproximación en diferencias finitas del método de Newton-Raphson. Sin
embargo, este método fue desarrollado independientemente de este último.

Ventajas y desventajas
La ventaja principal del método de la secante es que se puede aplicar cuando la
función f(x) es demasiado compleja como para obtener su derivada (que se usaría
en el método de Newton-Raphson). Es decir: si f(x) es tan compleja que es
dispendioso obtener f '(x), mejor use el método de la secante.
Esto es válido principalmente en computación, donde los algoritmos de obtención
de derivadas suelen ser básicamente de carácter numérico en vez de algebraico.

En cuanto a las desventajas del método tenemos que su velocidad de convergencia


es menor que la de otros métodos como Newton-Raphson, y además dicha
convergencia no se asegura si la primera aproximación a la raíz no es lo
suficientemente cercana a ella, ni tampoco se asegura cuando la raíz es múltiple.
Esto no quiere decir que no se pueda usar el método en esos casos, significa que
al usarlo entramos en un riesgo de que este no converja y no podamos hallar la raíz.
EJEMPLO DEL MÉTODO
METODO DE RAICES MULTIPLES:
Objetivo del método:

Encontrar una raíz a partir de un valor inicial, teniendo en cuenta una tolerancia y
un número máximo de iteraciones. En este caso no es necesario tener un intervalo.
Generalidades:

Para garantizar la convergencia del método de Newton-Raphson una de las


condiciones qué f’(x) ≠ 0. Si se observa que al ejecutar Newton-Raphson f’(x) se
aproxima a cero. La rapidez del método disminuye y hay posibilidades de que haya
una raíz múltiple.

El método de raíces múltiples es muy similar a método de Newton-Raphson con la


particularidad de que en la estructura se debe de hallar la segunda deriva de la
función a la cual se le está hallando la raíz. Esto permite tener una mayor seguridad
y rapidez en la convergencia. Y se debe tomar en cuenta la expresión:

Teniendo definida la expresión con la cual hallaremos la raíz.

 Se debe tomar el valor inicial “a”


 Calcular x1 y continuar hasta xn, hasta llegar a la aproximación de la
raíz.

Raíces múltiples Las raíces múltiples ofrecen ciertas dificultades a los métodos
expuestos anteriormente:

1. El hecho de que la función no cambie de signo en las raíces múltiples pares


impide el uso de los métodos que utilizan intervalos vistos con anticipación de
manera confiable.

2. Otro posible problema se relaciona con el hecho de que no solo f(x), sino también
f ’(x) se aproxima a cero, estos problemas afectan a los métodos de Newton-
Raphson (N-R) y al de la secante, los cuales contienen derivadas o aproximaciones
a ellas en el denominador de sus respectivas ecuaciones. Esto provocaría una
división entre cero cuando la sección converge en un punto muy cercano a la raíz.
Una forma simple de evitar estos problemas, la cual ha sido demostrada
teóricamente por Ralston y Robinovitz en 1978, se basa en el hecho de que f(x)
siempre alcanza un valor igual a cero antes que f ‘(x). Por lo tanto, si se compara
f(x) contra cero dentro del programa, entonces los cálculos se pueden terminar
antes de que f ‘(x) llegue a cero.

3. Se puede demostrar que el método de N-R y el método de la secante convergen


en forma lineal en vez de cuadrática cuando hay raíces múltiples (Ralston y
Robinovitz, 1978). Se han propuesto algunas modificaciones para aliviar este
problema. Ralston y Robinovitz (1978) proponen que se haga un pequeño cambio
en la formulación para que retorne su convergencia cuadrática:

Donde m es igual a la multiplicidad de la raíz. Esto es m = 2 para multiplicidad para


raíz doble, m = 3 para raíz triple y así sucesivamente.

Vous aimerez peut-être aussi