Vous êtes sur la page 1sur 15

Métodos numéricos de solución para una ecuación

diferencial

Introducción
Las ODE son aquellas ecuaciones que responden a la siguiente forma

(1)
Ψ(t,x(t),x′(t),x′′(t),⋯,x(n)(t))=0

La anterior es una ecuación diferencial de orden n. Cuando en la expresión intervienen sobre la


variable independiente funciones no lineales, como el seno o la función exponencial, se dice que
es una ecuación diferencial ordinaria no lineal. De lo contrario se la llama lineal.

El objetivo cuando se nos presenta una ecuación diferencial de este tipo es obtener la solución
como una expresión de x(t).

Los métodos que se presentan aquí son utilizados para resolver los llamados Initial Value
Problem (IVP), donde además de la ecuación diferencial tenemos valores iniciales desde los
cuales podemos obtener una aproximación de la solución de la ODE. Muchas veces es
conveniente expresar la ecuación 1 de la siguiente manera (ya con los valores iniciales)

(2)
x(n)(t)x(t0)x′(t0)x(n−1)(t0)===⋮=Ψ(t,x(t),x′(t),⋯,x(n−1)(t))x0x1xn−1

Ejemplos

 Ecuación diferencial ordinaria de primer orden lineal

(3)
x′(t)=λx(t)

 Ecuación diferencial ordinaria de segundo orden no lineal

(4)
θ¨=−glsin(θ)

 ODE de orden uno para IVP

(5)
x′(t)x(0)==f(t,x(t))x0
Método de Euler
En matemática y computación, el método de Euler, llamado así en honor
de Leonhard Euler, es un procedimiento de integración numérica para
resolver ecuaciones diferenciales ordinarias a partir de un valor inicial dado.
El método de Euler es el más simple de los métodos numéricos resolver un
problema del siguiente tipo:

Consiste en multiplicar los intervalos que v


de a en subintervalos de ancho ; osea:

de manera que se obtiene un conjunto discreto


de puntos: del intervalo de
interes . Para cualquiera de estos puntos se cumlple que:

La condición inicial , representa el


punto por donde pasa la curva solución de la ecuación
de el planteamiento inicial, la cual se denotará como .
Ya teniendo el punto se puede evaluar la primera derivada
de en ese punto; por lo tanto:
Grafica A.

Con esta información se traza una recta, aquella que pasa por y
de pendiente . Esta recta aproxima en una vecinidad
de . Tómese la recta como reemplazo de y localícese en ella
(la recta) el valor de y correspondiente a . Entonces, podemos
deducir segun la Gráfica A:

Se resuelve para :

Es evidente que la ordenada calculada de esta manera no es igual


a , pues existe un pequeño error. Sin embargo, el
valor sirve para que se aproxime en el
punto y repetir el procedimiento anterior a fin de
generar la sucesión de aproximaciones siguiente:
Método de Euler mejorado
Este método se basa en la misma idea del método anterior, pero hace un
refinamiento en la aproximación, tomando un promedio entre ciertas
pendientes.
La fórmula es la siguiente:

Donde

Para entender esta fórmula, analicemos el primer paso de la aproximación,


con base en la siguiente gráfica:

En la
gráfica, vemos que la pendiente promedio corresponde a la pendiente de la
recta bisectriz de la recta tangente a la curva en el punto de la condición inicial y
la "recta tangente" a la curva en el punto donde es la aproximación
obtenida con la primera fórmula de Euler. Finalmente, esta recta bisectriz se
traslada paralelamente hasta el punto de la condición inicial, y se considera el
valor de esta recta en el punto como la aproximación de Euler
mejorada.

Método de Runge-Kutta
El método de Runge-Kutta es un método genérico de resolución numérica
de ecuaciones diferenciales. Este conjunto de métodos fue inicialmente
desarrollado alrededor del año 1900 por los matemáticos C. Runge y M. W. Kutta.

Los métodos de Runge-Kutta (RK) son un conjuntos de métodos iterativos


(implícitos y explícitos) para la aproximación de soluciones de ecuaciones
diferenciales ordinarias, concretamente, delproblema de valor inicial.

Sea

una ecuación diferencial ordinaria,


con donde es un conjunto abierto, junto con
la condición de que el valor inicial de ƒ sea

Entonces el método RK (de orden s) tiene la siguiente expresión, en su


forma más general:

,
donde h es el paso por iteración, o lo que es lo mismo, el
incremento entre los sucesivos puntos y . Los
coeficientes son términos de aproximación intermedios, evaluados
en ƒ de manera local

con coeficientes propios del esquema numérico


elegido, dependiente de la regla de cuadratura utilizada. Los
esquemas Runge-Kutta pueden ser explícitos o implícitos
dependiendo de las constantes del esquema. Si esta matriz
es triangular inferior con todos los elementos de la diagonal
principal iguales a cero; es decir, para ,
los esquemas son explícitos
Método de Newton Raphson
En análisis numérico, el método de Newton (conocido también como el método
de Newton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente para
encontrar aproximaciones de los ceros o raíces de una función real. También puede ser
usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su
primera derivada.

DESCRIPCIÓN

El método de Newton-Raphson es un método abierto, en el sentido de que su convergencia


global no está garantizada. La única manera de alcanzar la convergencia es seleccionar un
valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración
con un valor razonablemente cercano al cero (denominado punto de arranque o valor
supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de
la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el
entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual
exige seleccionar un valor supuesto cercano a la raíz. Una vez que se ha hecho esto, el método
linealiza la función por la recta tangente en ese valor supuesto. La abscisa en el origen de
dicha recta será, según el método, una mejor aproximación de la raíz que el valor anterior.
Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente. f'(x)=
0 Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con
un valor inicial x0 y definimos para cada número natural n

Donde f ' denota la derivada de f.


Nótese que el método descrito es de aplicación exclusiva para funciones de una sola
variable con forma analítica o implícita conocible. Existen variantes del método
aplicables a sistemas discretos que permiten estimar las raíces de la tendencia, así como
algoritmos que extienden el método de Newton a sistemas multivariables, sistemas de
ecuaciones, etc.
ALGORITMO
Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo
de Newton-Raphson.
La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al
desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de
iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante
se sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración
trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo punto
de iteración se tomará como la abscisa en el origen de la tangente (punto de corte de la
tangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza por
una recta tal que contiene al punto ( , ( )) y cuya pendiente coincide con la derivada
de la función en el punto, . La nueva aproximación a la raíz, , se logra la
intersección de la función lineal con el eje X de abscisas. Matemáticamente:

Una forma alternativa de obtener el algoritmo es desarrollando la función f(x) en serie de


Taylor, para un entorno del punto : En la ilustración adjunta del método de Newton se
puede ver que es una mejor aproximación que para el cero (x) de la función f.

Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en :

Si además se acepta que tiende a la raíz, se ha de cumplir que , luego,


sustituyendo en la expresión anterior, obtenemos el algoritmo.
Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como
un método de iteración de punto fijo. Así, dada la ecuación , se puede
considerar el siguiente método de iteración de punto fijo:

Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser única, se escoge de la forma más sencilla:

Por tanto, imponiendo subíndices:

Expresión que coincide con la del algoritmo de Newton-Raphson

Teorema de Convergencia Global del Método de Newton

Sea verificando1 :

1. para todo
2. para
todo

3.
Entonces existe un único tal que por lo que la sucesión converge a s.

ESTIMACIÓN DEL ERROR


Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática:
si es raíz, entonces:

para una cierta constante . Esto significa que si en algún momento el error es menor o
igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales
exactos. En la práctica puede servir para hacer una estimación aproximada del error:
Error relativo entre dos aproximaciones sucesivas:

Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto. Se
detiene el proceso iterativo cuando este error relativo es aproximadamente menor que una
cantidad fijada previamente.
EJEMPLO:

Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3. Podríamos tratar
de encontrar el cero de f(x) = cos(x) - x3.

Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1, deducimos que
nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial x0 = 0,5
Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de decimales
pedidos. Podemos ver que el número de dígitos correctos después de la coma se incrementa desde 2
(para x3) a 5 y 10, ilustando la convergencia cuadrática.

Método de Interpolocion
El problema de interpolación consiste en encontrar el valor de la función
F(x), de la cual sólo se conocen algunos puntos, para un valor de x que
se encuentre entre dos valores consecutivos conocidos. En pocas palabras
podriamos decir que:

"La interpolación consiste en hallar un dato dentro de un intervalo en el


que conocemos los valores en los extremos".

El problema general de la interpolación se nos presenta cuando nos dan


una función de la cual solo conocemos una serie de puntos de la misma:

(xo, yo), (x1, y1),........., (xn, yn)

y se pide hallar el valor de un punto x (intermedio de x0 y xn) de esta


función.

 Interpolación. Elección de la interpolación más adecuada.

Consideremos una función de la cual solo conocemos una serie de puntos


de la misma:

(xo, yo), (x1, y1), .............., (xn, yn)

Deseamos encontrar la expresión analítica de dicha función para poder


estudiarla en otros puntos.

Ahora bien, por n+1 puntos pasan infinitas funciones, ¿con cuál de ellas
nos quedamos? Lo más lógico es recurrir a la más sencilla. La familia de
funciones más sencillas es la de los polinomios, por tanto buscaremos el
polinomio de menor grado que pase por los n+1 puntos dados.

La función polinómica de menor grado que pasa por los puntos es en


principio de grado n: y= anxn+............+a1x+ao
Y se obtiene resolviendo el sistema de n+1 ecuaciones con n+1 incógnitas
(sistema que tiene solución única ya que el determinante de la matriz de
los coeficientes es de Vandermonde y por lo tanto distinto de cero)

Se le llama polinomio interpolador correspondiente a esos puntos. Una


vez obtenida su expresión dando valores en él se pueden encontrar
nuevos puntos de la función. Los resultados obtenidos son
naturalmente estimaciones aproximadas.

La interpolación se dirá lineal cuando sólo se tomen dos puntos


y cuadrática cuando se tomen tres.

La interpolación lineal es un caso particular de la Interpolación general


de Newton.

Con el polinomio de interpolación de Newton se logra aproximar un valor


de la función f(x) en un valor desconocido de x. El caso particular, para
que una interpolación sea lineal es en el que se utiliza un polinomio de
interpolación de grado 1, y se denota de la siguiente manera:

Como dijimos, cuando las variaciones de la función son proporcionales


(o casi proporcionales) a los de la variable independiente se puede
admitir que dicha función es lineal y usar para estimar los valores la
interpolación lineal..

Sean dos puntos (xo, yo), (x1, y1), la interpolación lineal consiste en
hallar una estimación del valor y, para un valor x tal que x0<x<x1.
Teniendo en cuenta que la ecuación de la recta que pasa por esos dos
puntos es:

obtenemos la fórmula de la interpolación lineal:


 Interpolación lineal de una variable independiente.

Es igual que hacer integrales cerradas.

En una tabla se representan algunos valores de la función, pero no todos,


en ocasiones nos interesa el valor de la función para un valor de la variable
independiente distinto de los que figuran en la tabla, en este caso
podemos tomar el más próximo al buscado, o aproximarnos un poco más
por interpolación, la interpolación casi siempre nos dará un pequeño error
respecto al valor de la función verdadero, pero siempre será menor que
tomar el valor más próximo de los que figuran en la tabla, veamos como
se calcula al valor de la función para un valor de la variable independiente
que se encuentre entre dos valores de la tabla por interpolación lineal.

Por la tabla sabemos que:

Queremos, pues, saber:

Siendo:

 INTERPOLACIÓN CUADRÁTICA. (Lagrange)


Cuando el polinomio que conviene es de 2º grado la interpolación recibe
el nombre de cuadrática. El polinomio interpolador es único, luego como
se encuentre da igual., sin embargo, a veces los cálculos son muy
laboriosos y es preferible utilizar un método que otro. A la vista
de los datos se decide.

Lagrange (1736-1813) dio una manera simplificada de calcular los


polinomios interpoladores de grado n Para el caso de un polinomio de 2º
grado que pasa por los puntos (x0, y0 ), (x1, y1), (x2, y2):

El error en la interpolación lineal resulta de aproximar una curva con


una línea recta.

Estrategias:
– Disminuir el tamaño del intervalo.
– Introducir alguna curvatura en la línea que conecta los puntos.

Si tres puntos de los datos están disponibles, esto puede realizarse con
un polinomio de segundo grado (parábola).

Puede utilizarse un procedimiento simple para determinar los valores de


los coeficientes.

Sustituyendo las ecuaciones anteriores, y evaluando en x = x1:


Método de Derivacion
Consideremos una función f(x) de la cual se conoce un conjunto discreto de valores (x0, f0), (x1, f1),...,(xn, fn). El
problema que vamos a abordar es el de calcular la derivada de la función en un punto x que en principio no tiene
porqué coincidir con alguno de los que figuran en los datos de que disponemos. La forma más sencilla de
resolver el problema de la diferenciación numérica consiste en estimar la derivada utilizando fórmulas obtenidas
mediante la aproximación de Taylor, que se denominan fórmulas de diferencias finitas.

La derivación numérica es una técnica de análisis numérico para calcular una aproximación a la derivada de
una función en un punto utilizando los valores y propiedades de la misma.

Por definición la derivada de una función f(x) es:

Las aproximaciones numéricas que podamos hacer (para h > 0) serán:

Diferencias hacia adelante:

Diferencias hacia atrás:

La aproximación de la derivada por este método entrega resultados aceptables con un determinado error. Para
minimizar los errores se estima que el promedio de ambas entrega la mejor aproximación numérica al problema
dado:

Diferencias centrales:

Vous aimerez peut-être aussi