Vous êtes sur la page 1sur 16

Diferenciación Numérica

El cálculo de la derivada de una función puede ser un proceso "difícil" ya sea


por lo complicado de la definición analítica de la función o por que esta se conoce
unicamente en un número discreto de puntos. (Este es el caso si la función representa
el resultado de algún experimento). En esta lección estudiaremos técnicas para
aproximar las derivadas de una función y veremos el análisis de error de dichas
formulas.

Métodos básicos de la diferenciación numérica

El cálculo de la derivada de una función puede ser un proceso “difícil” ya sea


por lo complicado de la definición analítica de la función o por que esta se conoce
únicamente en un número discreto de puntos. (Este es el caso si la función representa
el resultado de algún experimento). En esta lección estudiaremos técnicas para
aproximar las derivadas de una función y veremos el análisis de error de dichas
formulas.

Formulas para la primera derivada: La definición de la derivada de una


función f(x) en el punto “x” esta dada en términos del límite:

De esta definición podemos decir que si “h” es pequeño entonces:

(Note el símbolo de aproximación). Esto nos da inmediatamente la primera formula


numérica para aproximar la derivada:

Antes de ver algunos ejemplos donde usamos esta formula, tratemos de


contestar la pregunta de ¿cuán buena es esta aproximación de la derivada? Por el
Teorema de Taylor sabemos que:

Donde esta entre x y x+h. Si despejamos ahora en esta formula por f’(x) y
usamos la definición de tenemos que:

Esta formula nos dice que aproxima a f’(x) con un error proporcional a “h”,
i.e., O(h). Ejemplo 1: Tomamos y queremos aproximar cuyo valor exacto es nueve.
En la siguiente figura ilustramos los errores como función de “h” en escala
logarítmica.

Podemos ver que los errores disminuyen hasta un cierto valor crítico “hmin”
luego del cual los errores aumentan según la “h” disminuye. ¿Contradice esto el
resultado de arriba de O (h) del error? ¡NO! El resultado de arriba es sobre la
convergencia si la aritmética es exacta y se dice que es un resultado asintótico. La
figura ilustra los efectos de redondeo debido a la aritmética finita los cuales se hacen
significativos para “h” pequeño y pueden afectar cualquier formula numérica para
aproximar la derivada. Sin embargo, una formula con un grado de aproximabilidad
digamos O(h2) es preferible a una O(h) ya que los errores (teóricos) tienden a cero
más rápido y asi la “h” no se tiene que hacerse tan pequeña reduciendo así los efectos
de los errores por la aritmética finita. <> El método de arriba usando la expansión de
Taylor se puede utilizar para obtener formulas para aproximar la derivada con un
grado de aproximabilidad más alto que uno. Ilustramos esto para la obtención de una
formula O (h2). Si en lugar de llegar hasta términos de orden dos, expandimos hasta
términos de orden tres en la expansión de Taylor, obtenemos las formulas:

Si restamos estas dos ecuaciones, despejamos para f’(x), y usamos el teorema


del valor medio aplicado a f’‘’(x) obtenemos la formula:

Donde y esta entre [x-h,x+h]. Tenemos pues que la formula tiene un error
proporcional a O (h2). Ejemplo 2: Comparamos las dos formulas obtenidas hasta
ahora para aproximar f’(x) con el ejemplo de para. Los resultados los presentamos en
forma tabulada para distintos valores de h: h 0.1 13.5795 4.57948 9.85264 0.852636
0.05 11.0266 2.02656 9.21079 0.210788 0.025 9.95452 0.954519 9.05255 0.0525492
0.0125 9.46337 0.463374 9.01313 0.0131281

Este ejemplo ilustra lo superior de la formula. Note que cada ves que h se
divide entre dos, el error en la formula se divide por dos (aproximadamente) mientras
que en la formula se divide (aproximadamente) por cuatro (¿por qué?). <> En forma
similar se pueden obtener formulas de orden mayor utilizando expansiones de 3h, etc.
Por ejemplo la expansión± 2h, x± Taylor que envuelvan x

Donde

Y esta entre [x-h, x+h]. Tenemos aquí una formula de orden dos para f”(x).
Ejemplo 3: Examinamos la formula de arriba en el caso y para aproximar f ‘’(1)=72.
Tenemos los resultados: h 0.1 74.5368 2.53682 0.05 72.6311 0.63105 0.025 72.1576
0.157566 0.0125 72.0394 0.0393791 Nuevamente se puede ver el factor de cuatro en
el error, característico de la convergencia de orden dos. <> En forma similar se
pueden obtener formulas de orden mayor utilizando 3h, etc. Por ejemplo la
expansión± 2h, x± expansiones de Taylor que envuelva x
Nos da una formula de orden cuatro para f”(x). Diferenciación usando
polinomios de interpolación: Suponga que son puntos distintos y sea pn(x) el
polinomio que interpola a f(x) en estos puntos. Entonces aproximamos f ‘(x) por:

Suponga que. Se puede demostrar que no discutiremos en más detalles este


método para aproximar derivadas, si mencionamos que las dos formulas que
discutimos para aproximar f ‘(x) se pueden obtener usando polinomios de
interpolación de grados uno y dos respectivamente.

formula de la diferencia Diferencia finita Una diferencia finita es una


expresión matemática de la forma f(x + b) − f(x +a). Si una diferencia finita se divide
por b − a se obtiene una expresión similar al cociente diferencial, que difiere en que
se emplean cantidades finitas en lugar de infinitesimales. La aproximación de las
derivadas por diferencias finitas desempeña un papel central en los métodos de
diferencias finitas del análisis numérico para la resolución de ecuaciones
diferenciales. Diferencias anterior, posterior y central Sólo se consideran
normalmente tres formas: la anterior, la posterior y la central. Una diferencia anterior
es una expresión de la forma

Formulas para la primera derivada: La definición de la derivada de una función


f(x) en el punto "x" esta dada en términos del límite:

De esta definición podemos decir que si "h" es pequeño entonces:

(Note el símbolo de aproximación). Esto nos da inmediatamente la primera formula


numérica para aproximar la derivada:
Antes de ver algunos ejemplos donde usamos esta formula, tratemos de contestar la
pregunta de ¿cuán buena es esta aproximación de la derivada? Por el Teorema de
Taylor sabemos que:

Donde esta entre x y x+h. Si despejamos ahora en esta formula por f'(x) y usamos
la definición de tenemos que:

Esta formula nos dice que aproxima a f'(x) con un error proporcional a "h",
i.e., O (h).

Ejemplo Comparamos las dos formulas obtenidas hasta ahora para aproximar f'(x)
con el ejemplo de para . Los resultados los presentamos en forma
tabulada para distintos valores de h:

0.1 13.5795 4.57948 9.85264 0.852636

0.05 11.0266 2.02656 9.21079 0.210788

0.025 9.95452 0.954519 9.05255 0.0525492

0.0125 9.46337 0.463374 9.01313 0.0131281

Este ejemplo ilustra lo superior de la formula . Note que cada ves que h se
divide entre dos, el error en la formula se divide por dos (aproximadamente)
mientras que en la formula se divide (aproximadamente) por cuatro (¿por
qué?). <>
En forma similar se pueden obtener formulas de orden mayor utilizando expansiones
de Taylor que envuelvan x± 2h, x± 3h, etc. Por ejemplo la expansión

nos da una formula de orden cuatro para f'(x). Es importante observar que mientras
más alto el grado de aproximabilidad de la formula, más suave tiene que ser la
función para que dicha aproximación sea valida. Por ejemplo esta formula de orden
cuatro requiere que la función tenga cinco derivadas continuas en el intervalo en
cuestión mientras que la formula de orden dos requiere únicamente tres derivadas
continuas.

Formulas para la segunda derivada: El proceso de arriba se puede usar para


obtener formulas para las derivadas de orden mayor de uno de una función f(x).
Usamos este proceso para obtener una formula para la segunda derivada. Usando el
Teorema de Taylor, podemos escribir las expansiones:

Sumando estas dos expansiones y despejando para f''(x) obtenemos:

donde

y esta entre [x-h,x+h]. Tenemos aqui una fomula de orden dos para f"(x).

Diferenciación usando polinomios de interpolación: Suponga que


son puntos distintos y sea pn(x) el polinomio que interpola a f(x) en estos puntos.
Entonces aproximamos f '(x) por:
Suponga que . Se puede demostrar que

Aunque no discutiremos en más detalles este método para aproximar derivadas, si


mencionamos que las dos formulas que discutimos para aproximar f '(x) se pueden
obtener usando polinomios de interpolación de grados uno y dos respectivamente.

Ejercicios:

1. Utilice las formulas para aproximar la primera y segunda derivada discutidas


en esta lección para aproximar las correspondientes derivadas de la función
en x=1 y para h=0.1, 0.01.
2. Usando el Teorema de Taylor verifique la formula

3. Para la formula repita un proceso similar al del Ejemplo 1 donde "h"


se disminuye hasta que el error en la formula empieza a aumentar.

Integración numérica

En análisis numérico, la integración numérica constituye una amplia gama de


algoritmos para calcular el valor numérico de una integral definida y, por extensión,
el término se usa a veces para describir algoritmos numéricos para resolver
ecuaciones diferenciales.

El problema básico considerado por la integración numérica es calcular una


solución aproximada a la integral definida:

Este problema también puede ser enunciado como un problema de valor


inicial para una ecuación diferencial ordinaria, como sigue:
Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados
para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser
aplicados al problema reformulado. En este artículo se discuten métodos
desarrollados específicamente para el problema formulado como una integral
definida.

Razones para la integración numérica

Hay varias razones para llevar a cabo la integración numérica. La principal


puede ser la imposibilidad de realizar la integración de forma analítica. Es decir,
integrales que requerirían un gran conocimiento y manejo de matemática avanzada
pueden ser resueltas de una manera más sencilla mediante métodos numéricos.
Incluso existen funciones integrables pero cuya primitiva no puede ser calculada,
siendo la integración numérica de vital importancia. La solución analítica de una
integral nos arrojaría una solución exacta mientras que la solución numérica nos daría
una solución aproximada. El error de la aproximación, que depende del método que
se utilice y de qué tan fino sea, puede llegar a ser tan pequeño que es posible obtener
un resultado idéntico a la solución analítica en las primeras cifras decimales.

Métodos para integrales unidimensionales

Los métodos de integración numérica pueden ser descritos generalmente


como combinación de evaluaciones del integrando para obtener una aproximación a
la integral. Una parte importante del análisis de cualquier método de integración
numérica es estudiar el comportamiento del error de aproximación como una función
del número de evaluaciones del integrando. Un método que produce un pequeño error
para un pequeño número de evaluaciones es normalmente considerado superior.
Reduciendo el número de evaluaciones del integrando se reduce el número de
operaciones aritméticas involucradas, y por tanto se reduce el error de redondeo total.
También, cada evaluación cuesta tiempo, y el integrando puede ser arbitrariamente
complicado.

De todos modos, un modo de integración por «fuerza bruta» puede hacerse


siempre, de un modo muy simplista, evaluando el integrando con incrementos muy
pequeños.
El método más simple de este tipo es hacer la función interpoladora ser una función
constante (un polinomio de orden cero) que pasa a través del punto

. Es a la vez un método de Newton-Cotes y de Gauss-


Legendre, y se llama la regla del punto medio o regla del rectángulo:

La función interpoladora puede ser una función afín (un polinomio de grado que pasa
a través de los puntos y . Este método, de Newton-Cotes por
tomar nodos en los extremos del intervalo de interación, es llamado regla trapezoidal:

Para cualquier regla interpoladora, se puede hacer una aproximación más


precisa dividiendo el intervalo en algún número de subintervalos, hallando una
aproximación para cada subintervalo, y finalmente sumando todos los resultados. Las
reglas que surgen de hacer esto se llaman reglas compuestas, y se caracterizan por
perder un orden de precisión global frente a las correspondientes simples, si bien
globalmente dan valores más precisos de la integral, a costa eso sí de incrementar
significativamente el coste operativo del método. Por ejemplo, la regla trapezoidal
compuesta puede expresarse como:

donde los subintervalos tienen la forma con

y . La interpolación con polinomios evaluada en puntos


igualmente separados en da las fórmulas de Newton-Cotes, de las que la regla
del rectángulo y la trapezoidal son ejemplos. Si se escogen los nodos hasta k = n + 1
será la fórmula de Newton-Cotes cerrada y si se escogen k = n − 1 será la fórmula de
Newton-Cotes abierta. La regla de Simpson, que está basada en un polinomio de
orden 2, es también una fórmula de Newton-Cotes.

Métodos de extrapolación

La precisión de un método de integración del tipo Newton-Cotes es


generalmente una función del número de puntos de evaluación. El resultado es
usualmente más preciso cuando el número de puntos de evaluación aumenta, o,
equivalentemente, cuando la anchura del paso entre puntos decrece. ¿Qué pasa
cuando la anchura del paso tiende a cero? Esto puede responderse extrapolando el
resultado de dos o más anchuras de paso (extrapolación de Richardson). La función
de extrapolación puede ser un polinomio o una función racional. Los métodos de
extrapolación están descritos en más detalle por Stoer y Bulirsch (Sección 3.4).

Estimación del error conservativa

Supongamos que tiene una primera derivada sobre acotada. El teorema del
valor medio para , para , da

para algún en dependiendo de . Si integramos en de a en ambos lados


de la igualdad y tomamos valores absolutos, tenemos

Se puede aproximar más la integral en el lado derecho metiendo el valor absoluto en


el integrando, y reemplazando el término en por una cota superior:

Así, si aproximamos la integral por su regla de integración


, el error no es mayor que el lado derecho de la ecuación.
MÉTODO DE INTEGRACIÓN DE ROMBERG

Sea el valor de la integral que aproxima a , mediante

una partición de subintervalos de longitud y usando la regla del trapecio.


Entonces,

donde es el error de truncamiento que se comete al aplicar la regla.

El método de extrapolación de Richardson combina dos aproximaciones de


integración numérica, para obtener un tercer valor más exacto.

El algoritmo más eficiente dentro de éste método, se llama Integración de


Romberg , la cual es una fórmula recursiva.

Supongamos que tenemos dos aproximaciomnes : e

Se puede demostrar que el error que se comete con la regla del trapecio para n
subintervalos está dado por las siguientes fórmulas:

donde es un promedio de la doble derivada entre ciertos valores que


pertenecen a cada uno de los subintervalos.

Ahora bien, si suponemos que el valor de es constante, entonces :


Sustituyendo esto último en nuestra primera igualdad, tenemos que:

De aquí podemos despejar :

En el caso especial cuando (que es el algoritmo de Romberg), tenemos :


Esta fórmula es solo una parte del algoritmo de Romberg. Para entender el
método, es conveniente pensar que se trabaja en niveles de aproximación. En un
primer nivel, es cuando aplicamos la regla del Trapecio, y para poder usar la fórmula
anterior, debemos de duplicar cada vez el número de subintervalos: así, podemos
comenzar con un subintervalo, luego con dos, cuatro, ocho, etc, hasta donde se
desee.

Posteriormente, pasamos al segundo nivel de aproximación, que es donde se


usa la fórmula anterior, tomando las parejas contiguas de aproximación del nivel
anterior, y que corresponden cuando .

Después pasamos al nivel tres de aproximación, pero aquí cambia la fórmula


de Romberg, y así sucesivamente hasta el último nivel, que se alcanza cuando solo
contamos con una pareja del nivel anterior.

Desde luego, el número de niveles de aproximación que se alcanzan, depende


de las aproximaciones que se hicieron en el nivel 1. En general, si en el primer nivel,
iniciamos con n aproximaciones, entonces alcanzaremos a llegar hasta el nivel de
aproximación n.
Soluciones
Orden de la ecuación

Se llama orden de la ecuación al orden de la derivada de mayor orden que aparece en


la ecuación. Ejemplo:

es una ecuación diferencial de orden 2, ya que la derivada de mayor orden que


aparece en ella es de ese orden.
Grado de la ecuación

Se llama grado de la ecuación al exponente de la derivada de mayor orden. La


ecuación debe tener una forma polinómica, de no ser así se considera que no tiene
grado.

Se dice que una ecuación es lineal si tiene la forma


, es decir:

• Ni la función ni sus derivadas están elevadas a ninguna potencia distinta de


uno o cero.
• En cada coeficiente que aparece multiplicándolas sólo interviene la variable
independiente.
• Una combinación lineal de sus soluciones es también solución de la ecuación.

Ejemplos:

• y' = y es una ecuación diferencial ordinaria lineal de primer orden, tiene como
soluciones , con k un número real cualquiera.
• y'' + y = 0 es una ecuación diferencial ordinaria lineal de segundo orden, tiene
como soluciones , con a y b reales.
• y'' − y = 0 es una ecuación diferencial ordinaria lineal de segundo orden, tiene
como soluciones , con a y b reales.

Usos

Las ecuaciones diferenciales son muy utilizadas en todas las ramas de la ingeniería
para el modelamiento de fenómenos físicos. Su uso es común tanto en ciencias
aplicadas, como en ciencias fundamentales (física, química, biología) o matemáticas,
como en economía.

• En dinámica estructural, la ecuación diferencial que define el movimiento de


una estructura es:

Donde M es la matriz que describe la masa de la estructura, C es la matriz que


describe el amortiguamiento de la estructura, K es la matriz de rigidez que describe la
rigidez de la estructura, x es vector de desplazamientos [nodales] de la estructura, P
es el vector de fuerzas (nodales equivalentes), y t indica tiempo. Esta es una ecuación
de segundo orden debido a que se tiene el desplazamiento x y su primera y segunda
derivada con respecto al tiempo.

• La vibración de una cuerda está descrita por la siguiente ecuación diferencial


en derivadas parciales de segundo orden:

donde es el tiempo y es la coordenada del punto sobre la cuerda. A esta ecuación


se le llama ecuación de onda.

Solución de una ecuación diferencial

Tipos de soluciones

Una solución de una ecuación diferencial es una función que al remplazar a la


función incógnita, en cada caso con las derivaciones correspondientes, verifica la
ecuación. Hay tres tipos de soluciones:

1. Solución general: una solución de tipo genérico, expresada con una o más
constantes. La solución general es un haz de curvas. Tiene un orden de
infinitud de acuerdo a su cantidad de constantes (una constante corresponde a
una familia simplemente infinita, dos constantes a una familia doblemente
infinita, etc). En caso de que la ecuación sea lineal, la solución general se
logra como combinación lineal de las soluciones (tantas como el orden de la
ecuación) de la ecuación homogénea (que resulta de hacer el término no
dependiente de y(x) ni de sus derivadas igual a 0) más una solución particular
de la ecuación completa.
2. Solución particular: Si fijando cualquier punto P(X0,Y0) por donde debe
pasar necesariamente la solución de la ecuación diferencial, existe un único
valor de C, y por lo tanto de la curva integral que satisface la ecuación, este
recibirá el nombre de solución particular de la ecuación en el punto P(X0,Y0)
recibe el nombre de condición Inicial. Es un caso particular de la solución
general, en donde la constante (o constantes) recibe un valor específico.
3. Solución singular: una función que verifica la ecuación, pero que no se
obtiene particularizando la solución general.