Vous êtes sur la page 1sur 16

AJUSTE DE CURVAS

INTEGRACION Y DEFERENCIACION NUMERICA


Rogelio Isauro Morales
Glvez

Q.I. Belem Facio Ruiz

Ajuste de curvas
Los datos a menudo son dados para valores discretos a lo largo de un continuo.
Sin embargo, usted puede requerir una estimacin en puntos entre los valores
discretos.
Existen dos procedimientos generales para el ajuste de curvas que se distinguen
uno del otro con base en el grado de error asociado con los datos. Primero, donde
los datos exhiban un grado significativo de error o "ruido", la estrategia ser
derivar una sola curva que represente la tendencia general de los datos. Debido a
que cualquier dato individual puede ser incorrecto, no se necesita interceptar cada
punto. En lugar de esto, se designa la curva para seguir un patrn de los puntos
tomados como un grupo. Un procedimiento de esta naturaleza es llamado
regresin por mnimos cuadrados.
Segundo, donde se conoce que los datos son muy precisos, el procedimiento
bsico ser ajustar a una curva o a una serie de curvas que pasen directamente a
travs de cada uno de los puntos. Usualmente tales datos se originan de tablas.
Como ejemplos se tienen los valores de la densidad del agua o la capacidad
calorfica de los gases en funcin de la temperatura. La estimacin de valores
entre puntos discretos bien conocidos es llamada interpolacin.
Mtodos sin computadora para el ajuste de curvas
El mtodo ms simple para ajustar a una curva los datos es ubicar los puntos y
despus dibujar una lnea que visualmente conforma a los datos. Aunque sta es
una operacin vlida cuando se requiere una estimacin rpida, los resultados
son dependientes del punto de vista subjetivo de la persona que dibuja la curva.
Por ejemplo, en las siguientes figuras, son mostrados trazos desarrollados a partir
del mismo conjunto de datos por tres ingenieros. El primero no intent conectar los
puntos; en vez de ello, caracteriz la tendencia general hacia arriba de los datos
con una lnea recta. El segundo ingeniero us segmentos de lnea recta o
interpolacin lineal para conectar los puntos. sta es una prctica comn en la
ingeniera. Si los valores estn verdaderamente cercanos a ser lineales o
cercanamente espaciados, tal aproximacin provee estimaciones que son
adecuadas en muchos clculos de la ingeniera. Sin embargo, donde la relacin
resaltada es altamente curvilnea o los datos estn espaciados en forma muy
amplia, se puede introducir errores por esa interpolacin lineal. El tercer ingeniero
usa curvas para tratar de capturar el serpenteado sugerido por los datos. Un
cuarto o quinto ingeniero podra, de igual forma, desarrollar ajustes alternativos.
Es obvio que nuestra meta aqu es desarrollar mtodos sistemticos y objetivos
con el propsito de obtener tales curvas.

Regresin por mnimos cuadrados
Donde se asocian errores sustanciales con los datos, la interpolacin polinomial es
inapropiada y puede dar resultados insatisfactorios cuando se usa para predecir
valores intermedios. Por ejemplo, en la figura 17.1a se muestran siete datos
derivados experimentalmente que exhiben variabilidad significativa. Una
inspeccin visual de dichos datos sugiere una posible relacin entre y y x. Es
decir, la tendencia general indica que los valores ms altos de y son asociados
con los valores ms altos de x. Ahora, si una interpolacin de sexto orden se
ajusta a estos datos (figura 17.1), pasar justo a travs de todos los puntos. Sin
embargo, a causa de la variabilidad en los datos, la curva oscila en forma amplia
en el intervalo entre los puntos. En particular, los valores interpolados en x = 1.5 y
JC = 6.5 parecen estar muy adelante del rango sugerido por los datos.
Una estrategia ms apropiada para tales casos es derivar una funcin aproximada
que ajuste la forma de la tendencia general de los datos sin ajustar
necesariamente con los puntos individuales. La figura 17.1c ilustra cmo se puede
usar por lo general una lnea recta para caracterizar la tendencia de los datos sin
pasar a travs de un punto en particular.
Una manera para determinar la lnea en la figura 17.1c es inspeccionar en forma
visual los datos graneados y despus trazar una "mejor" lnea a travs de los
puntos.
Aunque tales procedimientos por "vistazo" apelan al sentido comn y son vlidos
para clculos superficiales, resultan deficientes por ser arbitrarios. Es decir, a
menos que los puntos definan una lnea recta perfecta (en tal caso la interpolacin
podra ser apropiada), diferentes analistas podran dibujar distintas lneas.
Para hacer a un lado la subjetividad se debe concebir algunos criterios con el fin
de establecer una base para el ajuste. Una forma de hacerlo es derivar una curva
que minimice la discrepancia entre los puntos y la curva. Una tcnica para cumplir
con tal objetivo se conoce como regresin por mnimos cuadrados, que se
analizar en este captulo.
REGRESIN LINEAL
El ejemplo ms simple de una aproximacin por mnimos cuadrados es mediante
el ajuste de un conjunto de pares de observaciones: (x1, y1), (x2, y2),, (x
n
, y
n
) a
una lnea recta. La expresin matemtica para esta ltima es



El ejemplo ms simple de una aproximacin por mnimos cuadrados es mediante
el ajuste de un conjunto de pares de observaciones: (x1,y1), (x2,y2),, (x ,y) a
una lnea recta. La expresin matemtica para esta ltima es:

donde a0 y a1 son coeficientes que representan el intercepto y la pendiente,
respectivamente, y e es el error, o residuo, entre el modelo y las observaciones,
las cuales se pueden representar al reordenar la ecuacin como

As, el error o residuo es la discrepancia entre el valor real de y y el valor
aproximado, a0+a,x, predicho por la ecuacin lineal.

Criterios para un "mejor" ajuste
Una estrategia para ajustar a la "mejor"? lnea a travs de los datos podra ser
minimizar la suma de los errores residuales para todos los datos disponibles,
como en donde n =nmero total de puntos.

Ajuste por mnimos cuadrados de una lnea recta

Para determinar los valores de a0 y a1,la ecuacin es diferenciada con respecto a
cada coeficiente:

Observe que hemos simplificado los smbolos de la sumatoria; a menos que se
indique otra cosa, todas las sumatorias son de i = 1 hasta n. Al fijar esas derivadas
igual a cero, resultar en un mnimo Sr. Si se hace esto, las ecuaciones se pueden
expresar como

Ahora, si hacemos que a0= na0, podemos expresar las ecuaciones como un
conjunto de dos ecuaciones lineales con dos incgnitas (a0 y a1):

Estas son llamadas ecuaciones normales, y pueden ser resueltas en forma
simultnea

Este resultado, entonces, se puede usar en conjunto con la ecuacin (17.4) y
resolver para

donde y son las medias de y y x, respectivamente.
REGRESIN DE POLINOMIOS
En la seccin 17.1 se desarroll un procedimiento para obtener la ecuacin de una
lnea recta por medio del criterio de mnimos cuadrados. Algunos datos de
ingeniera, aunque exhiben un patrn marcado como el que se vio en la figura
17.8, est pobremente representado por una lnea recta. Para esos casos, una
curva podra ser ms adecuada para el ajuste de los datos. Como se analiz en la
seccin anterior, un mtodo para cumplir con este objetivo es usar
transformaciones. Otras alternativas son ajustar polinomios con los datos
mediante regresin de polinomios.
El procedimiento de mnimos cuadrados se puede fcilmente extender al ajuste de
datos con un polinomio de orden superior. Por ejemplo, suponga que ajustamos
un polinomio de segundo orden o cuadrtico:

Para este caso la suma de los cuadrados de los residuos es

Siguiendo el procedimiento de la seccin anterior, tomamos la derivada de la
ecuacin (17.18) con respecto de cada uno de los coeficientes desconocidos del
polinomio, como en

Estas ecuaciones se pueden igualar a cero y reordenar para desarrollar el
siguiente conjunto de ecuaciones normal:


donde todas las sumatorias son de i = 1 hasta n. Observe que las tres ecuaciones
anteriores son lineales y tienen tres incgnitas: a0, a1 y a2. Los coeficientes de las
incgnitas se pueden evaluar de manera directa a partir de los datos observados.
Para este caso, vemos que el problema de determinar un polinomio por mnimos
cuadrados de segundo orden es equivalente a resolver un sistema de tres
ecuaciones lineales simultneas.
El caso en dos dimensiones puede extenderse con facilidad a un polinomio de m
simo orden como

El anlisis anterior se puede fcilmente extender a este caso ms general. As,
podemos reconocer que la determinacin de los coeficientes de un polinomio de
m-simo orden es equivalente a resolver un sistema de m + 1 ecuaciones lineales
simultneas. Para este caso, el error estndar se formula como

Esta cantidad es dividida entre n (m + 1), ya que (m + 1) coeficientes obtenidos
de los datos (a0, a1,,am) se usaron para calcular S,.; as, hemos perdido m + 1
grados de libertad. Adems del error estndar, un coeficiente de determinacin
puede ser calculado para una regresin de polinomios.
REGRESIN LINEAL MLTIPLE
Una extensin til de la regresin lineal es el caso donde y es una funcin lineal
de dos o ms variables independientes. Por ejemplo, y podra ser una funcin
lineal de x1 y x2,como en

Tal ecuacin es en particular til cuando se ajustan datos experimentales donde la
variable sujeta a estudio es a menudo una funcin de otras dos variables.
L los "mejores" valores de los coeficientes son determinados al realizar la suma de
los cuadrados de los residuos,

y diferenciando con respecto a cada uno de los coeficientes desconocidos,


Los coeficientes dan la suma mnima de los cuadrados de los residuos y se
obtienen al igual las derivadas parciales a cero y expresando el resultado en forma
de matriz como

Formulacin general de una matriz para mnimos cuadrados lineales
En pginas anteriores hemos introducido tres tipos de regresin: lineal simple,
polinomial y lineal mltiple. De hecho, estas tres pertenecen al siguiente modelo
general de mnimos cuadrados lineales:

donde z0, z,, zm son las m + 1 funciones diferentes. Se puede ver con facilidad
cmo la regresin lineal simple y mltiple encajan dentro de este modelo; es decir
z() 1, z1 x1,z2 = x2,, z, = xm.
Observe que la terminologa "lineal" se refiere slo a la dependencia del modelo
sobre sus parmetros (es decir, las a). Como en el caso de regresin de
polinomios, las mismas funciones pueden ser altamente no lineales. Por ejemplo,
las z pueden ser sinusoidales, como en

Tal formato es la base del anlisis de Fourier. Por otro lado, un modelo de
apariencia simple como

es ciertamente no lineal porque no puede ser manejado en el formato de la
ecuacin (17.23). Regresaremos a tales modelos al final de este captulo.
Mientras tanto, la ecuacin (17.23) se puede expresar en notacin matricial como

donde [Z] es una matriz de los valores calculados de las funciones z en los valores
medidos de las variables independientes,

donde m es nmero de variables en el modelo y n es el nmero de datos. Como
n>m + 1, usted debera reconocer que la mayora de las veces [Z] no es una
matriz cuadrada.
El vector columna {Y} contiene los valores observados de la variable dependiente

El vector columna {A} contiene los coeficientes desconocidos

y el vector columna {E} contiene los residuos

Como se realiz a travs de este captulo, la suma de los cuadrados de los
residuos para este modelo se pueden definir como

Esta cantidad se puede minimizar al tomar su derivada parcial con respecto a
cada uno de los coeficientes y fijar los resultados de la ecuacin igual a cero. La
salida de este proceso son las ecuaciones normal que se pueden expresar
brevemente en forma de matriz como

Se puede demostrar que la ecuacin (17.25) es, de hecho, equivalente a las
ecuaciones normal desarrolladas antes para regresin lineal simple, polinomial y
mltiple.
Nuestra principal motivacin para las anteriores ha sido ilustrar la unin entre los
tres procedimientos y mostrar cmo se pueden expresar de manera simple en la
misma notacin matricial. Tambin acondiciona la etapa para la siguiente seccin
donde asimilaremos algo de conocimiento en las estrategias preferidas para
resolver la ecuacin (17.25).
Interpolacin lineal
El modo ms simple de interpolacin es conectar dos puntos con una lnea recta.
Esta tcnica, llamada interpolacin lineal, se ilustra en forma grfica en la figura
18.2. Mediante tringulos semejantes,

la cual se puede reordenar para dar

que es una frmula de interpolacin lineal. La notacin f(x) designa que es una
interpolacin de polinomios de primer orden. Observe que adems de representar
la

pendiente de la lnea que conecta los puntos, el trmino [f(x1) f(x0)]/(x1 x0)
es una aproximacin por diferencia dividida finita de la primera derivada [recuerde




la ecuacin (4.17). En general, cuanto ms pequeo sea el intervalo de datos,
mejor ser la aproximacin. Esto se debe al hecho de que, en tanto el intervalo
disminuya, una funcin continua se aproximar mejor por una lnea recta.
Integracin y diferenciacin numrica

Teorema del resto
Sea f (x) una funcin de R en R de clase C n1 (o sea, continua y con derivadas
hasta orden n 1 continuas) en el intervalo cerrado [x, x + h] y cuya derivada
de orden n existe en el intervalo abierto ]x, x + h[. Entonces existe algn punto
]x, x + h[ tal que

El teorema es de existencia, es decir, dice que tal punto esta entre x y x + h, pero no cual
es. En cualquier caso, conociendo los valores mnimo y maximo de las derivadas en [x, x +
h] el teorema, como veremos despues, puede servir para acotar el error cometido en un
desarrollo en serie.

Propiedad de DArboux
Sea f (x) contnua en el intervalo cerrado [a, b], y supongamos que f (a) f (b). Entonces, y

]f (a), f (b)[ existe un punto ]a, b[ tal que f () = y. Es decir, todos los valores
comprendidos entre los que la funcion toma en los dos extremos del intervalo se alcanzan
en al menos uno de los puntos interiores del mismo.


Diferenciacion numerica


Metodos directos

Dada una funcion f de clase C
1
definida sobre un intervalo [x, x + h], estamos interesados
en calcular su derivada f
0
(x) en el punto x. Para ello, partimos de la definicion de
derivada:

Entonces, podemos tomar un valor h pequeno y hacer una primera estimacion del valor de
la derivada como

Sin embargo, esta aproximacion no permite acotar el error cometido. No obstante, si
recurrimos a desarrollar en serie f alrededor de x hasta orden n-1, con resto de orden n,
obtenemos

Podemos particularizar a n = 2 y despejar f
0
(x) como

Como quiera que, si la derivada segunda existe en ]x, x + h[, el segundo termino tiende a 0
al tender h a 0, este termino da el error cometido cuando no lo consideramos, es decir,
cuando aproximamos usando la ecuacion (6.1).
Ejemplo: usar la ecuacion (6.1) para evaluar la derivada de
tomando h = 0,01, y evaluar luego el error cometido usando la ecuacion (6.2).

El trmino de error ser

de modo que la cota superior para el error ser As pues,

Como hemos visto, el termino de error es proporcional al tamano del paso, h. Por
ello, debera tomarse un tamano de paso pequeno. Alternativamente, podemos
preguntarnos si existen formulas mas precisas, que hagan el error proporcional a otras
potencias de h. En efecto, si tomamos tres terminos del desarrollo en serie de Taylor de
f alrededor de x, y ademas usamos dos valores de h, uno positivo y otro negativo,
obtenemos

Restando dichas ecuaciones, y despejando la derivada se obtiene

Si ahora suponemos que f es al menos de clase C
3
en el intervalo] 1

,
2
[, por la propiedad
de DArboux, existe un punto ]
1
,
2
[ tal que con lo que la derivada
queda


Observemos que el termino de error es ahora del orden de h
2
, que si h es pequena, es
menor que h, resultado obtenido en el caso anterior.

Por otra parte, es posible tambien usar ecuaciones similares a la (6.3) para calcular
derivadas de orden superior. Por ejemplo, para la segunda,

Sumando ambas ecuaciones, usando de nuevo la propiedad de DArboux para la derivada
cuarta, y despejando f(x), queda


Se deja como ejercicio el calculo de una expresion similar para la derivada tercera.
Notese que el calculo de cualquier derivada involucra al valor de la funcion en puntos x +h
o x h. Si la funcion es conocida explcitamente (p. ej., si tenemos su expresion analtica,
o un algoritmo seguro para su calculo) esto es razonable. Pero si la funcion es el resultado
de algun experimento, o debe estimarse por procedimientos que vengan afectados de gran
error, no deberan usarse las formulas anteriores para la estimacion de la derivada, dado
que las diferencias entre dos cantidades muy proximas que aparecen en los numeradores,
as como la division por cantidades muy pequenas, amplifican los errores.

Extrapolacion de Richardson

Con este procedimiento trataremos de mejorar las ecuaciones obtenidas anteriormente para
conseguir aun mas precision en la estimacion de la derivada de f en un punto x. Supongamos
que f (x) es de clase C
n
en [x, x + h]. En tal caso, su desarrollo en serie de Taylor
alrededor de x para los puntos x + h y x h sera de la forma

Restando ambas ecuaciones, todos los terminos de orden par se cancelan, resultando

de donde, despejando f
0
(x),

lo que se puede escribir como

en la que L = f
0
(x), la funcion (h) se define como
Notese que, debido a su definicion, con h en el denominador, (h) solo
puede evaluarse para valores de h distintos de 0, aunque arbitrariamente
proximos. Notese igualmente que el error si damos (h) como valor para la
derivada depende de terminos en potencias de h, siendo el termino
dominante el correspondiente a h
2
. La ecuacion (6.8) da la primera
estimacion de la derivada usando el metodo de Richardson, pero se puede
continuar para conseguir que el termino dominante del error sea aun mas
pequeno. Para ello, escribamos la ecuacion (6.8) evaluandola en h/2 lo que
da

Restandole ahora a la ecuacion (6.9) multiplicada por 4 la ecuacion (6.8), obtenemos

de donde podemos despejar la derivada L que buscamos como


Esto significa que, usando una simple combinacion de hemos obtenido
una precision del orden de h
4
, frente al orden h
2
que habamos obtenido usando solo (h).

Analogamente se puede repetir el proceso tantas veces como se quiera; el siguente paso
definira con lo que la ecuacion (6.10) evaluada en h y en h/2

queda


de donde se puede despejar L, multiplicando la segunda ecuacion por 16 y restandole
la primera:

que es una estimacion de f
0
(x) con precision del orden de h
6
.

Escogido un valor apropiado, digamos 1, para h, la repeticion del proceso lleva a la siguiente
formula general:

Vous aimerez peut-être aussi