Ajuste de curvas Los datos a menudo son dados para valores discretos a lo largo de un continuo. Sin embargo, usted puede requerir una estimacin en puntos entre los valores discretos. Existen dos procedimientos generales para el ajuste de curvas que se distinguen uno del otro con base en el grado de error asociado con los datos. Primero, donde los datos exhiban un grado significativo de error o "ruido", la estrategia ser derivar una sola curva que represente la tendencia general de los datos. Debido a que cualquier dato individual puede ser incorrecto, no se necesita interceptar cada punto. En lugar de esto, se designa la curva para seguir un patrn de los puntos tomados como un grupo. Un procedimiento de esta naturaleza es llamado regresin por mnimos cuadrados. Segundo, donde se conoce que los datos son muy precisos, el procedimiento bsico ser ajustar a una curva o a una serie de curvas que pasen directamente a travs de cada uno de los puntos. Usualmente tales datos se originan de tablas. Como ejemplos se tienen los valores de la densidad del agua o la capacidad calorfica de los gases en funcin de la temperatura. La estimacin de valores entre puntos discretos bien conocidos es llamada interpolacin. Mtodos sin computadora para el ajuste de curvas El mtodo ms simple para ajustar a una curva los datos es ubicar los puntos y despus dibujar una lnea que visualmente conforma a los datos. Aunque sta es una operacin vlida cuando se requiere una estimacin rpida, los resultados son dependientes del punto de vista subjetivo de la persona que dibuja la curva. Por ejemplo, en las siguientes figuras, son mostrados trazos desarrollados a partir del mismo conjunto de datos por tres ingenieros. El primero no intent conectar los puntos; en vez de ello, caracteriz la tendencia general hacia arriba de los datos con una lnea recta. El segundo ingeniero us segmentos de lnea recta o interpolacin lineal para conectar los puntos. sta es una prctica comn en la ingeniera. Si los valores estn verdaderamente cercanos a ser lineales o cercanamente espaciados, tal aproximacin provee estimaciones que son adecuadas en muchos clculos de la ingeniera. Sin embargo, donde la relacin resaltada es altamente curvilnea o los datos estn espaciados en forma muy amplia, se puede introducir errores por esa interpolacin lineal. El tercer ingeniero usa curvas para tratar de capturar el serpenteado sugerido por los datos. Un cuarto o quinto ingeniero podra, de igual forma, desarrollar ajustes alternativos. Es obvio que nuestra meta aqu es desarrollar mtodos sistemticos y objetivos con el propsito de obtener tales curvas.
Regresin por mnimos cuadrados Donde se asocian errores sustanciales con los datos, la interpolacin polinomial es inapropiada y puede dar resultados insatisfactorios cuando se usa para predecir valores intermedios. Por ejemplo, en la figura 17.1a se muestran siete datos derivados experimentalmente que exhiben variabilidad significativa. Una inspeccin visual de dichos datos sugiere una posible relacin entre y y x. Es decir, la tendencia general indica que los valores ms altos de y son asociados con los valores ms altos de x. Ahora, si una interpolacin de sexto orden se ajusta a estos datos (figura 17.1), pasar justo a travs de todos los puntos. Sin embargo, a causa de la variabilidad en los datos, la curva oscila en forma amplia en el intervalo entre los puntos. En particular, los valores interpolados en x = 1.5 y JC = 6.5 parecen estar muy adelante del rango sugerido por los datos. Una estrategia ms apropiada para tales casos es derivar una funcin aproximada que ajuste la forma de la tendencia general de los datos sin ajustar necesariamente con los puntos individuales. La figura 17.1c ilustra cmo se puede usar por lo general una lnea recta para caracterizar la tendencia de los datos sin pasar a travs de un punto en particular. Una manera para determinar la lnea en la figura 17.1c es inspeccionar en forma visual los datos graneados y despus trazar una "mejor" lnea a travs de los puntos. Aunque tales procedimientos por "vistazo" apelan al sentido comn y son vlidos para clculos superficiales, resultan deficientes por ser arbitrarios. Es decir, a menos que los puntos definan una lnea recta perfecta (en tal caso la interpolacin podra ser apropiada), diferentes analistas podran dibujar distintas lneas. Para hacer a un lado la subjetividad se debe concebir algunos criterios con el fin de establecer una base para el ajuste. Una forma de hacerlo es derivar una curva que minimice la discrepancia entre los puntos y la curva. Una tcnica para cumplir con tal objetivo se conoce como regresin por mnimos cuadrados, que se analizar en este captulo. REGRESIN LINEAL El ejemplo ms simple de una aproximacin por mnimos cuadrados es mediante el ajuste de un conjunto de pares de observaciones: (x1, y1), (x2, y2),, (x n , y n ) a una lnea recta. La expresin matemtica para esta ltima es
El ejemplo ms simple de una aproximacin por mnimos cuadrados es mediante el ajuste de un conjunto de pares de observaciones: (x1,y1), (x2,y2),, (x ,y) a una lnea recta. La expresin matemtica para esta ltima es:
donde a0 y a1 son coeficientes que representan el intercepto y la pendiente, respectivamente, y e es el error, o residuo, entre el modelo y las observaciones, las cuales se pueden representar al reordenar la ecuacin como
As, el error o residuo es la discrepancia entre el valor real de y y el valor aproximado, a0+a,x, predicho por la ecuacin lineal.
Criterios para un "mejor" ajuste Una estrategia para ajustar a la "mejor"? lnea a travs de los datos podra ser minimizar la suma de los errores residuales para todos los datos disponibles, como en donde n =nmero total de puntos.
Ajuste por mnimos cuadrados de una lnea recta
Para determinar los valores de a0 y a1,la ecuacin es diferenciada con respecto a cada coeficiente:
Observe que hemos simplificado los smbolos de la sumatoria; a menos que se indique otra cosa, todas las sumatorias son de i = 1 hasta n. Al fijar esas derivadas igual a cero, resultar en un mnimo Sr. Si se hace esto, las ecuaciones se pueden expresar como
Ahora, si hacemos que a0= na0, podemos expresar las ecuaciones como un conjunto de dos ecuaciones lineales con dos incgnitas (a0 y a1):
Estas son llamadas ecuaciones normales, y pueden ser resueltas en forma simultnea
Este resultado, entonces, se puede usar en conjunto con la ecuacin (17.4) y resolver para
donde y son las medias de y y x, respectivamente. REGRESIN DE POLINOMIOS En la seccin 17.1 se desarroll un procedimiento para obtener la ecuacin de una lnea recta por medio del criterio de mnimos cuadrados. Algunos datos de ingeniera, aunque exhiben un patrn marcado como el que se vio en la figura 17.8, est pobremente representado por una lnea recta. Para esos casos, una curva podra ser ms adecuada para el ajuste de los datos. Como se analiz en la seccin anterior, un mtodo para cumplir con este objetivo es usar transformaciones. Otras alternativas son ajustar polinomios con los datos mediante regresin de polinomios. El procedimiento de mnimos cuadrados se puede fcilmente extender al ajuste de datos con un polinomio de orden superior. Por ejemplo, suponga que ajustamos un polinomio de segundo orden o cuadrtico:
Para este caso la suma de los cuadrados de los residuos es
Siguiendo el procedimiento de la seccin anterior, tomamos la derivada de la ecuacin (17.18) con respecto de cada uno de los coeficientes desconocidos del polinomio, como en
Estas ecuaciones se pueden igualar a cero y reordenar para desarrollar el siguiente conjunto de ecuaciones normal:
donde todas las sumatorias son de i = 1 hasta n. Observe que las tres ecuaciones anteriores son lineales y tienen tres incgnitas: a0, a1 y a2. Los coeficientes de las incgnitas se pueden evaluar de manera directa a partir de los datos observados. Para este caso, vemos que el problema de determinar un polinomio por mnimos cuadrados de segundo orden es equivalente a resolver un sistema de tres ecuaciones lineales simultneas. El caso en dos dimensiones puede extenderse con facilidad a un polinomio de m simo orden como
El anlisis anterior se puede fcilmente extender a este caso ms general. As, podemos reconocer que la determinacin de los coeficientes de un polinomio de m-simo orden es equivalente a resolver un sistema de m + 1 ecuaciones lineales simultneas. Para este caso, el error estndar se formula como
Esta cantidad es dividida entre n (m + 1), ya que (m + 1) coeficientes obtenidos de los datos (a0, a1,,am) se usaron para calcular S,.; as, hemos perdido m + 1 grados de libertad. Adems del error estndar, un coeficiente de determinacin puede ser calculado para una regresin de polinomios. REGRESIN LINEAL MLTIPLE Una extensin til de la regresin lineal es el caso donde y es una funcin lineal de dos o ms variables independientes. Por ejemplo, y podra ser una funcin lineal de x1 y x2,como en
Tal ecuacin es en particular til cuando se ajustan datos experimentales donde la variable sujeta a estudio es a menudo una funcin de otras dos variables. L los "mejores" valores de los coeficientes son determinados al realizar la suma de los cuadrados de los residuos,
y diferenciando con respecto a cada uno de los coeficientes desconocidos,
Los coeficientes dan la suma mnima de los cuadrados de los residuos y se obtienen al igual las derivadas parciales a cero y expresando el resultado en forma de matriz como
Formulacin general de una matriz para mnimos cuadrados lineales En pginas anteriores hemos introducido tres tipos de regresin: lineal simple, polinomial y lineal mltiple. De hecho, estas tres pertenecen al siguiente modelo general de mnimos cuadrados lineales:
donde z0, z,, zm son las m + 1 funciones diferentes. Se puede ver con facilidad cmo la regresin lineal simple y mltiple encajan dentro de este modelo; es decir z() 1, z1 x1,z2 = x2,, z, = xm. Observe que la terminologa "lineal" se refiere slo a la dependencia del modelo sobre sus parmetros (es decir, las a). Como en el caso de regresin de polinomios, las mismas funciones pueden ser altamente no lineales. Por ejemplo, las z pueden ser sinusoidales, como en
Tal formato es la base del anlisis de Fourier. Por otro lado, un modelo de apariencia simple como
es ciertamente no lineal porque no puede ser manejado en el formato de la ecuacin (17.23). Regresaremos a tales modelos al final de este captulo. Mientras tanto, la ecuacin (17.23) se puede expresar en notacin matricial como
donde [Z] es una matriz de los valores calculados de las funciones z en los valores medidos de las variables independientes,
donde m es nmero de variables en el modelo y n es el nmero de datos. Como n>m + 1, usted debera reconocer que la mayora de las veces [Z] no es una matriz cuadrada. El vector columna {Y} contiene los valores observados de la variable dependiente
El vector columna {A} contiene los coeficientes desconocidos
y el vector columna {E} contiene los residuos
Como se realiz a travs de este captulo, la suma de los cuadrados de los residuos para este modelo se pueden definir como
Esta cantidad se puede minimizar al tomar su derivada parcial con respecto a cada uno de los coeficientes y fijar los resultados de la ecuacin igual a cero. La salida de este proceso son las ecuaciones normal que se pueden expresar brevemente en forma de matriz como
Se puede demostrar que la ecuacin (17.25) es, de hecho, equivalente a las ecuaciones normal desarrolladas antes para regresin lineal simple, polinomial y mltiple. Nuestra principal motivacin para las anteriores ha sido ilustrar la unin entre los tres procedimientos y mostrar cmo se pueden expresar de manera simple en la misma notacin matricial. Tambin acondiciona la etapa para la siguiente seccin donde asimilaremos algo de conocimiento en las estrategias preferidas para resolver la ecuacin (17.25). Interpolacin lineal El modo ms simple de interpolacin es conectar dos puntos con una lnea recta. Esta tcnica, llamada interpolacin lineal, se ilustra en forma grfica en la figura 18.2. Mediante tringulos semejantes,
la cual se puede reordenar para dar
que es una frmula de interpolacin lineal. La notacin f(x) designa que es una interpolacin de polinomios de primer orden. Observe que adems de representar la
pendiente de la lnea que conecta los puntos, el trmino [f(x1) f(x0)]/(x1 x0) es una aproximacin por diferencia dividida finita de la primera derivada [recuerde
la ecuacin (4.17). En general, cuanto ms pequeo sea el intervalo de datos, mejor ser la aproximacin. Esto se debe al hecho de que, en tanto el intervalo disminuya, una funcin continua se aproximar mejor por una lnea recta. Integracin y diferenciacin numrica
Teorema del resto Sea f (x) una funcin de R en R de clase C n1 (o sea, continua y con derivadas hasta orden n 1 continuas) en el intervalo cerrado [x, x + h] y cuya derivada de orden n existe en el intervalo abierto ]x, x + h[. Entonces existe algn punto ]x, x + h[ tal que
El teorema es de existencia, es decir, dice que tal punto esta entre x y x + h, pero no cual es. En cualquier caso, conociendo los valores mnimo y maximo de las derivadas en [x, x + h] el teorema, como veremos despues, puede servir para acotar el error cometido en un desarrollo en serie.
Propiedad de DArboux Sea f (x) contnua en el intervalo cerrado [a, b], y supongamos que f (a) f (b). Entonces, y
]f (a), f (b)[ existe un punto ]a, b[ tal que f () = y. Es decir, todos los valores comprendidos entre los que la funcion toma en los dos extremos del intervalo se alcanzan en al menos uno de los puntos interiores del mismo.
Diferenciacion numerica
Metodos directos
Dada una funcion f de clase C 1 definida sobre un intervalo [x, x + h], estamos interesados en calcular su derivada f 0 (x) en el punto x. Para ello, partimos de la definicion de derivada:
Entonces, podemos tomar un valor h pequeno y hacer una primera estimacion del valor de la derivada como
Sin embargo, esta aproximacion no permite acotar el error cometido. No obstante, si recurrimos a desarrollar en serie f alrededor de x hasta orden n-1, con resto de orden n, obtenemos
Podemos particularizar a n = 2 y despejar f 0 (x) como
Como quiera que, si la derivada segunda existe en ]x, x + h[, el segundo termino tiende a 0 al tender h a 0, este termino da el error cometido cuando no lo consideramos, es decir, cuando aproximamos usando la ecuacion (6.1). Ejemplo: usar la ecuacion (6.1) para evaluar la derivada de tomando h = 0,01, y evaluar luego el error cometido usando la ecuacion (6.2).
El trmino de error ser
de modo que la cota superior para el error ser As pues,
Como hemos visto, el termino de error es proporcional al tamano del paso, h. Por ello, debera tomarse un tamano de paso pequeno. Alternativamente, podemos preguntarnos si existen formulas mas precisas, que hagan el error proporcional a otras potencias de h. En efecto, si tomamos tres terminos del desarrollo en serie de Taylor de f alrededor de x, y ademas usamos dos valores de h, uno positivo y otro negativo, obtenemos
Restando dichas ecuaciones, y despejando la derivada se obtiene
Si ahora suponemos que f es al menos de clase C 3 en el intervalo] 1
, 2 [, por la propiedad de DArboux, existe un punto ] 1 , 2 [ tal que con lo que la derivada queda
Observemos que el termino de error es ahora del orden de h 2 , que si h es pequena, es menor que h, resultado obtenido en el caso anterior.
Por otra parte, es posible tambien usar ecuaciones similares a la (6.3) para calcular derivadas de orden superior. Por ejemplo, para la segunda,
Sumando ambas ecuaciones, usando de nuevo la propiedad de DArboux para la derivada cuarta, y despejando f(x), queda
Se deja como ejercicio el calculo de una expresion similar para la derivada tercera. Notese que el calculo de cualquier derivada involucra al valor de la funcion en puntos x +h o x h. Si la funcion es conocida explcitamente (p. ej., si tenemos su expresion analtica, o un algoritmo seguro para su calculo) esto es razonable. Pero si la funcion es el resultado de algun experimento, o debe estimarse por procedimientos que vengan afectados de gran error, no deberan usarse las formulas anteriores para la estimacion de la derivada, dado que las diferencias entre dos cantidades muy proximas que aparecen en los numeradores, as como la division por cantidades muy pequenas, amplifican los errores.
Extrapolacion de Richardson
Con este procedimiento trataremos de mejorar las ecuaciones obtenidas anteriormente para conseguir aun mas precision en la estimacion de la derivada de f en un punto x. Supongamos que f (x) es de clase C n en [x, x + h]. En tal caso, su desarrollo en serie de Taylor alrededor de x para los puntos x + h y x h sera de la forma
Restando ambas ecuaciones, todos los terminos de orden par se cancelan, resultando
de donde, despejando f 0 (x),
lo que se puede escribir como
en la que L = f 0 (x), la funcion (h) se define como Notese que, debido a su definicion, con h en el denominador, (h) solo puede evaluarse para valores de h distintos de 0, aunque arbitrariamente proximos. Notese igualmente que el error si damos (h) como valor para la derivada depende de terminos en potencias de h, siendo el termino dominante el correspondiente a h 2 . La ecuacion (6.8) da la primera estimacion de la derivada usando el metodo de Richardson, pero se puede continuar para conseguir que el termino dominante del error sea aun mas pequeno. Para ello, escribamos la ecuacion (6.8) evaluandola en h/2 lo que da
Restandole ahora a la ecuacion (6.9) multiplicada por 4 la ecuacion (6.8), obtenemos
de donde podemos despejar la derivada L que buscamos como
Esto significa que, usando una simple combinacion de hemos obtenido una precision del orden de h 4 , frente al orden h 2 que habamos obtenido usando solo (h).
Analogamente se puede repetir el proceso tantas veces como se quiera; el siguente paso definira con lo que la ecuacion (6.10) evaluada en h y en h/2
queda
de donde se puede despejar L, multiplicando la segunda ecuacion por 16 y restandole la primera:
que es una estimacion de f 0 (x) con precision del orden de h 6 .
Escogido un valor apropiado, digamos 1, para h, la repeticion del proceso lleva a la siguiente formula general: