Vous êtes sur la page 1sur 5

MÉTODOS NUMÉRICOS

Lenin Ramírez, Esteban Regalado.

1. Tema: Ajuste de curvas, regresión lineal, regresión polinomial.

2. Objetivos:

Comprender la diferencia fundamental entre regresión e interpolación, y darse cuenta de


que confundirlos puede llevar a serios problemas.

Entender la deducción de la regresión lineal por mínimos cuadrados y ser capaz de evaluar
la confiabilidad del ajuste mediante evaluaciones gráfi cas y cuantitativas.

Realizar una hoja de cálculo en Excel que nos ayude a obtener una regresión lineal y
polinómica para obtener ecuaciones que describen datos obtenidos experimentalmente.

3. Desarrollo:

Cuando los datos tienen errores sustanciales, la interpolación polinómica es inapropiada


y puede dar resultados poco satisfactorios cuando se utiliza para predecir valores
intermedios. Con frecuencia los datos experimentales son de este tipo.
Una estrategia más apropiada en tales casos consiste en obtener una función de
aproximación que se ajuste a la forma o a la tendencia general de los datos, sin coincidir
necesariamente en todos los puntos.

REGRESIÓN LINEAL

El ejemplo más simple de una aproximación por mínimos cuadrados es ajutar una línea
recta a un conjunto de observaciones definidas por puntos: (x1, y1), (x2, y2),(xn, yn).
La expresión matemática para la línea recta es:

donde a0 y a1 son coeficientes que representan la intersección con el eje y y la pendiente,


respectivamente, e es el error, o diferencia, entre el modelo y las observaciones, el cual
se representa al reordenar la ecuación como
a) Datos que muestran un error significativo. b) Ajuste polinómica oscilando más
allá del rango de los datos. c) Resultados más satisfactorios mediante el ajuste por
mínimos cuadrados.

Así, el error o residuo es la discrepancia entre el valor verdadero de y y el valor


aproximado, a0 + a1x, que predijo la ecuación lineal.
Criterio para un “mejor” ajuste
Una estrategia para ajustar una “mejor” línea a través de los datos será minimizar la suma
de los errores residuales de todos los datos disponibles, como sigue:

donde n = número total de puntos. Sin embargo, éste es un criterio inadecuado, como lo
muestra la figura 17.2a, la cual presenta el ajuste de una línea recta de dos puntos.
Obviamente, el mejor ajuste es la línea que une los puntos. Sin embargo, cualquier línea
recta que pase a través del punto medio que une la línea (excepto una línea perfectamente
vertical) da como resultado un valor mínimo de la ecuación (17.2) igual a cero, debido a
que los errores se cancelan.
Por lo tanto, otro criterio lógico podría ser minimizar la suma de los valores absolutos de
las discrepancias,

Una tercera estrategia para ajustar una mejor línea es el criterio minimax. En esta técnica,
la línea se elige de manera que minimice la máxima distancia a que un punto se encuentra
de la línea. Como se ilustra en la figura 17.2c, tal estrategia es inadecuada para la
regresión, ya que da excesiva influencia a puntos fuera del conjunto; es decir, a un solo
punto con un gran error. Deberá observarse que el principio minimax es, en algunas
ocasiones, adecuado para ajustar una función simple a una función complicada
(Carnahan, Luther y Wilkes, 1969).
La estrategia que supera las deficiencias de los procedimientos mencionados consiste en
minimizar la suma de los cuadrados de los residuos entre la y medida y la y calculada con
el modelo lineal.
Este criterio tiene varias ventajas, entre ellas el hecho de que se obtiene una línea única
para cierto conjunto de datos. Antes de analizar tales propiedades, presentaremos una
técnica para determinar los valores de a0 y a1 que minimizan la ecuación.

Ajuste de una línea recta por mínimos cuadrados

Para determinar los valores de a0 y a1, la ecuación se deriva con respecto a cada uno de
los coeficientes:

Observe que hemos simplificado los símbolos de la sumatoria; a menos que se indique
otra cosa, todas las sumatorias van desde i = 1 hasta n. Al igualar estas derivadas a cero,
se dará como resultado un Sr mínimo. Si se hace esto, las ecuaciones se expresan
como

Ahora, si observamos que Σa0 = na0, expresamos las ecuaciones como un conjunto de
dos ecuaciones lineales simultáneas, con dos incógnitas (a0 y a1):

Éstas se llaman ecuaciones normales, y se resuelven en forma simultánea

Este resultado se utiliza conjuntamente con la ecuación (17.4) para obtener

REGRESIÓN POLINOMIAL
En la sección 17.1 se desarrolló un procedimiento para obtener la ecuación de una línea
recta por medio del criterio de mínimos cuadrados. En la ingeniería, aunque algunos datos
exhiben un patrón marcado, como el que se advierte en la figura 17.8, son pobremente
representados por una línea recta, entonces, una curva podrá ser más adecuada para
ajustarse a los datos. Como se analizó en la sección anterior, un método para lograr este
objetivo es utilizar transformaciones. Otra alternativa es ajustar polinomios a los datos
mediante regresión polinómica.
El procedimiento de mínimos cuadrados se puede extender fácilmente al ajuste de
datos con un polinomio de grado superior. Por ejemplo, suponga que ajustamos un
polinomio
de segundo grado o cuadrático:

Al seguir el procedimiento de la sección anterior, obtenemos la derivada de la ecuación


(17.18) con respecto a cada uno de los coeficientes desconocidos del polinomio,

Estas ecuaciones se igualan a cero y se reordenan para desarrollar el siguiente conjunto


de ecuaciones normales:

donde todas las sumatorias van desde i = 1 hasta n. Observe que las tres ecuaciones
anteriores son lineales y tienen tres incógnitas: a0, a1 y a2. Los coeficientes de las
incógnitas se evalúan de manera directa, a partir de los datos observados.
En este caso, observamos que el problema de determinar un polinomio de segundo grado
por mínimos cuadrados es equivalente a resolver un sistema de tres ecuaciones lineales
simultáneas. En la parte tres se estudiaron las técnicas para resolver tales ecuaciones.
El caso bidimensional se extiende con facilidad a un polinomio de m-ésimo grado como
sigue

El análisis anterior se puede extender fácilmente a este caso más general. Así, se reconoce
que la determinación de los coeficientes de un polinomio de m-ésimo grado es
equivalente a resolver un sistema de m + 1 ecuaciones lineales simultáneas. En este caso,
el error estándar se formula como sigue:

Esta cantidad se dividirse entre n – (m + 1), ya que (m + 1) coeficientes obtenidos de los


datos, a0, a1,…, am, se utilizaron para calcular Sr; hemos perdido m + 1 grados de
libertad.
Además del error estándar, también se calcula un coeficiente de determinación para
la regresión polinómica.

4. Conclusiones:

Se comprendió los principios de la regresión por mínimos cuadrados y se elaboró una hoja
de cálculo en el programa Excel para obtener la regresión lineal y polinómica, asi obtener
una ecuación que describe los puntos obtenidos experimentalmente.

5. Bibliografia:

[1] Métodos numéricos para ingenieros- Steven C. Chapra


[2]http://matematica.laguia2000.com/general/metodo-de-biseccion
[3]Antonio Nieves Hurtado, Federico C. Domínguez Sánchez, Métodos Numéricos, 3ª
ed., CESA
[4]Rafael Iriarte V. Balderrama, Métodos Numericos, 3a ed, Trillas