Académique Documents
Professionnel Documents
Culture Documents
Ir a la navegaci�nIr a la b�squeda
�ndice
1 Historia
2 Formulaci�n formal del problema bidimensional
3 Soluci�n del problema de los m�nimos cuadrados
3.1 Deducci�n anal�tica de la aproximaci�n discreta m�nimo cuadr�tica lineal
3.1.1 Corolario
3.2 Deducci�n geom�trica de la aproximaci�n discreta m�nimo cuadr�tica lineal
4 M�nimos cuadrados y an�lisis de regresi�n
5 V�ase tambi�n
6 Referencias
7 Enlaces externos
Historia
En 1829, Gauss fue capaz de establecer la raz�n del �xito maravilloso de este
procedimiento: simplemente, el m�todo de m�nimos cuadrados es �ptimo en muchos
aspectos. El argumento concreto se conoce como teorema de Gauss-M�rkov.
Para alcanzar este objetivo, se utiliza el hecho que la funci�n f debe poder
describirse como una combinaci�n lineal de una base de funciones. Los coeficientes
de la combinaci�n lineal ser�n los par�metros que queremos determinar. Por ejemplo,
supongamos que f es una funci�n cuadr�tica, lo que quiere decir que es una
combinaci�n lineal, {\displaystyle f(x)=ax^{2}+bx+c\,\!} {\displaystyle
f(x)=ax^{2}+bx+c\,\!}, de las funciones {\displaystyle f_{1}(x)=x^{2}}
{\displaystyle f_{1}(x)=x^{2}}, {\displaystyle f_{2}(x)=x} {\displaystyle f_{2}
(x)=x} y {\displaystyle f_{3}(x)=1} {\displaystyle f_{3}(x)=1} (m=3 en este caso),
y que se pretende determinar los valores de los coeficientes: {\displaystyle
a,b,c\!} {\displaystyle a,b,c\!}, de modo que minimicen la suma (S) de los
cuadrados de los residuos:
Esto explica el nombre de m�nimos cuadrados. A las funciones que multiplican a los
coeficientes buscados, que en este caso son: {\displaystyle x^{2}} x^{2},
{\displaystyle x} x y {\displaystyle 1} 1, se les conoce con el nombre de funciones
base de la aproximaci�n, y pueden ser funciones cualesquiera. Para ese caso general
se deduce a continuaci�n la f�rmula de la mejor aproximaci�n discreta (i.e. para un
conjunto finito de puntos), lineal y seg�n el criterio del error cuadr�tico medio,
que es la llamada aproximaci�n lineal por m�nimos cuadrados. Es posible generar
otro tipo de aproximaciones, si se toman los errores m�ximo o medio, por ejemplo,
pero la dificultad que entra�a operar con ellos, debido al valor absoluto de su
expresi�n, hace que sean dif�ciles de tratar y casi no se usen.
{\displaystyle {\begin{bmatrix}
{(f_{1},f_{1})}_{d}&{(f_{1},f_{2})}_{d}&...&{(f_{1},f_{m})}_{d}\\
{(f_{2},f_{1})}_{d}&{(f_{2},f_{2})}_{d}&...&{(f_{2},f_{m})}_{d}\\...&...&...&...\\
{(f_{m},f_{1})}_{d}&{(f_{m},f_{2})}_{d}&...&{(f_{m},f_{m})}_{d}\end{bmatrix}}
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}={\begin{bmatrix}
{(f_{1},y)}_{d}\\{(f_{2},y)}_{d}\\...\\{(f_{m},y)}_{d}\end{bmatrix}}}
{\displaystyle {\begin{bmatrix}
{(f_{1},f_{1})}_{d}&{(f_{1},f_{2})}_{d}&...&{(f_{1},f_{m})}_{d}\\
{(f_{2},f_{1})}_{d}&{(f_{2},f_{2})}_{d}&...&{(f_{2},f_{m})}_{d}\\...&...&...&...\\
{(f_{m},f_{1})}_{d}&{(f_{m},f_{2})}_{d}&...&{(f_{m},f_{m})}_{d}\end{bmatrix}}
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}={\begin{bmatrix}
{(f_{1},y)}_{d}\\{(f_{2},y)}_{d}\\...\\{(f_{m},y)}_{d}\end{bmatrix}}}
Corolario
Si se tratara de hallar el conjunto de coeficientes {\displaystyle \{c_{j}\}}
{\displaystyle \{c_{j}\}} tal que {\displaystyle f(x)} f(x) pase exactamente por
todos los pares {\displaystyle {\{(x_{k},y_{k})\}}_{k=1}^{n}} {\displaystyle {\
{(x_{k},y_{k})\}}_{k=1}^{n}}, esto es, tales que {\displaystyle f(x)} f(x)
interpole a {\displaystyle {\{(x_{k},y_{k})\}}_{k=1}^{n}} {\displaystyle {\
{(x_{k},y_{k})\}}_{k=1}^{n}}, entonces tendr�a que cumplirse que:
{\displaystyle {\begin{bmatrix}f_{1}(x_{1})&f_{2}(x_{1})&...&f_{m}(x_{1})\\f_{1}
(x_{2})&f_{2}(x_{2})&...&f_{m}(x_{2})\\...&...&...&...\\f_{1}(x_{n})&f_{2}
(x_{n})&...&f_{m}(x_{n})\end{bmatrix}}
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}={\begin{bmatrix}y_{1}\\y_{2}
\\...\\y_{n}\end{bmatrix}}=A\cdot c=b} {\displaystyle {\begin{bmatrix}f_{1}
(x_{1})&f_{2}(x_{1})&...&f_{m}(x_{1})\\f_{1}(x_{2})&f_{2}(x_{2})&...&f_{m}
(x_{2})\\...&...&...&...\\f_{1}(x_{n})&f_{2}(x_{n})&...&f_{m}(x_{n})\end{bmatrix}}
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}={\begin{bmatrix}y_{1}\\y_{2}
\\...\\y_{n}\end{bmatrix}}=A\cdot c=b}
{\displaystyle {\begin{bmatrix}f_{1}(x_{1})&f_{2}(x_{1})&...&f_{m}(x_{1})\\f_{1}
(x_{2})&f_{2}(x_{2})&...&f_{m}(x_{2})\\...&...&...&...\\f_{1}(x_{n})&f_{2}
(x_{n})&...&f_{m}(x_{n})\end{bmatrix}}\times
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}={\begin{bmatrix}y_{1}\\y_{2}
\\...\\y_{n}\end{bmatrix}}} {\displaystyle {\begin{bmatrix}f_{1}(x_{1})&f_{2}
(x_{1})&...&f_{m}(x_{1})\\f_{1}(x_{2})&f_{2}(x_{2})&...&f_{m}
(x_{2})\\...&...&...&...\\f_{1}(x_{n})&f_{2}(x_{n})&...&f_{m}
(x_{n})\end{bmatrix}}\times
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}={\begin{bmatrix}y_{1}\\y_{2}
\\...\\y_{n}\end{bmatrix}}}
Esto es:
{\displaystyle Ac={\begin{bmatrix}A_{1}&A_{2}&...&A_{m}\end{bmatrix}}\times
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}=c_{1}A_{1}+c_{2}A_{2}+...
+c_{m}A_{m}} {\displaystyle
Ac={\begin{bmatrix}A_{1}&A_{2}&...&A_{m}\end{bmatrix}}\times
{\begin{bmatrix}c_{1}\\c_{2}\\...\\c_{m}\end{bmatrix}}=c_{1}A_{1}+c_{2}A_{2}+...
+c_{m}A_{m}}
El problema de aproximaci�n ser� hallar aquella combinaci�n lineal de columnas de
la matriz A lo m�s cercana posible al vector b. Se comprueba que el conjunto de las
columnas de A generan un espacio vectorial o span lineal: {\displaystyle
\operatorname {span} (A_{1},A_{2},...,A_{m})} {\displaystyle \operatorname {span}
(A_{1},A_{2},...,A_{m})}, al que el vector b no tiene porqu� pertenecer (si lo
hiciera, el sistema A�c=b tendr�a soluci�n).
De entre todos ellos, el que cumple esto con respecto a la norma eucl�dea es la
proyecci�n ortogonal de b sobre {\displaystyle \operatorname {span}
(A_{1},A_{2},...,A_{m})} {\displaystyle \operatorname {span}
(A_{1},A_{2},...,A_{m})}, y que por tanto hace que el tama�o del vector r, que ser�
el vector que une los extremos de los vectores b y proyecci�n ortogonal de b sobre
el span, sea m�nimo, esto es, que minimiza su norma eucl�dea.
Por tanto, la mejor aproximaci�n m�nimo cuadrada lineal para un conjunto de puntos
discretos, sean cuales sean las funciones base, se obtiene al resolver el sistema
cuadrado:
por
V�ase tambi�n
Regresi�n isot�nica
Filtro de m�nimos cuadrados promedio
Estimaci�n de m�nimos cuadrados de coeficientes para regresi�n lineal
Regresi�n lineal
M�nimos cuadrados m�viles
An�lisis de regresi�n
Regresi�n robusta
Valor eficaz
M�nimos cuadrados totales
M�nimos cuadrados ponderados
An�lisis de la varianza
Ecuaciones normales del problema de cuadrados m�nimos
Algoritmo de Levenberg-Marquardt
Referencias
Abdi, H (2003). �[1] (2003). Least-squares.�. M. Lewis-Beck, A. Bryman, T. Futing
(Eds): Encyclopedia for research methods for the social sciences. Thousand Oaks
(CA): Sage. pp. 792-795.