Académique Documents
Professionnel Documents
Culture Documents
Por:
Roberto Bula
Análisis de Regresión
En los negocios, en las ciencias naturales en la
planificación de los recursos humanos y del gasto, en
todas las ciencias, generalmente, se pueden expresar las
relaciones funcionales entre dos o más variables.
Ejemplo:
•El peso y la talla. A mayor talla mayor peso.
• La experiencia y la productividad del personal de la
empresa. A mayor años de experiencia mayor es la
productividad.
En estos ejemplos, la relación funcional es directa o
positiva.
Análisis de Regresión
• El análisis de regresión es una herramienta
estadística poderosa y versátil, que permite
cuantificar, a través de una función
matemática, la relación entre dos o más
variables.
• En la relación de variables se considera la
presencia de una variable dependiente en
función de una (regresión simple) o más
variables independientes (regresión múltiple).
Una función matemática de Y con respecto a X,
es representada por:
Y=f(x),
es decir, la ecuación matemática que representa
en el plano cartesiano la relación de dos
variables.
Función matemática
• Ejemplos de dos funciones
matemáticas
100
90
80
70
60
50
40
30
140 150 160 170 180 190 200
Modelo de Regresión
• La ecuación de una gráfica lineal o modelo
de regresión para el caso “Regresión
Lineal Simple”, es:
Donde:
Y = variable dependiente
X= variable independiente (regresora o explicativa)
a= coeficiente de intersección. Es el valor donde la recta corta
el eje de Y.
b= coeficiente de pendiente. Es la pendiente de la recta.
Cálculo de los Coeficientes
Cálculos
2
X Y XY x
2 6 12 4
3 15 45 9
4 23 92 16
5 28 140 25
6 32 192 36
Suma 20 104 481 90
Media 4 20.8
Y X
(ingreso de los padres Diagram a de dispersión del ingreso de los
(promedio de
en miles de dólares) padres y los prom edios de calificaciones de
calificaciones)
sus hijos
4 21
5
3 15 4
Prom edio
3.5 15 3
2
2 8 1
3 12 0
0 5 10 15 20 25
3.5 18
Ingreso
2.5 6
2.5 12
Ecuación de
Regresión Y=1.40+0.12X
Correlación
El análisis de correlación agrupa técnicas para medir
el grado de asociación o relación entre dos o más
variables.
En 1900, Karl Pearson, desarrolló el coeficiente de
correlación, el cual describe la magnitud entre dos
conjuntos de variables de intervalo o de razón. Éste
coeficiente se designa como “r” y con frecuencia se le
llama r de Pearson. El coeficiente de correlación toma
valores de –1 hasta 1.
-1 -0.5 0 +0.5 +1
Fuerte correlación negativa Correlación débil o nula Fuerte correlación positiva
Correlación
En el análisis de regresión se busca relacionar
variables que permitan predecir o explicar una
variable independiente. Por tanto, la relación que se
espera entre las variables independientes con la
variable dependiente, es que sea de moderada a fuerte
correlación.
-1 -0.5 0 +0.5 +1
Fuerte correlación negativa Correlación débil o nula Fuerte correlación positiva
Coeficiente de
correlación
Fórmula:
100 100
90 90
80 80
70 70
60 60
50 50
40 r=0,8 40 r=0,99
30 30
140 150 160 170 180 190 200 140 150 160 170 180 190 200
Entrenando el ojo:
correlaciones negativas
90 80
80 70
70 60
60 50
50
40
40
30
30
20 20
10 r=-0,5 10 r=-0,7
0 0
140 150 160 170 180 190 200 140 150 160 170 180 190 200
80 80
70 70
60 60
50 50
40 40
30 30
20 20
10 r=-0,95 10 r=-0,999
0 0
140 150 160 170 180 190 200 140 150 160 170 180 190 200
Coeficiente de
determinación: R2
Dado que la magnitud del coeficiente de correlación es
expresada como fuerte, moderada o débil, esto no da un
significado preciso de la variabilidad de Y.
Sin embargo, el coeficiente de determinación, indica la
proporción de la variación de Y que es explicada por X.
En términos porcentuales, entre más se acerca la
proporción de explicación a 100%, mejor es la
explicación que le da X a la variación de Y. Esto
permitirá una ajuste perfecto y mejores predicciones
estadísticas.
Coeficiente de
determinación
Fórmula: