Vous êtes sur la page 1sur 12

REPÚBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD BICENTENARIA DE ARAGUA


VICERRECTORADO ACADÉMICO
FACULTAD DE CIENCIAS ADMINISTRATIVAS Y SOCIALES
ESCUELA DE CONTADURÍA PÚBLICA

INTEGRANTES:

Celenis Rudman C.I: 26.090.313

Liz Ruiz C.I: 26.232.593

San Joaquín De Turmero, Noviembre del 2017


INTRODUCCION

En el presente trabajo estudiaremos el modelo de regresión y correlación lineal

múltiple, en la cual se utiliza más de una variable explicativa que nos ofrecerá la

ventaja de utilizar más información en la construcción de los modelos y a su vez,

realizar estimaciones más precisas.

Como la Estadística Inferencial nos permite trabajar con una variable a nivel de

intervalo o razón, así también se puede comprender la relación de dos o más

variables y nos permitirá relacionar mediante ecuaciones, una variable en relación

de la otra variable llamándose Regresión Lineal y una variable en relación a otras

variables llamándose Regresión múltiple.


CORRELACIÓN LINEAL MÚLTIPLE

Es el procedimiento analítico que nos permite determinar cuánto de la variación en


la variable observada está asociado con la variación del conjunto de variables que
pretenden predecirla.

EL OBJETIVO DE LA TÉCNICA: En el procedimiento de correlación múltiple se


procura construir la mejor combinación del peso que cada variable simple aporta
en la medición de la variable que se observa. Y esta mejor combinación sin duda
tendrá una mayor correlación con la variable observada que la correlación que
pueda tener cualquiera de las variables simples de manera independiente. ¿Cómo
se puede lograr esto? Por medio de técnicas avanzadas de matemáticas para
cálculo y matrices algebraicas lo cual supera los propósitos de este trabajo.

Lo que pretendemos es comprender el significado de los resultados que se


obtienen, esta técnica supone que existen más de dos variables correlacionadas y
que es posible determinar la forma como se comportan las diversas correlaciones
a nivel bivariable a fin de conformar una correlación combinada o total.

Como se sabe, cuando dos variables se relacionan de manera significativa esto se


puede representar sobre un eje de coordenadas en la que cada variable se
representa sobre cada uno de los ejes. Además esa relación puede ser
representada por una línea imaginaria que cruzara de manera equidistante entre
todos los puntos que representan la relación. Esta línea puede ser determinada
por medio de una ecuación lineal simple que permita predecir el valor de una
variable observada (Variable criterio) a partir de una variable predictora. Con este
fin se determina un coeficiente b el cual explica la forma como cambia la variable
criterio por cada unidad que cambia en la variable predictora. Por ejemplo: sea la
ecuación de una línea Y = A + BX en la que A es el valor que asume la variable Y
cuando X es igual a 0 (en otras palabras, valor que tiene Y cuando la línea que
representa la ecuación cruza el eje de las coordenadas) y es llamado intercepto; B
por su parte representa la caída o pendiente de la recta y su valor representa la
forma como los valores de Y pueden variar por cada unidad de variación en X. El
valor B mencionado en el ejemplo se conoce como coeficiente b.

En el caso cuando se consideran más de dos variables, para cada una de las
variables predictoras corresponde un coeficiente b, el cual a su vez se puede
estandarizar conduciendo a calcular otro coeficiente denominado "coeficiente
beta" cuyo valor está en función de dos cosas: (1) las correlaciones de las
variables predictoras individuales con la variable criterio y (2) las correlaciones que
existen entre las variables predictoras entre sí.

INTERPRETACIÓN DE LA CORRELACIÓN MÚLTIPLE

Como podemos suponer, el coeficiente beta puede ayudarnos a comprender la


importancia de una variable en la forma como se comporta la variable criterio
(principal); que a mayor valor beta mayor impacto tiene en la forma como varia el
valor de la variable criterio o viceversa. Pero si deseamos conocer la contribución
(importancia) relativa de las variables predictoras en la variabilidad criterio, lo
podemos determinar elevando al cuadrado los respectivos coeficientes beta. Esto
no dice nada respecto a la contribución absoluta de cada variable predictora , sólo
presenta su importancia relativa. De la manera como en las correlaciones simples,
al elevar al cuadrado el coeficiente de correlación entre dos variables, se
determina la proporción de la varianza en una de las variables atribuible o
predecible a partir de otra, el valor R elevado al cuadrado R2 representa la
proporción de la varianza en la variable criterio que puede ser predicha a partir la
varianza conjunta de las variables predictoras.

COEFICIENTE DE CORRELACIÓN DE PEARSON (R)

Si tenemos dos variables cuantitativas y deseamos medir el grado de asociación


podemos utilizar el coeficiente de correlación de Pearson. En primer lugar, es muy
aconsejable realizar un gráfico de dispersión entre ambas variables y estudiar
visualmente la relación entre ellas. Este coeficiente mide asociación lineal y al ser
una prueba paramétrica requiere para su uso que ambas variables tengan
distribuciones normales1. De no ser así, deberemos utilizar el coeficiente no
paramétrico de Spearman.

El coeficiente de correlación de Pearson (r) puede tomar valores entre -1 y +1, de


modo que un valor de "r" positivo nos indica que al aumentar el valor de una
variable también aumenta el valor de la otra (Figura 1A), y por el contrario, "r" será
negativo si al aumentar el valor de una variable disminuye la otra (Figura 1B). La
correlación será perfecta si r= ±1, en este caso los puntos formarán todos una
recta. Es importante a priori determinar qué valor de "r" vamos a considerar como
clínicamente relevante, puesto que una correlación tan baja como r= 0,07 sería
significativa (p=0,027) con un tamaño muestral de unas 1000 personas. Al igual
que cualquier otro parámetro, conviene darlo con sus correspondientes intervalos
de confianza. Un coeficiente de correlación significativo, lo único que nos indica es
que es bastante improbable que en nuestra población "r" sea cero, y por tanto su
intervalo de confianza no incluirá el cero.
REGRESION LINEAL MULTIPLE

El Análisis de Regresión Lineal Múltiple nos permite establecer la relación que


se produce entre una variable dependiente Y y un conjunto de variables
independientes (X1, X2, ... XK). El análisis de regresión lineal múltiple, a diferencia
del simple, se aproxima más a situaciones de análisis real puesto que los fenó-
menos, hechos y procesos sociales, por definición, son complejos y, en
consecuencia, deben ser explicados en la medida de lo posible por la serie de
variables que, directa e indirectamente, participan en su concreción.

Al aplicar el análisis de regresión múltiple lo más frecuente es que tanto la


variable dependiente como las independientes sean variables continuas medidas
en escala de intervalo o razón. No obstante, caben otras posibilidades:

(1) también podremos aplicar este análisis cuando relacionemos una variable
dependiente continua con un conjunto de variables categóricas.

(2) o bien, también aplicaremos el análisis de regresión lineal múltiple en el caso


de que relacionemos una variable dependiente nominal con un conjunto de
variables continuas.

La anotación matemática del modelo o ecuación de regresión lineal múltiple es la


que sigue:

Y = a + b1x1 + b2x2 + ... + bnxn + e ó

presente = a + b1pasado + b2futuro + e

en donde: Y es la variable a predecir; a, b1x1, b2x2... bnxn, son parámetros


desconocidos a estimar; y es el error que cometemos en la predicción de los pará-
metros. Al ocuparnos del análisis lineal bivariado, análisis de regresión simple,
vimos como el modelo final resultante podía ser en muchas ocasiones los modelos
bivariados o simples pueden verse mejorados al introducir una segunda (tercera,
cuarta,...) variable independiente o explicativa. Consideramos que un modelo de
regresión lineal simple se ha “mejorado” cuando al introducir en el mismo más
variables independientes la proporción de variabilidad explicada se incrementa.
Pero ¿qué variables son las que mejor explican el hecho, proceso o fenómeno
social objeto de estudio?; o, ¿qué variables no son necesario incluir en el modelo
dada su nula o escasa capacidad explicativa? Esta es, sin lugar a dudas, la
decisión más importante ligada al análisis de regresión múltiple y la inclusión de
este proceso es lo que diferencia, sustancialmente, al análisis de regresión
múltiple del de regresión simple

COEFICIENTE DE REGRESIÓN

Indica el número de unidades en que se modifica la variable dependiente "Y" por


efecto del cambio de la variable independiente "X" o viceversa en una unidad de
medida.

CLASES DE COEFICIENTE DE REGRESIÓN:

El coeficiente de regresión puede ser: Positivo, Negativo y Nulo.

Es positivo cuando las variaciones de la variable independiente X son


directamente proporcionales a las variaciones de la variable dependiente "Y"

Es negativo, cuando las variaciones de la variable independiente "X" son


inversamente proporcionales a las variaciones de las variables dependientes "Y"

Es nulo o cero, cuando entre las variables dependientes "Y" e independientes "X"
no existen relación alguna.

PROCEDIMIENTO PARA HALLAR EL COEFICIENTE DE REGRESIÓN

Para determinar el valor del coeficiente de regresión de una manera fácil y exacta
es utilizando el método de los Mínimos Cuadrados de dos maneras:

1.- Forma Directa


De la ecuación de la recta:

Si y , se obtienen a partir de las ecuaciones normales:

Aplicando normales Y sobre X tenemos:

El Coeficiente de Regresión es

De la misma manera la recta de regresión de "X" sobre "Y" será dada de la


siguiente manera:

Donde: y se obtienen a partir de las ecuaciones normales:

Aplicando normales X sobre Y tenemos:


Cómo analizar la regresión lineal múltiple en 4 pasos:

Estos 4 pasos y podrás leer investigaciones que apliquen regresión lineal


múltiple y también podrás analizar datos usando la regresión lineal, por tanto,
seréis capaces de resolver preguntas causales y comprobar relaciones o hipótesis
causales. ¿Qué factores explican el nivel de ingresos? ¿Qué variables explican la
opinión respecto a la inmigración? ¿Son las variables religiosas, las variables
políticas, o las variables sociodemográficas las que explican en mayor medida la
opinión respecto al aborto?

Los dos primeros pasos hacen referencia a la bondad del modelo, es decir, si el
conjunto de variables independientes (causas) explican la variable dependiente
(resultado)

1 – Significación de F-test: si es menor de 0,05 es que el modelo es


estadísticamente significativo y por tanto las variables independientes explican
“algo” la variable dependiente, cuánto “algo” es la R-cuadrado

2 – R cuadrado: es cuánto las variables independientes explican la variable


dependiente, indica el porcentaje de la varianza de la variable dependiente
explicado por el conjunto de variables independientes. Cuanto mayor sea la R-
cuadrado más explicativo y mejor es el modelo causal.

Los dos siguientes pasos hacen referencia a la influencia de cada una de las
variables independientes:

3 – Significación de t-test: si es menor de 0,05 es que esa variable independiente


se relaciona de forma significativa con la variable dependiente, por tanto, influye
sobre ella, es explicativa

4 – Coeficiente beta (β): indica la intensidad y la dirección de la relación entre esa


variable independiente (VI) y la variable dependiente (VD):

Cuanto más se aleja de 0 más fuerte es la relación

El signo indica la dirección (signo + indica que al aumentar los valores de la VI


aumentan los valores de la VD; signo – indica que al aumentar los valores de la VI,
los valores de la VD descienden)
CONCLUSION

El mantener constante una variable puede hacerse experimentalmente o

estadísticamente, debiendo dar en ambos casos resultados equivalentes. Para ver

claro por qué se necesita hallar una correlación haciendo constante el valor de

otra u otras variables supóngase que se está interesado en conocer la correlación

entre la longitud del brazo y de la pierna cuando el tamaño total del organismo

permanece constante. Está claro que la longitud del brazo y de la pierna estarán

altamente correlacionados debido al tamaño general; así, un individuo alto tendrá

brazos y piernas largos, mientras que un individuo bajo tendrá extremidades

cortas. Sin embargo, si este estudio se seleccionan individuos del mismo tamaño

se puede esperar que exista alguna correlación residual entre la longitud del brazo

y de la pierna. Esto es muy probable en vertebrados, debido a que ambas

extremidades están determinadas embriológicamente con mecanismos homólogos

responsables de la diferenciación y determinación. Por tanto existirá alguna

correlación entre éstas dos longitudes, incluso en ausencia de una causa común

como es el tamaño del individuo. Si una correlación y regresión significativa entre

dos variables se convierte en correlación parcial no significativa cuando una

tercera variable permanece constante, esto sugiere, aunque no prueba, que la

variable que permanece constante es la causa común de la correlación de las

otras dos.
REFERENCIAS

 Regresión y correlación lineal múltiple (18 de enero 2015)


http://www.monografias.com/trabajos96/analisis-regresion-y-
correlacion/analisis-regresion-y-correlacion.shtml

Consultado el 30 de Noviembre de 2017

 Regresión lineal múltiple (12 de marzo 2016)


http://networkianos.com/regresion-lineal-multiple/
Consultado el 30 de Noviembre de 2017

 Correlación y regresión (20 de febrero 2013).

http://humanidades.cchs.csic.es/cchs/web_UAE/tutoriales/PDF/Regresio
n_lineal_multiple_3.pdf
Consultado el 30 de Noviembre de 2017