Académique Documents
Professionnel Documents
Culture Documents
Hasta ahora en las unidades anteriores hemos trabajados con solamente con grupos
de datos que corresponden una variable cuando se da este case se denominan
distribuciones unidimensionales, pero existen momentos en los cuales se hace
necesario el estudio de dos distribuciones correspondientes a un mismo grupo de
registro, es decir parejas de datos, se denominan distribuciones bidimensionales por lo
tanto vienen en forma conjunta: en algunos otros momentos corresponden a ms
variables y se denominan multidimensionales.
Uno de los aspectos ms interesantes de la estadstica es el estudio de la relacin
entre dos o ms fenmenos representados por las variables, de all que se presenta
un concepto muy interesante y es correlacin.
Correlacin
Se define como la relacin concomitantes entre dos variables, por lo tanto expresa lo
que ocurre en una variable ocurre o no en la otra y esto se expresa a travs del
coeficiente de correlacin.
Coeficiente de correlacin
Consiste en la expresin cuantitativa del grado de relacin existente entre por lo
menos dos variables, dicho coeficiente presenta dos partes una que se refiere al
sentido y otra a la magnitud. Existe diferentes tipos de coeficientes y la seleccin de
cada uno de ellos depender de la escala de medida y de la naturaleza de la variable y
la relacin lineal o no de la distribucin bidimensional.
Tipos de Correlacin
Cuando las variables se intercorrelacionan se pueden dar varios tipos de correlacin,
seguiremos las correlaciones que se pueden representar mediante una lnea recta la
correlacin existente, y son a saber:
Correlacin Positiva, se dice cuando a los cambios que ocurren en una variable
se dan en el mismo sentido en la otra, si sea un aumento en una se da una
aumento en la otra y viceversa.
La correlacin positiva puede ser perfecta, lo cual indica que las unidades
estadstica que ocupan las primeras posiciones en una variable tambin ocupan
primeras posiciones en la otra y viceversa.
rxy
* zy
rxy
rxy
x* y
x * y
2
N XY ( X )( Y )
N X
( X ) 2 N Y 2 ( Y ) 2
rxy
0
0,01 - 0,20
0,21 - 0,40
0,41 - 0,60
0,61 - 0,80
0,81 - 0,99
1
Grado de relacin
Nula
Muy baja o despreciable
Baja o leve
Media o sustancial
Alta o importante
Muy alta
Perfecta
Por ejemplo si existe un coeficiente de correlacin entre dos variables, talla y peso,
de 0,80 (rxy = 0,80), para interpretarlo debemos establecer algunas consideraciones
iniciales como son el sentido, positiva, el grado de relacin alta, pero no es perfecta
por lo tanto es una tendencia, diramos entonces Correlacin imperfecta positiva de
tipo alto lo cual indica una lata tendencia a que quienes posean una alta talla tienden a
tener un alto peso y viceversa quienes tenga una talla baja tienden a tener un peso
bajo.
Es necesario aclarar que la correlacin no implica necesariamente causalidad, o sea
que una variable es producto de la otra.
Para la utilizacin del coeficiente de correlacin de Pearson debemos considerar que
se cumplen los siguientes supuestos:
a. Cada para de datos es independiente de los dems.
b. Las dos variables a correlacionar son continuas.
c. La relacin existente entre ellas es rectilnea.
2.
3.
4.
Los elementos que se presentan al final de anlisis son en primer lugar las
correlaciones (Correlation), el tamao de la muestra (Simple Size) y la probabilidad de
significacin (p-value) que tratemos en el capitulo VIII.
Regresin y Prediccin
Como tratamos anteriormente el coeficiente de correlacin es un resumen del grfico
de dispersin o nube de puntos entre las variables objeto de estudio, pero la diferencia
entre regresin y correlacin esta en que la primera trata de de prever la variable
dependiente en funcin de los valores de la variable dependiente, en consecuencia si
cambiamos el papel de las variables cambiar tambin la ecuacin de regresin , ya
que la recta de regresin se adapta a las unidades de las variable que desea predecir,
sin embargo la recta es la misma independiente del orden de las variables, por lo tanto
describen como vara la media de una variable en funcin de la otra y de una
dispersin que es la desviacin tpica residual.
Y a bX
Y a yx b yx * X X a xy bxy * Y
Lo cual significa que el que haya obtenido 12 en la variable puntos obtendra 12,87, si
la relacin fuera perfecta esta prediccin sera absolutamente cierta, no habra error,
pero como el coeficiente de correlacin no fue igual a uno se esta cometiendo un error
de estimacin el cual aparece en el anlisis como Error estndar of Est en este caso
es igual a 3, 66, su frmula de clculo es
est s 1 (r ) 2
rs 1
6 d 2
n(n 1)
Donde d es la diferencia de los rangos entre las variables y n el nmero de los pares
de medidas.
El coeficiente de correlacin de Spearman no es ms que un caso particular del de
Pearson, por lo tanto tomaremos para su interpretacin la misma escala.
Procedimiento de clculo
1. Pulsar el botn Describe de la barra de men
2. Seleccionar del men Numeric Data
3. Seleccionar Multiple-Variable Analysis
4. Seleccionar las variables a correlacionar
5. Pulsar el botn Ok.
A continuacin aparece la ventana de anlisis con el resumen.
6. Seleccionar la opcin tabular (Option tabular) y escoger de ella Rank
Correlations
7. Pulsar el botn Ok, y a continuacin muestra una matriz de correlaciones.
X p X q
rbp
* p*q
s
Se utiliza para determinar el grado de relacin existente entre
una variable de naturaleza continua (escala de intervalo o razones) y otra variable de
naturaleza dicotoma o dicotmica es decir por su naturaleza se divide en solo dos
categoras o modalidades.
Donde:
Xp: Corresponde a la media de la variable continua de los que se encuentran en el
criterio.
Xq: Corresponde a la media de la variable continua de los que no se encuentran en el
criterio.
s: desviacin tpica de la variable continua.
p: proporcin de unidades estadsticas que se encuentra en el criterio.
q: proporcin de unidades estadsticas que no se encuentra en el criterio.
fq
fp
p
n
n
(a * d ) (b * c )
p * q * p' * q'
El paquete tampoco nos suministra el coeficiente phi, solamente el phi cuadrado que
tratemos ms adelante, pero podemos construir la tabla cruzada con las variables que
necesitemos establecer la relacin y luego aplicar manualmente la frmula.
Al igual que los dos coeficientes anteriores tambin se utiliza para interpretarlo la tabla
que tenemos para el coeficiente de correlacin de Pearson.
Coeficiente de Correlacin Parcial (r12.3)
Se utiliza cuando se desea determinar el verdadero grado de relacin entre dos
variables cuando se controla o elimina la influencia de una tercera.
r12.3
Interpretacin
Supngase que se desea determinar el verdadero grado e relacin entre las variables
puntos y nota1 cuando se controla la influencia de la edad, se tiene un coeficiente de
correlacin parcial (r12.3) de 0,1224, lo cual indica que es el verdadero grado de
correlacin entre dichas variable al controlar la edad, si se compara con el obtenido
por Pearson (rxy), fue de 0,2270, lo cual nos lleva a la conclusin que la edad si ejerce
influencia sobre puntos y nota1.
Coeficiente de Correlacin Mltiple (R1.23)
R1.23 R12.23
Se utiliza cuando se desea determinar la relacin existente entre una
variable dependiente o predicha y por lo menos dos variables independientes o
predictoras tomadas de manera conjunta, de all que el resultado del coeficiente indica
1 r232