Vous êtes sur la page 1sur 19

ESTADISTICA BIVARIADA PARAMETRICA

GRUPO I
ANALIS BIVARIADO PARAMETRICO

18 de Julio de 2017
ANALIS BIVARIADO PARAMETRICO

El anlisis bivariado tiene dos usos principalmente:


1. Establecer la asociacin entre dos variables (explicar
una caracterstica en base a otra).
2. Realizar la comparacin de una variable entre grupos
(independientes o relacionados), conformados a una
segunda variable.

Las correlaciones bivariadas son herramientas


comunes y se utilizan para estudiar como una
variable influye en la otra
T-STUDENT

CONDICIONES

Se utiliza en muestras de 30 o menos elementos.


La desviacin estndar de la poblacin no se conoce

DIFERENCIAS CON LA DISTRIBUCIN NORMAL

La distribucin t-student es menor en la media y mas alta


en los extremos que una distribucin normal.
Tiene proporcionalmente mayor parte de su rea en los
extremos que la distribucin normal.(como veremos en l siguiente grafica)
GRADOS DE LIBERTAD

Existe una distribucin t para


cada tamao de la muestra, por
lo que Existe una distribucin
para cada uno de los grados de
libertad.
Los grados de libertad son el
numero de valores elegidos
libremente.
Dentro de una muestra para
distribucin t student los grados
de libertad se calculan de la
siguiente manera:

GL=n 1
Uso de la Tabla de Distribucin t
La tabla de distribucin t es mas compacta que z y
muestra las reas y valores de t para unos cuantos
porcentajes exclusivamente (10%,5%,2% y 1%)

Una segunda diferencia de la tabla es que no se centra


en la probabilidad de que el parmetro de la poblacin
que esta siendo estimado caiga dentro del intervalo de
confianza. Por el contrario, mide la probabilidad de que
ese parmetro no caiga dentro del intervalo de confianza.

Una tercera diferencia en el empleo de la tabla consiste


en que hemos de especificar los grados de libertad con
que estamos trabajando.

Levin,Richard, Estadstica para Administradores segunda edicin, edit, Prentice Hall,


ANOVA
Es el anlisis de la varianza en el cual la varianza est
particionada en ciertos componentes debidos a
diferentes factores (variables).

Para qu hacer un ANOVA?


Para verificar si hay diferencias estadsticamente
significativas entre medias en ms de dos muestras de una
poblacin.
Su verdadero objetivo no es la variabilidad, sino otros
contrastes, como la igualdad de medias o el ajuste en un
problema de Regresin.
En que consiste la tcnica ANOVA?
La tcnica del ANOVA consiste en descomponer la variabilidad
de una poblacin (representada por su varianza) en diversos
sumandos.
La varianza expresa variacin, y si podemos descomponer la
varianza, podemos aislar fuentes de variacin.
Cuando tenemos varios tipos de informacin, el anlisis de
varianza nos va a responder a esta pregunta
De dnde vienen las diferencias?
Para dos (o ms) muestras, la varianza total (uniendo las dos muestras en
una sola) puede descomponerse en dos varianzas:
1) Una varianza que indica la variabilidad dentro de los grupos
2) Otra varianza que expresa la variabilidad (diferencias) entre los
grupos (entre las medias).
Cmo hacer un ANOVA?
Primero, se deben satisfacer tres supuestos bsicos antes de utilizar el
anlisis de varianza.
1) Las muestras deben ser de tipo aleatorio independiente.
2) Las muestras deben ser obtenidas a partir de poblaciones normales.
3) Las muestras deben tener varianzas iguales

Despus, se calculan las varianzas mustrales (de cada muestra). Cabe


aclarar que la suma de cuadrados se debe dividir entre el nmero de
elementos de la muestra global menos uno (n - 1) porque es una
muestra.

Lo siguiente es calcular la variacin entre muestras, para ello se suman


todas las varianzas muestrales y se dividen entre el nmero de muestras
(k), esto es una media de varianzas.
Cmo hacer un ANOVA?
Posteriormente, se estima la varianza de interna
de los grupos, para lo cual, previamente se
estima la varianza de las medias aritmticas,
como sigue:

La cual se multiplica por el nmero de


elementos totales de cada muestra (n) para
obtener la varianza de la distribucin del
muestreo.
Tabla ANOVA
Finalmente, la informacin debe presentarse en
una tabla ANOVA
3. CORRELACIN DE PEARSON (r)
De manera menos formal, podemos
Es una medida de la relacin lineal entre
definir el coeficiente de correlacin de
dos variables aleatorias cuantitativas. A
Pearson como un ndice que puede
diferencia de la covarianza, la correlacin
utilizarse para medir el grado de relacin
de Pearson es independiente de la escala
de dos variables siempre y cuando
de medida de las variables.
ambas sean cuantitativas

En el caso de que se est estudiando De manera anloga podemos


dos variables aleatorias x e y sobre calcular este coeficiente sobre un
una poblacin estadstico muestral:
INTERPRETACIN
ES UN VALOR ENTRE +1 Y -1. SIENDO:
+1 -1
(correlacin variable (correlacin variable
Positiva) CER Negativa)
Al aumentar X, O Al aumentar X,
No hay correlacin
aumenta tambin Y. entre variables disminuye Y.
Al disminuir X, Al disminuir X,
disminuye Y aumenta Y
USOS
Permite predecir el valor de una variable dado un valor determinado de la otra variable.
Se trata de valorar la asociacin entre dos variables cuantitativas estudiando el mtodo conocido como
correlacin.
Dicho clculo es el primer paso para determinar la relacin entre las variables.
Consiste en la posibilidad de calcular su distribucin muestral y as poder determinar su error tpico de
estimacin.
Reporta un valor de correlacin cercano a 0 como un indicador de que no hay relacin lineal entre 2 variables.
Reporta un valor de correlacin cercano a 1 como un indicador de que existe una relacin lineal positiva entre
las 2 variables. Un valor mayor a cero que se acerque a 1 da como resultado una mayor correlacin positiva
entre la informacin.

VENTAJA DESVENTAJA
S S
Requiere supuestos acerca de la
El valor del coeficiente de correlacin
naturaleza o formas de las
es independiente de cualquier unidad poblaciones afectadas.
usada para medir variables.
Requiere que las dos variables hayan
Mientras mas grande sea la muestra ido medidas hasta un nivel
mas exacta ser la estimacin. cuantitativo continuo y que la
distribucin de ambas sea semejante
a la de la curva normal.
4. CORRELACIN DE SPEARMAN (p)
En estadstica, el coeficiente de correlacin de
Spearman, (rho) es una medida de la correlacin
(la asociacin o interdependencia) entre dos
variables aleatorias continuas. Para calcular , los
datos son ordenados y reemplazados por su
respectivo orden.

Se tiene que considerar la existencia de datos


El estadstico p viene dado por: idnticos a la hora de ordenarlos, aunque si stos
son pocos, se puede ignorar tal circunstancia.

Para muestras mayores de 20 observaciones,


podemos utilizar la siguiente aproximacin a
la distribucin t de Student

Dnde:
La interpretacin de coeficiente de Spearman es igual que la del
coeficiente de correlacin de Pearson. Oscila entre -1 y +1,
indicndonos asociaciones negativas o positivas respectivamente, 0
cero, significa no correlacin pero no independencia.
USOS
Para aplicar el coeficiente de correlacin de Spearman se requiere que las variables estn
medidas al menos en escala ordinal, es decir; de forma que las puntuaciones que la representan
puedan ser colocadas en dos series ordenadas.

Una generalizacin del coeficiente de Spearman es til en la situacin en la cual hay tres o ms
condiciones, varios individuos son observados en cada una de ellas, y predecimos que las
observaciones tendrn un orden en particular. Por ejemplo, un conjunto de individuos pueden
tener tres oportunidades para intentar cierta tarea, y predecimos que su habilidad mejorar de
intento en intento.

El coeficiente de correlacin de rangos de Spearman debe utilizarse para series de datos en los
que existan valores extremos, pues si calculamos la correlacin de Pearson, los resultados se
vern afectados.

VENTAJAS DESVENTAJ
AS
No esta afectada por los cambios Es recomendable usarlo cuando los
en las unidades de medida. datos presentan valores extremos, ya
que dichos valores afectan mucho el
Al ser una tcnica no parmetra, coeficiente de correlacin de Pearson,
es libre de distribucin o ante distribuciones no normales.
probabilstica.
r no debe ser utilizado para decir algo
sobre la relacin entre causa y efecto.

Vous aimerez peut-être aussi