Vous êtes sur la page 1sur 26

ANALISIS DE DATOS

CUANTITATIVOS

Qu procedimiento se sigue
para analizar
cuantitativamente los datos?

Una vez que los datos se han codificado, transferido a una


matriz, guardado en un archivo y limpiado de errores, el
investigador procede a analizarlos. En la actualidad, el anlisis
cuantitativo de los datos se lleva a cabo por computadora u
ordenador. Ya casi nadie lo hace de forma manual ni aplicando
frmulas, en especial si hay un volumen considerable de datos

ANALSIS DE DATOS
Los anlisis de los datos dependen de tres factores:
a) El nivel de medicin de las variables.
b) La manera como se hayan formulado las hiptesis.
c) El inters del investigador.
El investigador busca, en primer trmino, describir sus datos y
posteriormente efectuar anlisis
estadsticos para relacionar sus variables. Es decir, realiza anlisis
de estadstica descriptiva para cada una de las variables de la
matriz (tems) y luego para cada una de las variables del estudio,
finalmente aplica clculos estadsticos para probar sus hiptesis.

Estadstica descriptiva para


cada variable
La primera tarea es describir los datos, los valores o las
puntuaciones obtenidas para cada variable.
Qu es una distribucin de frecuencias?
Una distribucin de frecuencias es un conjunto de puntuaciones
ordenadas en sus respectivas categoras y generalmente se
presenta como una tabla.
Las distribuciones de frecuencias pueden completarse agregando
los porcentajes de casos en cada categora, los porcentajes vlidos
(excluyendo los valores perdidos) y los porcentajes acumulados
(porcentaje de lo que se va acumulando en cada categora, desde la
ms baja hasta la ms alta).

Cules son las medidas de


tendencia central?
Medidas de tendencia central Valores medios o
centrales de una distribucin que sirven para ubicarla
dentro de la escala de medicin
Moda Categora o puntuacin que se presenta con
mayor frecuencia.
Mediana Valor que divide la distribucin por la mitad.
La mediana refleja la posicin intermedia de la
distribucin (N+1)/2
Media Es el promedio aritmtico de una distribucin y
es la medida de tendencia central ms utilizada.

Cules son las medidas de la


variabilidad?
Medidas de la variabilidad Son intervalos que indican la dispersin de los
datos en la escala de medicin.
El rango, tambin llamado recorrido, es la diferencia entre la puntuacin
mayor y la puntuacin menor, e indica el nmero de unidades en la escala
de medicin que se necesitan para incluir los valores mximo y mnimo.
La desviacin estndar o tpica es el promedio de desviacin de las
puntuaciones con respecto a la media. Esta medida se expresa en las
unidades originales de medicin de la distribucin. Se interpreta en relacin
con la media. Cuanto mayor sea la dispersin de los datos alrededor de la
media, mayor ser la desviacin estndar
La varianza es la desviacin estndar elevada al cuadrado y se simboliza
s2. Es un concepto estadstico muy importante, ya que muchas de las
pruebas cuantitativas se fundamentan en l.

Hay alguna
otra estadstica
descriptiva?
La asimetra es una estadstica necesaria para
conocer cunto se parece nuestra distribucin a
una distribucin terica llamada curva normal y
constituye un indicador del lado de la curva donde
se agrupan las frecuencias. Si es cero (asimetra =
0), la curva o distribucin es simtrica. Cuando es
positiva, quiere decir que hay ms valores
agrupados hacia la izquierda de la curva (por
debajo de la media). Cuando es negativa, significa
que los valores tienden a agruparse hacia la
derecha de la curva (por encima de la media).
La curtosis es un indicador de lo plana o picuda
que es una curva. Cuando es cero (curtosis = 0),
significa que puede tratarse de una curva normal.
Si es positiva, quiere decir que la curva, la
distribucin o el polgono es ms picuda(o) o
elevada(o). Si la curtosis es negativa, indica que
es ms plana la curva. La asimetra y la curtosis
requieren mnimo de un nivel de medicin por
intervalos.

La validez
la validez del contenido se obtiene mediante las
opiniones de expertos y al asegurarse que las
dimensiones medidas por el instrumento sean
representativas del universo o dominio de dimensiones
de la(s) variable(s) de inters (a veces mediante un
muestreo aleatorio simple). La evidencia de la validez de
criterio se produce al correlacionar las puntuaciones de
los participantes, obtenidas por medio del instrumento,
con sus valores logrados en el criterio. Recordemos que
una correlacin implica asociar puntuaciones obtenidas
por la muestra en dos o ms variables.

Analizar mediante pruebas estadsticas las


hiptesis
planteadas (anlisis estadstico inferencial)
Con frecuencia, el propsito de la investigacin va ms
all de describir las distribuciones de las variables: se
pretende probar hiptesis y generalizar los resultados
obtenidos en la muestra a la poblacin o universo.

En qu consiste la prueba de
hiptesis?
La prueba de hiptesis permite determinar si la hiptesis
poblacional es congruente con los datos obtenidos en la
muestra
Una hiptesis se retiene como un valor aceptable del
parmetro, si es consistente con los datos. Si no lo es, se
rechaza (pero los datos no se descartan)
Qu es una distribucin muestral?
Una distribucin muestral es un conjunto de valores sobre
una estadstica calculada de todas las muestras posibles de
determinado tamao de una poblacin. Las distribuciones
muestrales de medias son probablemente las ms conocidas.

Qu es el nivel de
significancia?
nivel de significancia o nivel alfa (), el cual es un nivel de la
probabilidad de equivocarse y se fija antes de probar hiptesis inferenciales.
Se pueden cometer errores al probar hiptesis y realizar estadstica
inferencial?
Nunca estaremos completamente seguros de nuestra estimacin. Trabajamos
con altos niveles de confianza o seguridad, pero, aunque el riesgo es mnimo,
podra cometerse un error. Los resultados posibles al probar hiptesis seran:
1. Aceptar una hiptesis verdadera (decisin correcta).
2. Rechazar una hiptesis falsa (decisin correcta).
3. Aceptar una hiptesis falsa (conocido como error del Tipo II o error beta).
4. Rechazar una hiptesis verdadera (conocido como error del Tipo I o error
alfa).

PRUEBA DE HIPOTESIS
Hay dos tipos de anlisis estadsticos que pueden
realizarse para probar hiptesis: los anlisis paramtricos y
los no paramtricos. Cada tipo posee sus caractersticas y
presuposiciones que lo sustentan; la eleccin de qu clase
de anlisis efectuar depende de estas presuposiciones. De
igual forma, cabe destacar que en una misma
investigacin es posible llevar a cabo anlisis paramtricos
para algunas hiptesis y variables, y anlisis no
paramtricos para otras. Asimismo, los anlisis a realizar
dependen de las hiptesis que hayamos formulado y el
nivel de medicin de las variables que las conforman.

Anlisis paramtricos
Cules son los supuestos o las presuposiciones de la
estadstica paramtrica?

Para realizar anlisis paramtricos debe partirse de los


siguientes supuestos:
1. La distribucin poblacional de la variable dependiente es
normal: el universo tiene una distribucin normal.
2. El nivel de medicin de las variables es por intervalos o razn.
3. Cuando dos o ms poblaciones son estudiadas, tienen una
varianza homognea: las poblaciones en cuestin poseen una
dispersin similar en sus distribuciones (Wiersma y Jurs, 2008).

Cules son los mtodos o las


pruebas
estadsticas paramtricas ms
utilizadas?
Existen diversas pruebas paramtricas, pero las ms
utilizadas son:

Coefi ciente de correlacin de Pearson y regresin


lineal.
Prueba t.
Prueba de contraste de la diferencia de proporciones.
Anlisis de varianza unidireccional (ANOVA en un
sentido o oneway).
Anlisis de varianza factorial (ANOVA).
Anlisis de covarianza (ANCOVA).

Qu es el coeficiente de
correlacin de Pearson?
Definicin: es una prueba estadstica para analizar la
relacin entre dos variables medidas en un nivel por
intervalos o de razn. El coeficiente de correlacin de
Pearson se calcula a partir de las puntuaciones
obtenidas en una muestra en dos variables. Se
relacionan las puntuaciones recolectadas de una
variable con las puntuaciones obtenidas de la otra, con
los mismos participantes o casos.

Qu es la regresin lineal?
Es un modelo estadstico para estimar el efecto de una variable sobre
otra. Est asociado con el coeficiente r de Pearson. Brinda la
oportunidad de predecir las puntuaciones de una variable tomando
las puntuaciones de la otra variable. Entre mayor sea la correlacin
entre las variables (covariacin), mayor capacidad de prediccin.
Hiptesis: correlacionales y causales.
Variables: dos. Una se considera como independiente y otra como
dependiente. Pero, para poder hacerlo, debe tenerse un slido
sustento terico.
Nivel de medicin de las variables: intervalos o razn.
Procedimiento e interpretacin: la regresin lineal se determina con
base en el diagrama de dispersin

Esta lnea es la recta de regresin y se expresa mediante la ecuacin de regresin lineal:


Y = a + bX
en donde Y es un valor de la variable dependiente que se desea predecir, a es la ordenada en
el origen y
b la pendiente o inclinacin, X es el valor que fi jamos en la variable independiente.
Los programas y paquetes computacionales de anlisis estadstico que incluyen la regresin

Qu es la prueba t ?
Es una prueba estadstica para evaluar si dos grupos difieren entre s de
manera significativa respecto a sus medias en una variable.

La prueba t se basa en una distribucin muestral o poblacional de


diferencia de medias conocida como la distribucin t de Student que
se identifica por los grados de libertad, los cuales constituyen el
nmero de maneras en que los datos pueden variar libremente. Son
determinantes, ya que nos indican qu valor debemos esperar de t,
dependiendo del tamao de los grupos que se comparan. Cuanto
mayor nmero de grados de libertad se tengan, la distribucin t de
Student se acercar ms a ser una distribucin normal y usualmente,
si los grados de libertad exceden los 120, la distribucin normal se
utiliza como una aproximacin adecuada de la distribucin t de
Student.
Los grados de libertad se calculan con la frmula siguiente, en la que
n1 y n2 son el tamao de los grupos que se comparan:
gl = (n1
+ n2) 2

Qu es la prueba de diferencia
de proporciones?
Es una prueba estadstica para analizar si dos
proporciones o porcentajes difieren significativamente
entre s.

Qu es el anlisis de varianza unidireccional o


de un factor (ANOVA one-way)
Es una prueba estadstica para analizar si ms de dos grupos difieren
significativamente entre s en cuanto a sus medias y varianzas. La
prueba t se usa para dos grupos y el anlisis de varianza unidireccional
se usa para tres, cuatro o ms grupos. Aunque con dos grupos se puede
utilizar tambin.
Interpretacin: el anlisis de varianza unidireccional produce un valor
conocido como F o razn F, que se basa en una distribucin muestral,
conocida como distribucin F, el cual es otro miembro de la familia de
distribuciones muestrales. La razn F compara las variaciones en las
puntuaciones debidas a dos diferentes fuentes: variaciones entre los
grupos que se comparan y variaciones dentro de los grupos. Si el valor F
es significativo implica que los grupos difieren entre s en sus promedios.
Entonces se acepta la hiptesis de investigacin y se rechaza la nula.

Estadstica multivariada
Hasta aqu hemos visto pruebas paramtricas con una
sola variable independiente y una dependiente. Pero
qu ocurre cuando tenemos diversas variables
independientes y una dependiente, varias
independientes y dependientes? Esquemas del tipo,
como se muestra en la fi gura

Anlisis no paramtricos
Cules son las presuposiciones de la estadstica
no paramtrica?
Para realizar los anlisis no paramtricos debe partirse
de las siguientes consideraciones:
1. La mayora de estos anlisis no requieren de
presupuestos acerca de la forma de la distribucin
poblacional. Aceptan distribuciones no normales.
2. Las variables no necesariamente tienen que estar
medidas en un nivel por intervalos o de razn; pueden
analizar datos nominales u ordinales

Cules son los mtodos o las pruebas


estadsticas
no paramtricas ms utilizados?
Las pruebas no paramtricas ms utilizadas son:
1. La chi cuadrada o 2.
2. Los coeficientes de correlacin e independencia para
tabulaciones cruzadas.
3. Los coefi
cientes de correlacin por rangos ordenados de Spearman y
Kendall.
* Qu es la chi cuadrada o 2?
Es una prueba estadstica para evaluar hiptesis acerca de la
relacin entre dos variables categricas.

Qu son los coeficientes de correlacin e


independencia
para tabulaciones cruzadas?
Adicionales a la chi cuadrada, existen otros coeficientes para evaluar
si las variables incluidas en la tabla de contingencia o tabulacin
cruzada estn correlacionadas
Otros coeficientes de correlacin
El coeficiente de correlacin de Pearson es una estadstica apropiada
para variables medidas por intervalos o razn y para relaciones
lineales. La chi cuadrada y dems coeficientes son estadsticas
adecuadas para tablas de contingencia con variables nominales,
ordinales y de intervalos, pero reducidas a categoras; ahora, qu
ocurre si las variables de nuestro estudio son ordinales, por intervalos
y de razn?, o bien, una mezcla de niveles de medicin, o los datos
no necesariamente los disponemos en una tabla de contingencia

Qu son los coeficientes y la


correlacin por rangos
ordenados de Spearman y Kendall?
Los coeficientes rho de Spearman, simbolizado como rs, y tau de
Kendall, simbolizado como t, son medidas de correlacin para variables
en un nivel de medicin ordinal (ambas), de tal modo que los individuos
u objetos de la muestra pueden ordenarse por rangos (jerarquas).
Qu otros coeficientes existen?
Un coeficiente muy importante es el eta, que es similar al coeficiente r
de Pearson, pero con relaciones no lineales, las cuales se comentaron
anteriormente. Es decir, eta define la correlacin perfecta (1.00) como
curvilineal y a la relacin nula (0.0) como la independencia estadstica
de las variables. Este coeficiente es asimtrico y a diferencia de
Pearson, se puede obtener un valor diferente para el coeficiente al
determinar cul variable se considera independiente y cual dependiente

Vous aimerez peut-être aussi