Académique Documents
Professionnel Documents
Culture Documents
Anlisis de Regresin
El Anlisis de regresin es una tcnica que se aplica siempre que una variable cuantitativa (la variable dependiente o
criterio), sea estudiada como una funcin de una variable o de una combinacin de varias variables independientes
o predictoras.
De este modo el anlisis de regresin permite:
Conocer el peso o influencia que ejerce cada variable independiente o predictora a la hora de explicar la
variabilidad de la variable dependiente o criterio.
Establecer predicciones sobre el comportamiento de la variable dependiente, a partir de informacin
proveniente, nicamente, de la variable o variables independientes.
Cuando la variable dependiente o criterio es funcin de una solo variable independiente o predictora hablamos de
Anlisis de Regresin Simple (ARS)
Cuando la variable dependiente o criterio es funcin de una combinacin de dos o ms variables independientes o
predictoras hablamos de Anlisis de Regresin Mltiple (ARM)
La funcin que pone en relacin la/s variable/s independiente/s con la dependiente son muy diversas, as por
ejemplo, pueden encontrarse relaciones de diversos tipos: lineales, exponenciales, potenciales, polinmicas
En el caso especfico de que la variable dependiente sea el resultado de una funcin lineal o una combinacin lineal
de varias variables independientes hablaremos de Anlisis de regresin lineal.
Ver tambin:
1|P g i n a
GLOSARIO
De este modo:
Si r = 1, existe una correlacin positiva perfecta. El ndice indica una dependencia total entre las dos
variables denominada relacin directa: cuando una de ellas aumenta, la otra tambin lo hace en proporcin
constante.
Si 0 < r < 1, existe una correlacin positiva.
Si r = 0, no existe relacin lineal. Pero esto no necesariamente implica que las variables son independientes:
pueden existir todava relaciones no lineales entre las dos variables.
Si -1 < r < 0, existe una correlacin negativa.
Si r = -1, existe una correlacin negativa perfecta. El ndice indica una dependencia total entre las dos
variables llamada relacin inversa: cuando una de ellas aumenta, la otra disminuye en proporcin
constante.
2|P g i n a
GLOSARIO
3|P g i n a
GLOSARIO
Comparaciones mltiples
En el contexto de Diseos con ms de dos grupos las comparaciones mltiples proporcionan informacin ms
especfica que el ANOVA.
En el ANOVA la Hiptesis alternativa se plantea como que, al menos, entre dos medias, hay diferencias que no son
debidas al azar. Sin embargo, si se confirma dicha hiptesis, el contraste no proporciona mayor informacin sobre
entre qu pares especficos se producen las diferencias significativas.
Dicha informacin s es proporcionada, en cambio, por los anlisis de comparaciones mltiples, que permiten
identificar entre qu pares de medias existen diferencias significativas no debidas al azar. De este modo, este tipo
de anlisis proporcionan una informacin ms exacta sobre la importancia de cada uno de los niveles de la variable
independiente.
Dos son los tipos fundamentales de anlisis de comparaciones mltiples existentes:
Comparaciones no planificadas, a posteriori o post hoc. Son los ms utilizados, aplicndose una vez
realizado el ANOVA y rechazada la Hiptesis nula, por lo que, a continuacin, se desea conocer entre qu
pares de medias existen diferencias no debidas al azar. Mediante dicho anlisis se comparan
sistemticamente todos los posibles pares de medias formados a partir de los lo n niveles del factor. Entre
los contrastes ms utilizados dentro de esta familia hemos de destacar: la prueba de comparaciones
mltiples de Tukey, as como la prueba de comparaciones mltiples de Scheff.
Comparaciones planificadas o a priori. En este caso el investigador no est interesado en realizar el ANOVA
ni en comparar sistemticamente todos los posibles pares de medias formados a partir de los lo n niveles
del factor, tan slo est interesado en algunas comparaciones especficas entre ciertos pares, que son las
que realimente le interesan.
Condicin experimental
En el Anlisis de Varianza (ANOVA) cada condicin experimental equivale a cada uno de los niveles o categoras que
constituyen un factor.
Ver: Niveles de un factor
Contrabalanceo
Es una tcnica de control experimental utilizada en los diseos intrasujetos. Consiste en ordenar de tal modo los
tratamientos experimentales que el efecto de factores tales como el aprendizaje o la fatiga se distribuya
equitativamente entre todas las condiciones experimentales de tal forma que afecten por igual a todos los niveles
del factor.
En los diseos intrasujetos este efecto se puede obviar o tener en cuenta, obtenindose, en el segundo caso, un
anlisis ms sensible al producirse un incremento de la potencia.
4|P g i n a
GLOSARIO
Contraste de hipteis
Un contraste de hiptesis es una afirmaci relativa a una o varias poblaciones que puede ser cierta o no. Mediante
un procedimiento de inferencia estadstica se trata de comprobar si esta afirmacin es compatible con lo observado
en una muestra representativa de dicha poblacin y tanto si se acepta como si se rechaza la afirmacin formulada se
puede cometer un error (Error tipo I o Error Tipo II).
Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson.
Covarianza
La covarianza es una medida de la variacin conjunta entre dos variables y, por tanto, es una medida del grado y
sentido de la relacin entre las mismas. Se representa por s x y o x y (a veces tambin denotada Cov(X,Y) )
La covarianza equivale a la media aritmtica de los productos de las desviaciones de cada una de las variables
respecto a sus medias respectivas.
De este modo, la covarianza indica el sentido de la correlacin entre las variables, de tal modo que:
Si el valor de la covarianza es mayor que cero, la covariacin entre ambas variables es directa, de
tal modo que a medida que aumenta el valor de una de las variables tambin lo hace el de la otra. Dicho en
otras palabras: los valores altos de X estn asociados a los valores altos de Y y viceversa.
Si el valor de la covarianza es menor que cero, la covariacin entre ambas variables es inversa, de
tal modo que a medida que aumenta el valor de una de las variables disminuye el de la otra, es decir: los
valores altos de X estn asociados a los valores bajos de Y y viceversa.
Uno de los inconvenientes que presenta la covarianza como medida es el hecho de que su valor depende
directamente de los valores que toman las variables, por lo que es difcil valorar el grado de covariacin entre dos
variables. Para evitar este problema se suele utilizar como medida de covariacin el coeficiente de correlacin,
medida estandarizada entre -1 y 1 de muy fcil interpretacin.
Cuasi-desviacin tpica
La cuasi-desviacin tpica de la muestra se representa por Sn-1 y es el estimador insesgado de la desviacin tpica
poblacional por lo que tambin se le denominadesviacin tpica insesgada (recurdese que la desviacin tpica de
la muestra no es un estimador insesgado de la desviacin tpica poblacional).
5|P g i n a
GLOSARIO
Cuasi-varianza
Varianza de la muestra:
Por lo que la cuasivarianza de la muestra se puede calcular a partir de la varianza de la muestra de acuerdo
a la siguiente expresin:
En el presente curso, en los temas dedicados al anlisis de datos paramtricos para diseos de dos grupos
(temas 3 y 4) la cuasivarianza se representar como pues al trabajar con dos muestras necesitamos un
subndice para distinguir entre ambas, por ejemplo: y , por este motivo se representa a la
cuasivarianza con un acento circunflejo (que es este smbolo:^).
6|P g i n a
GLOSARIO
Desviacin tpica
Para describir con detalle un conjunto de datos, no basta con conocer su media. Necesitamos tambien conocer la
variablidad o dispersin que tiene esta distribucin de datos respecto de su media, con objeto de tener una visin
ms completa de la distribucin: su tendencia central y su variablidad.
Si este conjunto o destribucin de datos se refiere a la poblacin en su totalidad obtenemos la desviacin tpica
poblacional: ; y si por el contrario nos referimos a una parte o muestra de la poblacin, obtenemos la desviacin
tpica de la muestra: .
Diseo factorial
Se trata de un experimento cuyo diseo consta de dos o ms factores. Al igual que en el Anlisis de varianza de un
factor, cada factor est compuesto por un determinado nmero de niveles.
Por ejemplo, con dos factores y dos niveles en cada factor, un diseo factorial tendra en total cuatro combinaciones
de tratamiento, y se le denominara diseo factorial de 22.
Este tipo de diseos estudia el efecto de cada factor sobre la variable dependiente, as como el efecto de la
interaccin de dichos factores sobre la misma.
La estrategia de anlisis en este tipo de diseos, al igual que en los anlisis de varianza de un factor, consiste en
descomponer las fuentes de variabilidad en elementos mutuamente excluyentes. As, por ejemplo, en un ANOVA de
2 factores tendramos:
los efectos principales: A y B, que son el efecto global de cada factor considerado de forma independiente
los efectos de la interaccin entre los dos factores: AB, que viene definido por la relacin existente entre los
factores o lo que es lo mismo, la interaccin o efecto cruzado entre dichos factores.
y el error experimental (S/AB) que representara la desviacin de la puntuacin de cada sujeto con respecto
a la media de los tratamientos que se le han asignado aleatoriamente.
Adems, en este tipo de diseos es muy importante conocer el concepto de efecto simple que es el efecto puntual
que ejerce un factor sobre cada nivel del otro factor (la manera de enfocar este anlisis es convertir cada nivel o fila
de la matriz AB en un diseo de un solo factor). Destacar adems que la suma de los efectos simples de un factor A
es igual a la suma de sus efectos principales ms su interaccin con el otro factor.
A la hora de realizar el anlisis en este tipo de diseos el procedimiento consiste en realizar, en primer lugar, la
prueba mnibus, que informa de la significacin estadstica tanto de los efectos principales como de la interaccin.
Si los primeros son significativos se procede a las comparaciones mltiples entre los tratamientos.
Si los segundos son significativos, ser necesario explicar cules de los diferentes efectos simples explican ese
efecto. Identificado cul es el efecto simple significativo se realizarn comparaciones mltiples para determinar
entre qu tratamientos se producen las diferencias que explican la significacin estadstica del efecto simple.
7|P g i n a
GLOSARIO
Diseo intersujetos
Representado como: AxS, donde A representa al factor con sus n niveles o condiciones experimentales
y S representa a los sujetos. En este tipo de diseos se construyen o utilizan tantos grupos distintos de participantes
como niveles tenga el factor, de tal modo que cada grupo es sometido a un nico nivel o condicin, obteniendo, por
lo tanto cada sujeto una nica puntuacin.
Diseo intrasujetos
Representado como: (AxS), donde A representa al factor con sus n niveles o condiciones experimentales
y S representa a los sujetos. A diferencia del diseo intersujetos: AxS, donde cada sujeto es sometido a una nica
condicin y por lo tanto obtiene una nica puntuacin, en este tipo de diseos los participantes se someten a todas
las condiciones experimentales, obteniendo por lo tanto cada sujeto tantas puntuaciones como niveles o
condiciones conformen el factor.
Los diseos intrasujetos tambin se denominan diseos de medidas repetidas
8|P g i n a
GLOSARIO
Error tpico
Es la desviacin tpica de la distribucin muestral de un estadstico. Su clculo es imprescindible para la construccin
de los intervalos de confianza y de los estadsticos de contraste.
Error tipo I
Es el error que se comete al rechazar una hiptesis nula cuando en realidad es verdadera. La probabilidad de
cometer este error es conocida y vale "alfa", el nivel de significacin.
Error tipo II
Es el error que se comete al no rechazar una hiptesis nula que en realidad es falsa. La probabilidad de cometer este
error se representa por "beta": y no es conocida de antemano aunque se puede calcular.
Su valor complementario es 1- , que corresponde a la potencia de contraste.
Estadstico
Es un valor numrico que describe una caracterstica de la muestra (como su tendencia central, su variablidad, su
forma, etc). Por tanto, la media cuando se refiere a los datos de una muestra es un estadstico de tendencia central.
La varianza, la proporcin, la correlacin, la pendiente de una recta de regresin, etc, son estadsticos si estn
referidos a los datos de una muestra.
Se representan con letras del alfabeto latino y son valores conocidos que se calculan a partir de los datos recogidos
en la muestra.
Estadstico de contraste
Tambin denominado medida de discrepancia, es un valor numrico que se obtiene a partir de los datos
proporcionados por la muestra y cuantifica la discrepancia entre la informacin emprica proporcionada por la
muestra y los datos tericos formulados en la hiptesis nula referidos a una (o varias poblaciones); siendo dicho
valor una variable aleatoria que sigue una determinada distribucin de probabilidad (normal, t, chi cuadrado)
9|P g i n a
GLOSARIO
La obtencin de este estadstico es una fase esencial en el Contraste de Hiptesis, pues permite aceptar o
rechazar la Hiptesis nula planteada al comparar el valor obtenido a travs de este estadstico con el valor crtico o
bien, al comparar la probabilidad asociada a dicho estadstico: el nivel p crtico, con el nivel de significacin
establecida.
Si la informacin proporcionada por la muestra no es compatible con lo formulado en la hiptesis nula, se
rechazar esta hiptesis. En caso contrario, no disponemos de evidencia para rechazarla y se mantendr como
provisionalmente verdadera hasta que nuevas evidencias demuestren lo contrario.
Estimacin
Es cualquier tcnica para conocer el valor aproximado de un parmetro poblacional, a partir del estadstico muestral
correspondiente, calculado con los datos recogidos en la muestra. Hay dos tipos de estimacin: la estimacin por
puntos y la estimacin por intervalos.
Estimacin puntual
Conocido tambin como mtodo de los momentos (ideado por K. Pearson), se utiliza el estadstico obtenido en la
muestra como valor del parmetro de la poblacin. Este procedimiento entraa riesgos, pues no todos los
estadsticos tienen la virtud de ser buenos estimadores de los parmetros poblacionales.
Estimador
Un estimador es un estadstico utilizado para conocer el valor aproximado de un parmetro desconocido de la
poblacin (), representndose el estimador del parmetro poniendo un acento circunflejo (^) sobre el parmetro,
quedando por tanto como: .
Por ejemplo, si dentro de la poblacin de estudiantes de 15 aos se desea conocer el nivel de habilidad media en
la asignatura de ciencias (el parmetro desconocido) se aplicarn test a un subconjunto representativo de
estudiantes (la muestra) a travs de los cuales se pueda conocer el nivel de habilidad de cada alumno y,
consiguientemente se pueda calcular la habilidad media de la muestra. Pues bien, precisamente la media de la
muestra podr utilizarse como estimador de la habilidad media en ciencias de la poblacin de estudiantes de 15
aos.
10 | P g i n a
GLOSARIO
Estimador eficiente
Es bueno que la distribucin del estimador tenga poca variabilidad, en este sentido, diremos que un estimador es
ms eficiente que otro estimador, si la varianza del primero es menor que la del segundo.
Estimador insesgado
Es insesgado cuando su esperanza matemtica (valor esperado o media) coincide con el parmetro poblacional.
En el caso de la media se comprueba que la media de todas las posibles medias -calculadas en todas las posibles
muestras del mismo tipo y tamao extradas de una poblacin- coincide con la media poblacional. Por tanto, la
media de la muestra es un estimador insesgado de la media poblacional (parmetro).
Factor
En el Anlisis de varianza o ANOVA se denomina factor a la variable independiente, compuesta por un
determinado nmero de niveles (categoras), de este modo, lo que nos interesa estudiar es el efecto que generan
estos niveles del factor sobre la variable objeto de estudio. O dicho en otras palabras, se pretende estudiar si se
observan diferencias entre las medias de los grupos correspondientes a cada uno de los niveles del factor.
De este modo, en la medida que la varianza debida a los distintos niveles del factor (varianza intergrupos) sea
mayor que la varianza debida al error experimental (varianza intragrupos) se dir que el factor ejerce un impacto
significativo sobre la variable dependiente u objeto de estudio, o lo que es lo mismo, se observan diferencias
significativas entre las medias de los grupos formados por cada uno de los niveles del factor.
Funcin indicatriz
En matemticas, la funcin indicatriz es una funcin definida en un conjunto X que indica la pertenencia de un
elemento en el subconjunto A de X, teniendo el valor 1 para todos los elementos de A y el valor 0 para todos los
elementos de X no incluidos en A. Es, pues, una funcin definida por la pertenencia o no a A de cualquier elemento
de X.
Esta funcin es utilizada en contrastes no paramtricos como la prueba de los signos para construir la variable Ii,
que tomar el valor de 1 si Xi<mo y el valor de 0 si Xi mo
Grados de libertad
Los grados de libertad hacen referencia al nmero de datos de informacin independientes disponibles despus de
realizar un clculo numrico. Por ejemplo, si conocemos la media de n valores, podemos asignar valores a n-1 y el
ltimo quedar determinado automticamente para cumplir la condicin de que la media sea el valor fijado. En
este caso, el clculo de la media se realiza con n-1 grados de libertad.
11 | P g i n a
GLOSARIO
Hiptesis estadstica
Las hiptesis estadsticas (hiptesis nula e hiptesis alternativa) se plantean para dar forma a la hiptesis
cientfica y es una afirmacin referida a la poblacin (o poblaciones) que puede someterse a contrastacin
emprica a partir de la informacin recogida en una o varias muestras -segn el tipo de diseo- representativas.
La hiptesis nula se rechaza en favor de la hiptesis alternativa, slo si la evidencia muestral sugiere que Ho es falsa.
Si la muestra no contradice decididamente a Ho, se contina asumiendo como provisionalmente verdadera a la
hiptesis nula. La hiptesis Ho, nunca se acepta porque nunca se considera probada. Simplemente se rechaza o no a
la luz de la evidencia que proporcionan los datos de la muestra utilizada en la investigacin. Por tanto, en todo
contraste de hiptesis solo hay dos conclusiones posibles: rechazar la Ho o no rechazar Ho con sus respectivos
errores.
Homocedasticidad
Significa igualdad de varianzas y es un supuesto que ha de cumplirse en contrastes como el Anlisis de Varianza
(ANOVA). Dicho con otras palabras y centrndonos en el contexto del ANOVA, la homocedasticidad implica que los
grupos, cuyas medias estamos comparando, proceden de poblaciones cuyas varianzas no difieren
significativamente en lo que respecta a la variable independiente que forma parte del anlisis.
Existen diversos contrastes para evaluar la existencia de homocedasticidad, como son el Test de Cochran (para
modelos equilibrados) y el test de Barlett (que no parte del supuesto de modelos equilibrados). En dichos
contrastes la Hiptesis nula es precisamente la de homocedasticidad o igualdad de varianzas entre los distintos
grupos, mientras que la Hiptesis alternativa propone la no igualdad de las varianzas de los grupos, lo que en
terminologa estadstica se denomina heterocedasticidad.
Inferencia estadstica
Es la rama de la estadstica que permite realizar afirmaciones sobre una poblacin a partir de los datos obtenidos en
alguna de las muestras que se pueden obtener de la misma. De este modo, la infeestadstica permite ir de lo
concreto (la muestra) a lo general (la poblacin). Se basa en la estimacin de parmetros y en contraste de hiptesis.
12 | P g i n a
GLOSARIO
Intervalo de confianza
Los intervalos de confianza se utilizan para fijar los valores que puede tomar el parmetro poblacional que se
quiere estimar. Se trata de determinar dos valores entre los cules se encontrar el parmetro poblacional, con un
determinado nivel de confianza.
Los intervalos se construyen partiendo del valor del estimador puntual, que se utilizar como centro del intervalo,
al que se le suma y resta el producto de: el margen de confianza con el que deseamos trabajar por el error tpico,
obtenindose, de esta manera, el lmite superior e inferior del intervalo de confianza.
La amplitud de un intervalo de confianza depende pues de estos dos factores: el nivel de confianza y el error tpico
de la distribucin muestral del estadstico
Muestra
Es un subconjunto de n casos o individuos de una poblacin de tamao N que se obtiene con la intencin de inferir
algn parmetro de la poblacin.
Para cumplir esta funcin, la seleccin de sujetos de la muestra debe realizarse de acuerdo a unos procedimientos
de muestreo que garanticen que la muestra es representativa de la poblacin de origen. La muestra representativa
nos proporciona una informacin similar a la que se obtendra en un estudio exhaustivo ms amplio, pero con
mayor rapidez y menor coste.
El nmero de sujetos que componen la muestra suele ser inferior que el de la poblacin, pero suficiente para que
la estimacin de los parmetros determinados lleve asociados Errores mximos de estimacin no muy elevados.
Para que el tamao de la muestra sea idneo es preciso recurrir a su clculo.
Nivel de confianza
El nivel de confianza es una probabilidad referida a la aseveracin de la inferencia o estimacin realizada a partir del
estadstico obtenido en una muestra. Su probabilidad asociada es 1-.
En la estimacin por intervalos representa la probabilidad de que un parmetro se halle dentro del
intervalo establecido.
En el contraste de Hiptesis el nivel de confianza (1-) representa la probabilidad para no rechazar la
H0 siendo cierta.
El nivel de confianza a establecer es una decisin que ha de tomar el investigador (y, consiguientemente, lo mismo
ocurre con su complementario: , el nivel de significacin).
El nivel de confianza va ligada a la Regin de no rechazo, que es aquella zona de la distribucin muestral constituida
por el conjunto de muestras para las cuales se acepta H 0.
13 | P g i n a
GLOSARIO
Nivel de significacin
El nivel de significacin se representa con la letra griega (alpha) y est asociado al contraste de una hiptesis
estadstica, siendo su valor complementario al nivel de confianza (1- ),
Se define como la probabilidad () de tomar la decisin de rechazar la hiptesis nula cuando sta es verdadera
(error de tipo I). El establecimiento de un nivel de significacin (y consecuentemente, tambin el nivel de
confianza) es una decisin que debe tomar el investigador, no obstante, son valores comnmente utilizados: 0,05 y
0,01.
El nivel de significacin define la zona de rechazo, aquella zona de la distribucin muestral constituida por el
conjunto de muestras para las cuales se rechaza la H0 al considerarse que la probabilidad de obtener tales
muestras, siendo H0 cierta, es demasiado baja. De este modo, en la medida que el nivel p-crtico sea menor al
nivel de significacin (encontrndose, por tanto dicho valor en la zona de rechazo) se aceptar la H1,
rechazndose H0, indicando que este resultado es 'estadsticamente significativo' queriendo decir con ello que no
es probable que sea debido al azar.
Una "diferencia estadsticamente significativa" solamente indica que hay evidencias estadsticas de una diferencia
entre los datos empricos y la formulacin terica, lo cul no es sinnimo de que esta diferencia sea grande,
importante, o significativa en el sentido literal del trmino.
p-crtico
Valor o nivel p-critico es una probabilidad asociada al estadstico de contraste dentro de la distribucin muestral
del estadstico. Corresponde a la probabilidad de obtener ese valor del estadstico de contraste, u otro ms alejado
de la Ho, si Ho fuera cierta.
Este valor p-crtico se compara con el nivel de significacin "alfa" y si es menor tendremos que rechazar la
hiptesis nula.
El p-crtico indica la probabilidad de que, suponiendo cierta la Ho, se obtengan en una muestra representativa de
la poblacin, unos resultados como los obtenidos en la investigacin.
En algunas publicaciones y paquetes estadsticos tambin recibe el nombre de p-valor o valor-p.
Parmetro
Es un valor numrico que describe una caracterstica de la poblacin (como su tendencia central, su variablidad, su
forma, etc). Por tanto, la media cuando se refiere a los datos de una poblacin es un parmetro de tendencia
central. La varianza, la proporcin, la correlacin, la pendiente de una recta de regresin, etc, son parmetros si
estn referidos a los datos de una muestra.
Se representan con letras del alfabeto griego y son valores desconocidos que se estiman a partir de sus estimadores:
los estadsticos de la muestra.
14 | P g i n a
GLOSARIO
Poblacin
Se denomina Poblacin o Universo al conjunto de todos los elementos que estamos estudiando, acera de los
cuales pretendemos sacar conclusiones.
Con frecuencia el nmero de elementos o sujetos que compone una poblacin es tan elevado que sera difcil
estudiarla en su totalidad Por esta razn se decide tomar un subconjunto de n elementos representativo de dicha
poblacin y que denominamos muestra.
La rama de la estadstica que permite realizar afirmaciones sobre una poblacin a partir de los datos obtenidos en
alguna de las muestras que se pueden obtener de la misma se denominar inferencia estadstica.
Pruebas no paramtricas
En la actualidad no existe un consenso absoluto sobre qu elementos definen a las pruebas no paramtricas: en
general puede decirse que este tipo de pruebas se utiliza en aquellos casos en los que no se puede asumir una
distribucin especfica para la poblacin de la que proceden los datos.
A continuacin se presentan algunas caractersticas que nos pueden ayudar a encontrar los elementos especficos
de las pruebas no paramtricas, as como sus principales diferencias con los contrastes paramtricos:
- Estas pruebas se aplican cuando los datos proceden de una poblacin cuya distribucin poblacional no
viene especificada y, por lo tanto no se puede asumir una forma concreta para su distribucin, por
tanto, pueden aplicarse sin hacer ningn supuesto sobre la forma especfica de la distribucin subyacente a
la variable dependiente. Por este motivo estas pruebas tambin se denominan pruebas sin supuesto
distribucional.
- Contrariamente a lo que se suele pensar, las pruebas no paramtricas s realizan supuestos, si bien dichos
supuestos son menos rgidos y restrictivos a los que se realizan en las pruebas paramtricas, siendo
precisamente ste, uno de los puntos que mejor define a este tipo de pruebas.
- Tal y como se ha especificado ms arriba, dichos supuestos no estn referidos a la forma especfica de la
distribucin poblacional. Por otra parte, un supuesto muy utilizado en las pruebas no paramtricas es el
supuesto de la distribucin simtrica de la variable dependiente en la poblacin.
- Otro criterio a tener en cuenta es que las pruebas no paramtricas se suelen utilizar cuando las escalas para
medir la variable dependiente son de tipo nominal u ordinal, o bien cuando las escalas sean de tipo
intervalo/razn pero han sido recodificadas en variables de tipo nominal u ordinal. De este modo, Los datos
en los procedimientos no paramtricos pueden utilizar escalas de nivel inferior al exigido por el
procedimiento paramtrico correspondiente.
- Por ltimo, este tipo de contrastes, al no utilizar toda la informacin proporcionada son menos eficientes y
necesitan tamaos muestrales mayores para alcanzar la misma potencia que el procedimiento paramtrico
correspondiente.
15 | P g i n a
GLOSARIO
Pruebas paramtricas
Estas pruebas se basan en el conocimiento de la distribucin poblacional de la que procede nuestra variable
dependiente. Entre estas pruebas hay que contemplar tanto los intervalos de confianza como el clculo de los
estadsticos de contraste utilizados para contrastar hiptesis sobre los parmetros poblacionales, Estas pruebas nos
permitirn pues tomar una decisin a la hora de aceptar o rechazar la hiptesis nula planteada sobre un parmetro
en la poblacin.
Las pruebas paramtricas poseen supuestos ms rgidos y restrictivos que las no paramtricas. De este modo, tal y
como se ha sealado este tipo de procedimientos requieren del conocimiento de la forma de distribucin de la
poblacin de la que proceden los datos. Por otra parte, la escala en la que debe venir medida la variable debe ser,
como mnimo, de intervalo.
Regin de rechazo
La regin de rechazo o regin crtica viene delimitada por los valores crticos y corresponde al conjunto de valores de
la distribucin de probabilidad del estadstico de contraste para los que se rechaza la hiptesis nula.
Por ejemplo, en los diseos de una muestra, la regin crtica para el contraste bilaterla de un valor hipottico
formulado para la media poblacional con un nivel de confianza del 95%, la regin crtica viene determinada por los
valores que son menores o igualea a -1,96 o mayores o iguales que +1,96
Robusto (estadstico)
Se dice que un estadstico o un anlisis es robusto cuando no se ve especialmente afectado por el incumplimiento de
un determinado supuesto.
As, por ejemplo, la normalidad de la distribucin de las puntuaciones para cada una de las condiciones del factor es
un supuesto que, tericamente, debera cumplirse en el anlisis ANOVA, sin embargo en ocasiones podemos
encontrar estudios donde se aplic el ANOVA como tcnica de anlisis sin cumplirse este supuesto. Esto se debe a
que el ANOVA es robusto al incumplimiento del supuesto de normalidad.
Simetra compuesta
La simetra compuesta integra dos de los supuestos que deben cumplirse en el ANOVA intrasujetos y que, adems,
son particulares de este tipo de diseos (AxS):
Las varianzas de las puntuaciones para los distintos niveles del factor deben ser iguales entre s
(homocedasticidad).
Las covarianzas entre todos los niveles del factor deben ser iguales entre s.
Si representamos esta informacin en una matriz (tabla) el cumplimiento de este supuesto se manifestara con
claridad al observarse dos elementos:
Por una parte la diagonal principal (diagonal que va desde la esquina superior izquierda hasta la esquina
inferior derecha) en la que se representan las varianzas
Por otra parte, las covarianzas en los dems elementos de la matriz
Se habla de simetra compuesta porque en el caso de cumplirse los dos supuestos referidos nos encontraramos con
una matriz simtrica, en relacin a la diagonal principal, y compuesta por dos nicos valores: el de la varianza y el de
la covarianza.
16 | P g i n a
GLOSARIO
Valores crticos
Es el valor o valores dentro de la distribucin muestral que se asocian directamente al nivel de significacin , este
valor marca la mxima diferencia que podemos admitir, por simple azar, entre el valor terico planteado en H 0 y el
valor obtenido en la muestra. Estos valores marcan los lmites entre la zona de rechazo y de aceptacin.
Un modo a la hora de decidir si rechazar o aceptar la H0 es comparar el estadstico de contraste con el valor crtico,
de tal modo que en la medida que el estadstico de contraste sea mayor (en valor absoluto) al valor crtico se
rechazar la H0 aceptndose H1 .
Variable
En su acepcin estadstica, una variable es una representacin numrica de una caracterstica. Cuando efectuamos
la medida de una caracterstica determinada, atribuimos nmeros a los objetos segn sea la cuanta que presenten
de dicha caracterstica. Esta representacin numrica refleja el hecho de que los objetos varan respecto a la
caracterstica objeto de estudio, y por tanto permite diferenciar unos objetos de otros.
Variable aleatoria
Una variable aleatoria es una funcin que asigna un nmero, y solo uno, a cada resultado de un experimento
aleatorio. El valor de la variable aleatoria puede cambiar de ensayo a ensayo cuando el experimento se repite
sucesivamente. La variable aleatoria puede ser discreta o continua.
Por ejemplo, el nmero de aciertos que se cometen al responder al azar a un test de conocimientos formado
por N tems con tres alternativas de respuesta (de las que solo una es correcta) es una variable aleatoria que
puede tomar cualquier valor discreto desde 0 (para el que no acierta ninguna pregunta) hasta N (para el que
acierta todas). Toda variable aleatoria tiene asociado su distribucin de probabilidad (si la variable es discreta) o su
funcin de densidad de probabilidad (si la variable aleatoria es continua)
17 | P g i n a
GLOSARIO
Variable categrica
Llamada tambin variable cualitativa es aquella que se mide con escala nominal de tal forma que los valores que
presenta corresponden a categoras discretas. Estas categoras no pueden ser ordenadas y representan grupos
diferentes, como, el tipo de religin, el sexo, etc.
Variable chi-cuadrado
Es una variable continua definida como la suma de una serie de variables con distribucin normal estndar.
Variable continua
Una variable continua es aquella que puede tomar un nmero infinito de posibles valores, de tal forma que entre
dos cualesquiera de ellos por prximos que estn, existen infinitos valores posibles. Por ejemplo, la altura, el tiempo
de reaccin a un estmulo, y por lo general todas aquellas que requieren una medida.
18 | P g i n a
GLOSARIO
Variable dependiente
Representada como Y se trata de la variable observada en un experimento. Es la variable objeto de estudio.
Dicha variable no queda bajo el control directo del experimentador.
Variable dicotmica
Es un tipo especial de variable cualitativa, que slo puede adoptar dos valores. Por ejemplo, la variable sexo o la
variable "resultado que se obtiene al lanzar una moneda". Toda variable continua es susceptible de ser
"dicotomizada", por ejemplo, la variable "altura" siendo una variable continua puede presentarse "dicotomizada"
en altos y bajos.
Variable discreta
Una variable discreta es aquellas que toma unos valores concretos que pueden ser contados como 0, 1, 2, 3, 4, ...Si
una variable puede tomar solo un nmero finito de valores, decimos que es discreta. Como ejemplo de variable
discreta est el nmero de respuestas correctas contestadas en un test, el nmero de hijos de una familia y por lo
general todas aquellas variables que requieren un conteo.
Variable F
Variable continua que se define como el cociente entre dos variables chi-cuadrado dividida cada una de ellas por sus
respectivos grados de libertad. Puede tomar cualquier valor positivo y tiene una funcin de densidad de
probabilidad conocida como distribucin F
Variable independiente
Representada por X, es la variable controlada o manipulada por el experimentador con el fin de analizar su efecto
sobre la variable dependiente u observada (Y).
Variable nominal
Es lo mismo que una variable categrica. Los valores o nmeros que presenta una variable nominal corresponden a
"nombres" o etiquetas. Por ejemplo, la profesin es un tipo de variable nominal o categrica. Si una variable
nominal slo presenta dos categoras, recibe el nombre de variable dicotmica.
Variable ordinal
Es un tipo de variable medida con escala ordinal y cuyos valores solo pueden ser ordenados no pudiendo
establecerse distancias entre valores. Por ejemplo, los nmeros asignados a los candidatos que se presentan a una
oposicin en funcin de la puntuacin obtenida en la prueba forman una variable ordinal.
19 | P g i n a
GLOSARIO
Variable t
Es una variable continua definida como el cociente entre una variable normal tipificada , z, y la raiz cuadrada de una
variable chi-cuadrado, dividida por sus grados de libertad. La variable t, as definida, puede tomar cualquier valor,
positivo o negativo y tiene una funcin de densidad de probabilidad conocida que recibe el nombre de distribucin t
de Student en honor de su descubridor, el matemtico Gosset que public sus trabajos con el seudnimo de
Student.
Varianza
La varianza, representada como es un ndice de dispersin que permite determinar la dispersin o variablidad
de los datos de variable objeto de estudio. Matemticamente se define como la media de los cuadrados de las
distancias de cada puntuacin a la media. Su frmula recoge la expresin anterior.
20 | P g i n a