Vous êtes sur la page 1sur 20

GLOSARIO

Anlisis de Regresin
El Anlisis de regresin es una tcnica que se aplica siempre que una variable cuantitativa (la variable dependiente o
criterio), sea estudiada como una funcin de una variable o de una combinacin de varias variables independientes
o predictoras.
De este modo el anlisis de regresin permite:
Conocer el peso o influencia que ejerce cada variable independiente o predictora a la hora de explicar la
variabilidad de la variable dependiente o criterio.
Establecer predicciones sobre el comportamiento de la variable dependiente, a partir de informacin
proveniente, nicamente, de la variable o variables independientes.
Cuando la variable dependiente o criterio es funcin de una solo variable independiente o predictora hablamos de
Anlisis de Regresin Simple (ARS)
Cuando la variable dependiente o criterio es funcin de una combinacin de dos o ms variables independientes o
predictoras hablamos de Anlisis de Regresin Mltiple (ARM)
La funcin que pone en relacin la/s variable/s independiente/s con la dependiente son muy diversas, as por
ejemplo, pueden encontrarse relaciones de diversos tipos: lineales, exponenciales, potenciales, polinmicas
En el caso especfico de que la variable dependiente sea el resultado de una funcin lineal o una combinacin lineal
de varias variables independientes hablaremos de Anlisis de regresin lineal.
Ver tambin:

Coeficientes de la Regresin lineal simple Coeficiente de alienacin


Coeficientes de la Regresin lineal mltiple Coeficiente de correlacin semiparcial
Coeficiente de correlacin mltiple Coeficiente de correlacin parcial
Coeficiente de determinacin

Anlisis de Varianza - ANOVA


El anlisis de varianza o ANOVA es un test paramtrico que se aplica con el fin de conocer si existen diferencias
significativas entre las medias de las poblaciones de tres o ms grupos.
El procedimiento del anlisis consiste en descomponer la variabilidad o varianza total en:
- Varianza intergrupos: varianza atribuible al efecto de los distintos niveles del factor sobre la variable
dependiente u objeto de estudio
- Varianza intragrupos: varianza del error, debida a toda una serie de factores no controlados en el
experimento
De tal modo, en la medida que la varianza intergrupos sea significativamente mayor que la varianza intragrupos se
admitir la hiptesis alternativa de que las medias de los grupos son distintas, pues gran parte de la varianza
observada en el objeto de estudio viene explicada por el efecto o impacto de los distintos niveles del factor en
estudio.
Para poder aplicar un anlisis de varianza se deben cumplir los supuestos de independencia, normalidad y
homocedasticidad.
El anlisis de varianza se aplica para conocer si existen diferencias entre tres o ms grupos, no obstante este anlisis
no identifica los pares de grupos entre los que existen diferencias, para lo que habr de utilizarse comparaciones
mltiples, concretamente las denominadas comparaciones no planificadas, a posteriori o post hoc; siendo algunas
de las pruebas post hoc ms utilizadas: la prueba de comparaciones mltiples de Tukey y la prueba de
comparaciones mltiples de Scheff.

Anlisis de varianza de dos o ms factores Ver Diseo factorial

Anlisis robusto Ver Robusto (anlisis)

1|P g i n a
GLOSARIO

ANOVA con efectos aleatorios o modelo aleatorio


Modelo de Anlisis de Varianza en el que los i niveles del factor son una muestra aleatoria de todos los posibles
niveles del factor, de tal modo que las conclusiones obtenidas se generalizarn a todos los niveles del factor.

ANOVA con efectos fijos o modelo fijo


Se trata de un modelo de Anlisis de Varianza en el que el investigador establece o fija como niveles del factor slo
aquellos que est interesado en estudiar. De este modo, aunque el investigador es consciente de que existen ms
niveles, slo estudia aquellos que le interesan.

ANOVA de dos o ms factores Ver Diseo factorial

ANOVA- Modelo equilibrado Ver Modelo equilibrado (ANOVA)

ANOVA- Modelo no equilibrado Ver Modelo no equilibrado (ANOVA)

Coeficiente de alienacin (Anlisis de regresin)


2
Representado como (1- R ) es la parte residual de la variabilidad de la variable dependiente atribuible a otros
factores no relacionados linealmente con la variable dependiente.

Coeficiente de correlacin de Pearson


El coeficiente de correlacin describe la intensidad de la relacin entre dos variables (medidas como mnimo a nivel
de intervalo). Este coeficiente, que se expresa como rxy , o simplemente r mide concretamente la intensidad de la
relacin lineal entre dos variables, siendo resultado de dividir la covarianza de X e Y: Cov(X,Y) entre las desviaciones
tpicas de las distribuciones marginales de X e Y.
El valor del coeficiente de correlacin vara entre [-1, +1], es decir, El valor del coeficiente de correlacin puede
tomar valores desde menos uno hasta uno, indicando que mientras ms cercano a uno sea el valor del coeficiente
de correlacin, en cualquier direccin, ms fuerte ser la asociacin lineal entre las dos variables. Mientras ms
cercano a cero sea el coeficiente de correlacin indicar que ms dbil es la asociacin entre ambas variables. Si es
igual a cero se concluir que no existe relacin lineal alguna entre ambas variables.

De este modo:
Si r = 1, existe una correlacin positiva perfecta. El ndice indica una dependencia total entre las dos
variables denominada relacin directa: cuando una de ellas aumenta, la otra tambin lo hace en proporcin
constante.
Si 0 < r < 1, existe una correlacin positiva.
Si r = 0, no existe relacin lineal. Pero esto no necesariamente implica que las variables son independientes:
pueden existir todava relaciones no lineales entre las dos variables.
Si -1 < r < 0, existe una correlacin negativa.
Si r = -1, existe una correlacin negativa perfecta. El ndice indica una dependencia total entre las dos
variables llamada relacin inversa: cuando una de ellas aumenta, la otra disminuye en proporcin
constante.

Coeficiente de correlacin mltiple (Anlisis de regresin mltiple)


Representado como Ry.12 o R dentro del Anlisis de regresin mltiple es el coeficiente que correlaciona la variable
dependiente con una combinacin ptima de dos o ms variables independientes

2|P g i n a
GLOSARIO

Coeficiente de correlacin parcial (Anlisis de regresin mltiple)


Presentado como pri este coeficiente, utilizado en el anlisis de regresin mltiple, mide la correlacin existente
entre cada variable independiente y la variable dependiente, habiendo eliminado el influjo del resto de variables
independientes tanto de la variable independiente como de la variable dependiente.
De este modo, este coeficiente mide la correlacin pura entre Xi e Y, es decir, expresa la correlacin entre la parte
de Y no asociada linealmente con el resto predictoras y la porcin de Xi, no asociada linealmente con el resto de
predictoras.
Dicho coeficiente, sirve adems para determinar cul es la primera variable que se incorporar al modelo cuando se
realiza variable a variable.
2
Si elevamos dicho coeficiente al cuadrado pri obtenemos la proporcin de varianza de Y no asociadas al resto
de X que s est asociada con Xi

Coeficiente de correlacin semiparcial (Anlisis de regresin mltiple)


Presentado como sri este coeficiente, utilizado en el anlisis de regresin mltiple, mide la correlacin existente
entre cada variable independiente y la variable dependiente, habiendo eliminado el influjo del resto de variables
independientes sobre la variable independiente.
2
Si elevamos dicho coeficiente al cuadrado sri obtenemos la proporcin de varianza de Y asociada nicamente a la
2
varianza de Xi lo que expresa el incremento en R cuando la variable Xi entra en el modelo.

Coeficiente de determinacin (Anlsis de regresin)


2 2
Representado como R , en el caso del anlisis de regresin simple (tambin R xy), su valor es el cuadrado del
2
coeficiente de correlacin de Pearson: rxy o r, mientras que en el anlisis de regresin mltiple (tambin R y.12)
equivale al cuadrado del coeficiente de correlacin mltiple R.
Su valor oscila entre 0 y 1 esta medida nos indica la bondad de ajuste del modelo al cuantificar la proporcin de
variabilidad de la variable dependiente que es explicada por la variabilidad de la/s variable/s independiente/s.
De este modo en la medida que su valor se aproxime a 1 ser mayor el porcentaje de varianza explicada por el
modelo, disminuyendo dicha proporcin en la medida que dicho valor se aproxima a 0.
2
Por otra parte, R tambin representa la proporcin en que se reduce el error de la variable dependiente cuando
empleamos la recta de regresin para estimarla.

Coeficientes de la Regresin lineal mltiple


Dado un modelo de regresin lineal formado por dos variables independientes:
Y=B0+B1X1+ B2X2+
Tenemos los siguientes coeficientes:
B0 denominado constante, origen o intercepto, ser el valor estimado de la variable dependiente (Y )
cuando las dos variables dependiente X1 y X2 valgan 0.
B1 ser el coeficientes de regresin parcial de de X1 y cuantifica el incremento que se produce en la variable
dependiente estimada (Y) cuando se produce el incremento en una unidad en X1 -permaneciendo la otra
variable independiente contante (X2)-.
B2 ser el coeficientes de regresin parcial de de X2 y cuantifica el incremento que se produce en la variable
dependiente estimada (Y) cuando se produce el incremento en una unidad en X2 -permaneciendo la otra
variable independiente contante (X1)-.
Por ltimo, dentro del modelo representa el error de prediccin o residuo, que equivale a la distancia entre el
valor observado de Y y su valor estimado (Y) para cada valor dado de X

3|P g i n a
GLOSARIO

Coeficientes de la Regresin lineal simple


Dada la recta de regresin (o recta de estimacin, prediccin o ajuste) para la regresin lineal simple:
Y=B0+BX+
Tenemos los siguientes coeficientes:
B0 denominado constante, origen o intercepto, seala el punto en el que la recta de regresin corta el eje
de ordenadas, es decir, es el valor estimado de Y(Y) cuando X es igual a 0. Dicho coeficiente no suele ser
objeto de interpretacin
B, tambin denominado como pendiente de la recta, es el coeficiente protagonista de la recta de regresin,
y cuantifica el incremento que se produce en la variable dependiente estimada (Y) cuando la variable
independiente (X) se incrementa en una unidad.
Por ltimo, dentro de la recta, representa el error de prediccin o residuo, que equivale a la distancia entre el valor
observado de Y y su valor estimado (Y) para cada valor dado de X

Comparaciones mltiples
En el contexto de Diseos con ms de dos grupos las comparaciones mltiples proporcionan informacin ms
especfica que el ANOVA.
En el ANOVA la Hiptesis alternativa se plantea como que, al menos, entre dos medias, hay diferencias que no son
debidas al azar. Sin embargo, si se confirma dicha hiptesis, el contraste no proporciona mayor informacin sobre
entre qu pares especficos se producen las diferencias significativas.
Dicha informacin s es proporcionada, en cambio, por los anlisis de comparaciones mltiples, que permiten
identificar entre qu pares de medias existen diferencias significativas no debidas al azar. De este modo, este tipo
de anlisis proporcionan una informacin ms exacta sobre la importancia de cada uno de los niveles de la variable
independiente.
Dos son los tipos fundamentales de anlisis de comparaciones mltiples existentes:
Comparaciones no planificadas, a posteriori o post hoc. Son los ms utilizados, aplicndose una vez
realizado el ANOVA y rechazada la Hiptesis nula, por lo que, a continuacin, se desea conocer entre qu
pares de medias existen diferencias no debidas al azar. Mediante dicho anlisis se comparan
sistemticamente todos los posibles pares de medias formados a partir de los lo n niveles del factor. Entre
los contrastes ms utilizados dentro de esta familia hemos de destacar: la prueba de comparaciones
mltiples de Tukey, as como la prueba de comparaciones mltiples de Scheff.
Comparaciones planificadas o a priori. En este caso el investigador no est interesado en realizar el ANOVA
ni en comparar sistemticamente todos los posibles pares de medias formados a partir de los lo n niveles
del factor, tan slo est interesado en algunas comparaciones especficas entre ciertos pares, que son las
que realimente le interesan.

Condicin experimental
En el Anlisis de Varianza (ANOVA) cada condicin experimental equivale a cada uno de los niveles o categoras que
constituyen un factor.
Ver: Niveles de un factor

Contrabalanceo
Es una tcnica de control experimental utilizada en los diseos intrasujetos. Consiste en ordenar de tal modo los
tratamientos experimentales que el efecto de factores tales como el aprendizaje o la fatiga se distribuya
equitativamente entre todas las condiciones experimentales de tal forma que afecten por igual a todos los niveles
del factor.
En los diseos intrasujetos este efecto se puede obviar o tener en cuenta, obtenindose, en el segundo caso, un
anlisis ms sensible al producirse un incremento de la potencia.

4|P g i n a
GLOSARIO

Contraste de hipteis
Un contraste de hiptesis es una afirmaci relativa a una o varias poblaciones que puede ser cierta o no. Mediante
un procedimiento de inferencia estadstica se trata de comprobar si esta afirmacin es compatible con lo observado
en una muestra representativa de dicha poblacin y tanto si se acepta como si se rechaza la afirmacin formulada se
puede cometer un error (Error tipo I o Error Tipo II).
Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson.

Contrastes no paramtricos Ver Pruebas no paramtricas

Contrastes paramtricos Ver Pruebas Paramtricas

Covarianza
La covarianza es una medida de la variacin conjunta entre dos variables y, por tanto, es una medida del grado y
sentido de la relacin entre las mismas. Se representa por s x y o x y (a veces tambin denotada Cov(X,Y) )
La covarianza equivale a la media aritmtica de los productos de las desviaciones de cada una de las variables
respecto a sus medias respectivas.
De este modo, la covarianza indica el sentido de la correlacin entre las variables, de tal modo que:
Si el valor de la covarianza es mayor que cero, la covariacin entre ambas variables es directa, de
tal modo que a medida que aumenta el valor de una de las variables tambin lo hace el de la otra. Dicho en
otras palabras: los valores altos de X estn asociados a los valores altos de Y y viceversa.
Si el valor de la covarianza es menor que cero, la covariacin entre ambas variables es inversa, de
tal modo que a medida que aumenta el valor de una de las variables disminuye el de la otra, es decir: los
valores altos de X estn asociados a los valores bajos de Y y viceversa.

Uno de los inconvenientes que presenta la covarianza como medida es el hecho de que su valor depende
directamente de los valores que toman las variables, por lo que es difcil valorar el grado de covariacin entre dos
variables. Para evitar este problema se suele utilizar como medida de covariacin el coeficiente de correlacin,
medida estandarizada entre -1 y 1 de muy fcil interpretacin.

Cuasi-desviacin tpica
La cuasi-desviacin tpica de la muestra se representa por Sn-1 y es el estimador insesgado de la desviacin tpica

poblacional por lo que tambin se le denominadesviacin tpica insesgada (recurdese que la desviacin tpica de
la muestra no es un estimador insesgado de la desviacin tpica poblacional).

A continuacin se muestra cmo obtener el clculo de ambas:

Desviacin tpica de la muestra:

Cuasi-desviacin tpica de la muestra o desviacin tpica insesgada:

5|P g i n a
GLOSARIO

Cuasi-varianza

La cuasivarianza de la muestra se representa por y es el estimador insesgado de la varianza poblacional


por lo que tambin se le denomina varianza insesgada (recurdese que la varianza de la muestra no es un
estimador insesgado de la varianza poblacional).

A continuacin se muestra cmo obtener el clculo de ambas:

Varianza de la muestra:

Cuasivarianza de la muestra o varianza insesgada:

Obsrvese que entre la varianza y la cuasivarianza existe la siguiente relacin:

Por lo que la cuasivarianza de la muestra se puede calcular a partir de la varianza de la muestra de acuerdo
a la siguiente expresin:

En el presente curso, en los temas dedicados al anlisis de datos paramtricos para diseos de dos grupos

(temas 3 y 4) la cuasivarianza se representar como pues al trabajar con dos muestras necesitamos un

subndice para distinguir entre ambas, por ejemplo: y , por este motivo se representa a la
cuasivarianza con un acento circunflejo (que es este smbolo:^).

6|P g i n a
GLOSARIO

Desviacin tpica
Para describir con detalle un conjunto de datos, no basta con conocer su media. Necesitamos tambien conocer la
variablidad o dispersin que tiene esta distribucin de datos respecto de su media, con objeto de tener una visin
ms completa de la distribucin: su tendencia central y su variablidad.
Si este conjunto o destribucin de datos se refiere a la poblacin en su totalidad obtenemos la desviacin tpica

poblacional: ; y si por el contrario nos referimos a una parte o muestra de la poblacin, obtenemos la desviacin

tpica de la muestra: .

Su clculo se obtiene a travs de la siguiente frmula:

Desviacin tpica insesgada Vase Cuasi-desviacin tpica.

Diseo factorial
Se trata de un experimento cuyo diseo consta de dos o ms factores. Al igual que en el Anlisis de varianza de un
factor, cada factor est compuesto por un determinado nmero de niveles.
Por ejemplo, con dos factores y dos niveles en cada factor, un diseo factorial tendra en total cuatro combinaciones
de tratamiento, y se le denominara diseo factorial de 22.
Este tipo de diseos estudia el efecto de cada factor sobre la variable dependiente, as como el efecto de la
interaccin de dichos factores sobre la misma.
La estrategia de anlisis en este tipo de diseos, al igual que en los anlisis de varianza de un factor, consiste en
descomponer las fuentes de variabilidad en elementos mutuamente excluyentes. As, por ejemplo, en un ANOVA de
2 factores tendramos:
los efectos principales: A y B, que son el efecto global de cada factor considerado de forma independiente
los efectos de la interaccin entre los dos factores: AB, que viene definido por la relacin existente entre los
factores o lo que es lo mismo, la interaccin o efecto cruzado entre dichos factores.
y el error experimental (S/AB) que representara la desviacin de la puntuacin de cada sujeto con respecto
a la media de los tratamientos que se le han asignado aleatoriamente.

Adems, en este tipo de diseos es muy importante conocer el concepto de efecto simple que es el efecto puntual
que ejerce un factor sobre cada nivel del otro factor (la manera de enfocar este anlisis es convertir cada nivel o fila
de la matriz AB en un diseo de un solo factor). Destacar adems que la suma de los efectos simples de un factor A
es igual a la suma de sus efectos principales ms su interaccin con el otro factor.
A la hora de realizar el anlisis en este tipo de diseos el procedimiento consiste en realizar, en primer lugar, la
prueba mnibus, que informa de la significacin estadstica tanto de los efectos principales como de la interaccin.
Si los primeros son significativos se procede a las comparaciones mltiples entre los tratamientos.
Si los segundos son significativos, ser necesario explicar cules de los diferentes efectos simples explican ese
efecto. Identificado cul es el efecto simple significativo se realizarn comparaciones mltiples para determinar
entre qu tratamientos se producen las diferencias que explican la significacin estadstica del efecto simple.

7|P g i n a
GLOSARIO

Diseo intersujetos
Representado como: AxS, donde A representa al factor con sus n niveles o condiciones experimentales
y S representa a los sujetos. En este tipo de diseos se construyen o utilizan tantos grupos distintos de participantes
como niveles tenga el factor, de tal modo que cada grupo es sometido a un nico nivel o condicin, obteniendo, por
lo tanto cada sujeto una nica puntuacin.

Diseo intrasujetos
Representado como: (AxS), donde A representa al factor con sus n niveles o condiciones experimentales
y S representa a los sujetos. A diferencia del diseo intersujetos: AxS, donde cada sujeto es sometido a una nica
condicin y por lo tanto obtiene una nica puntuacin, en este tipo de diseos los participantes se someten a todas
las condiciones experimentales, obteniendo por lo tanto cada sujeto tantas puntuaciones como niveles o
condiciones conformen el factor.
Los diseos intrasujetos tambin se denominan diseos de medidas repetidas

Diseos de medidas repetidas Ver diseos intrasujetos

Diseos ex post facto


A diferencia de los diseos experimentales, en los diseos ex post facto el investigador no puede manipular
intencionalmente la variable independiente, ni asignar aleatoriamente los sujetos a los diferentes niveles de la
misma. En cambio, en este tipo de diseos, los sujetos son seleccionados por poseer ya un determinado valor en
dicha variable.
Uno de los procedimientos de anlisis ms empleados para este tipo de diseos es el Anlisis de regresin, pudiendo
ser aplicado siempre que una variable cuantitativa (la variable dependiente o criterio), sea estudiada como una
funcin de una variable o de una combinacin de varias variables independientes o predictoras. No obstante el
Anlisis de regresin tambin puede aplicarse en condiciones experimentales, lo que le convierte en una tcnica de
amplias aplicaciones.

Distribucin muestral de un estadstico


La distribucin muestral se obtiene al considerar todas las posibles muestras que se pueden obtener de una
poblacin. En cada una de esas muestras de obtiene un estadstico descriptivo (v.gr. la media, la proporcin, la
varinza, etc). El estadstico tendr un valor distinto en cada una de las muestras. La distribucin muestral de ese
estadstico es la distribucin de probabilidad de ese estadstico obtenido en todas las muestras del mismo tipo y
tamao extradas de la poblacin de origen y permite determinar la probabilidad que se tiene de aproximarse al
parmetro de la poblacin a partir de la informacin proporcionada por una sola muestra.
A travs de procedimientos matemticos sabemos cmo es la de distribucin muestral de la media, de la
diferencia de medias, de la proporcin, de la varianza, del coeficiente de correlacin, del cociente entre varianzas,
etc.

Efecto de interaccin (Diseo factorial) Ver Diseo factorial

Efectos principales (Diseo factorial) Ver Diseo factorial

Efectos simples (Diseo factorial) Ver Diseo factorial

8|P g i n a
GLOSARIO

Error mximo de estimacin


En la estimacin por intervalos del parmetro poblacional, el error mximo de estimacin corresponde a la
distancia desde el estadstico muestral a cualquiera de los lmites. De forma ms concreta, el intervalo de
confianza de la media poblacional se obtiene sumando y restando a la media de la muestra el error mximo de
estimacin.
Este error depende del tamao de la muestra y del nivel de confianza, de forma que:
Cuanto mayor sea el tamao de la muestra, n, menor es el error.
Cuanto mayor sea el nivel de confianza, 1-, mayor es el error.

Error tpico
Es la desviacin tpica de la distribucin muestral de un estadstico. Su clculo es imprescindible para la construccin
de los intervalos de confianza y de los estadsticos de contraste.

Error tpico de la media


Es la desviacin tpica de la distribucin muestral de la media. El proceso de estimar la media de la poblacin () se
apoya en el concepto de la distribucin muestral de la media.(Ver Distribucin muestral de un estadstico)

Error tipo I
Es el error que se comete al rechazar una hiptesis nula cuando en realidad es verdadera. La probabilidad de
cometer este error es conocida y vale "alfa", el nivel de significacin.

Error tipo II
Es el error que se comete al no rechazar una hiptesis nula que en realidad es falsa. La probabilidad de cometer este
error se representa por "beta": y no es conocida de antemano aunque se puede calcular.
Su valor complementario es 1- , que corresponde a la potencia de contraste.

Estadstica no paramtrica Ver Pruebas no paramtricas

Estadstica paramtrica Ver Pruebas paramtricas

Estadstico
Es un valor numrico que describe una caracterstica de la muestra (como su tendencia central, su variablidad, su
forma, etc). Por tanto, la media cuando se refiere a los datos de una muestra es un estadstico de tendencia central.
La varianza, la proporcin, la correlacin, la pendiente de una recta de regresin, etc, son estadsticos si estn
referidos a los datos de una muestra.
Se representan con letras del alfabeto latino y son valores conocidos que se calculan a partir de los datos recogidos
en la muestra.

Estadstico de contraste
Tambin denominado medida de discrepancia, es un valor numrico que se obtiene a partir de los datos
proporcionados por la muestra y cuantifica la discrepancia entre la informacin emprica proporcionada por la
muestra y los datos tericos formulados en la hiptesis nula referidos a una (o varias poblaciones); siendo dicho
valor una variable aleatoria que sigue una determinada distribucin de probabilidad (normal, t, chi cuadrado)

9|P g i n a
GLOSARIO

La obtencin de este estadstico es una fase esencial en el Contraste de Hiptesis, pues permite aceptar o
rechazar la Hiptesis nula planteada al comparar el valor obtenido a travs de este estadstico con el valor crtico o
bien, al comparar la probabilidad asociada a dicho estadstico: el nivel p crtico, con el nivel de significacin
establecida.
Si la informacin proporcionada por la muestra no es compatible con lo formulado en la hiptesis nula, se
rechazar esta hiptesis. En caso contrario, no disponemos de evidencia para rechazarla y se mantendr como
provisionalmente verdadera hasta que nuevas evidencias demuestren lo contrario.

Estimacin
Es cualquier tcnica para conocer el valor aproximado de un parmetro poblacional, a partir del estadstico muestral
correspondiente, calculado con los datos recogidos en la muestra. Hay dos tipos de estimacin: la estimacin por
puntos y la estimacin por intervalos.

Estimacin por intervalos


A diferencia de la estimacin puntual, con la estimacin por intervalos se trata de determinar dos valores entre los
cules se encontrar el parmetro poblacional, con un determinado nivel de confianza. Esta estimacin se realiza a
patir del conocimiento de la distribucin muestral del estadstico que se utiliza como estimador del parmetro.

Estimacin puntual
Conocido tambin como mtodo de los momentos (ideado por K. Pearson), se utiliza el estadstico obtenido en la
muestra como valor del parmetro de la poblacin. Este procedimiento entraa riesgos, pues no todos los
estadsticos tienen la virtud de ser buenos estimadores de los parmetros poblacionales.

Estimador
Un estimador es un estadstico utilizado para conocer el valor aproximado de un parmetro desconocido de la
poblacin (), representndose el estimador del parmetro poniendo un acento circunflejo (^) sobre el parmetro,
quedando por tanto como: .
Por ejemplo, si dentro de la poblacin de estudiantes de 15 aos se desea conocer el nivel de habilidad media en
la asignatura de ciencias (el parmetro desconocido) se aplicarn test a un subconjunto representativo de
estudiantes (la muestra) a travs de los cuales se pueda conocer el nivel de habilidad de cada alumno y,
consiguientemente se pueda calcular la habilidad media de la muestra. Pues bien, precisamente la media de la
muestra podr utilizarse como estimador de la habilidad media en ciencias de la poblacin de estudiantes de 15
aos.

Propiedades de los estimadores:


Para cada parmetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que
posea mejores propiedades que los restantes, siendo stas:
- Insesgado: su valor esperado o esperanza matemtica debe coincidir con el parmetro que estima.
- Eficiente, de tal manera que la distribucin del estimador tenga poca variabilidad
- Consistencia: de tal manera, que a medida que aumenta el tamao de la muestra tiende a
concentrarse en un rango cada vez ms estrecho alrededor de su parmetro. De este modo, su sesgo y su
varianza tienden a cero a medida que se incrementa n.
- Suficiencia: un estimador ser suficiente en la medida que al estimar el parmetro de utiliza toda la
informacin muestral relacionada con el parmetro.

10 | P g i n a
GLOSARIO

Estimador eficiente
Es bueno que la distribucin del estimador tenga poca variabilidad, en este sentido, diremos que un estimador es
ms eficiente que otro estimador, si la varianza del primero es menor que la del segundo.

Estimador insesgado
Es insesgado cuando su esperanza matemtica (valor esperado o media) coincide con el parmetro poblacional.
En el caso de la media se comprueba que la media de todas las posibles medias -calculadas en todas las posibles
muestras del mismo tipo y tamao extradas de una poblacin- coincide con la media poblacional. Por tanto, la
media de la muestra es un estimador insesgado de la media poblacional (parmetro).

Experimento Ver Grupo de control y grupo experimental


Un experimento es un procedimiento mediante el cual se trata de comprobar (confirmar, verificar) una o
varias hiptesis relacionadas con un determinado fenmeno, mediante la manipulacin de una o
ms variables que presumiblemente son su causa (factores).
En un experimento se consideran todas las variables relevantes que intervienen en el fenmeno, mediante la
manipulacin de las que presumiblemente son su causa, el control de las variables extraas y la aleatorizacin de
las restantes. Estos procedimientos pueden variar mucho segn las disciplinas (no es igual en Fsica que en
Psicologa, por ejemplo), pero persiguen el mismo objetivo: excluir explicaciones alternativas (diferentes a la
variable manipulada) en la explicacin de los resultados. Cada repeticin del experimento se llama prueba o
ensayo.
Las distintas formas de realizar un experimento (en cuanto a distribucin de unidades experimentales en
condiciones o grupos) son conocidas como diseos experimentales.

Factor
En el Anlisis de varianza o ANOVA se denomina factor a la variable independiente, compuesta por un
determinado nmero de niveles (categoras), de este modo, lo que nos interesa estudiar es el efecto que generan
estos niveles del factor sobre la variable objeto de estudio. O dicho en otras palabras, se pretende estudiar si se
observan diferencias entre las medias de los grupos correspondientes a cada uno de los niveles del factor.
De este modo, en la medida que la varianza debida a los distintos niveles del factor (varianza intergrupos) sea
mayor que la varianza debida al error experimental (varianza intragrupos) se dir que el factor ejerce un impacto
significativo sobre la variable dependiente u objeto de estudio, o lo que es lo mismo, se observan diferencias
significativas entre las medias de los grupos formados por cada uno de los niveles del factor.

Funcin indicatriz
En matemticas, la funcin indicatriz es una funcin definida en un conjunto X que indica la pertenencia de un
elemento en el subconjunto A de X, teniendo el valor 1 para todos los elementos de A y el valor 0 para todos los
elementos de X no incluidos en A. Es, pues, una funcin definida por la pertenencia o no a A de cualquier elemento
de X.
Esta funcin es utilizada en contrastes no paramtricos como la prueba de los signos para construir la variable Ii,
que tomar el valor de 1 si Xi<mo y el valor de 0 si Xi mo

Grados de libertad
Los grados de libertad hacen referencia al nmero de datos de informacin independientes disponibles despus de
realizar un clculo numrico. Por ejemplo, si conocemos la media de n valores, podemos asignar valores a n-1 y el
ltimo quedar determinado automticamente para cumplir la condicin de que la media sea el valor fijado. En
este caso, el clculo de la media se realiza con n-1 grados de libertad.

11 | P g i n a
GLOSARIO

Grupo de control y grupo experimental


Dichos grupos son elementos fundamentales en el diseo de experimentos constituyendo por tanto una pieza
fundamental en el mtodo cientfico y en la experimentacin
En efecto, en un experimento controlado, se realizan dos experimentos idnticos. En uno de ellos grupo
experimental el tratamiento o factor testado es aplicado. En otro grupo de control el factor testado no es
aplicado.
Por ejemplo, al testar un medicamento, es importante verificar cuidadosamente que los supuestos efectos de la
droga se producen solamente como consecuencia de la misma. Los investigadores controlan dicho efecto a travs de
un ensayo clnico, generalmente compuesto por dos grupos idnticos de pacientes que sern comparados: uno de
ellos (el grupo experimental) recibe una droga y el otro (el grupo de control) recibe un placebo.
Ver Experimento

Hiptesis estadstica
Las hiptesis estadsticas (hiptesis nula e hiptesis alternativa) se plantean para dar forma a la hiptesis
cientfica y es una afirmacin referida a la poblacin (o poblaciones) que puede someterse a contrastacin
emprica a partir de la informacin recogida en una o varias muestras -segn el tipo de diseo- representativas.

Hiptesis nula y alternativa


Se denomina hiptesis nula, Ho, a una afirmacin sobre una o ms caractersticas de la poblacin que
se supone provisionalmente cierta. Es la hiptesis que se somete a contrastacin emprica contra la
evidencia de los datos de la investigacin. El nombre de "nula" indica que no existe diferencias
significativas (la diferencia es estadsticamente nula) entre el valor emprico observado en la muestra y
el valor terico que formulamos para la poblacin.

La hiptesis alternativa, representada por H1, es la afirmacin complementaria a la Ho, y suele


coincidir con la hiptesis del investigador.

La hiptesis nula se rechaza en favor de la hiptesis alternativa, slo si la evidencia muestral sugiere que Ho es falsa.
Si la muestra no contradice decididamente a Ho, se contina asumiendo como provisionalmente verdadera a la
hiptesis nula. La hiptesis Ho, nunca se acepta porque nunca se considera probada. Simplemente se rechaza o no a
la luz de la evidencia que proporcionan los datos de la muestra utilizada en la investigacin. Por tanto, en todo
contraste de hiptesis solo hay dos conclusiones posibles: rechazar la Ho o no rechazar Ho con sus respectivos
errores.

Homocedasticidad
Significa igualdad de varianzas y es un supuesto que ha de cumplirse en contrastes como el Anlisis de Varianza
(ANOVA). Dicho con otras palabras y centrndonos en el contexto del ANOVA, la homocedasticidad implica que los
grupos, cuyas medias estamos comparando, proceden de poblaciones cuyas varianzas no difieren
significativamente en lo que respecta a la variable independiente que forma parte del anlisis.
Existen diversos contrastes para evaluar la existencia de homocedasticidad, como son el Test de Cochran (para
modelos equilibrados) y el test de Barlett (que no parte del supuesto de modelos equilibrados). En dichos
contrastes la Hiptesis nula es precisamente la de homocedasticidad o igualdad de varianzas entre los distintos
grupos, mientras que la Hiptesis alternativa propone la no igualdad de las varianzas de los grupos, lo que en
terminologa estadstica se denomina heterocedasticidad.

Inferencia estadstica
Es la rama de la estadstica que permite realizar afirmaciones sobre una poblacin a partir de los datos obtenidos en
alguna de las muestras que se pueden obtener de la misma. De este modo, la infeestadstica permite ir de lo
concreto (la muestra) a lo general (la poblacin). Se basa en la estimacin de parmetros y en contraste de hiptesis.

12 | P g i n a
GLOSARIO

Intervalo de confianza
Los intervalos de confianza se utilizan para fijar los valores que puede tomar el parmetro poblacional que se
quiere estimar. Se trata de determinar dos valores entre los cules se encontrar el parmetro poblacional, con un
determinado nivel de confianza.
Los intervalos se construyen partiendo del valor del estimador puntual, que se utilizar como centro del intervalo,
al que se le suma y resta el producto de: el margen de confianza con el que deseamos trabajar por el error tpico,
obtenindose, de esta manera, el lmite superior e inferior del intervalo de confianza.
La amplitud de un intervalo de confianza depende pues de estos dos factores: el nivel de confianza y el error tpico
de la distribucin muestral del estadstico

Medida de discrepancia Ver Estadstico de contraste

Modelo equilibrado (ANOVA)


Es aquel modelo en el que todos los grupos o muestras (definidos por cada uno de los niveles del factor) estn
compuestos por el mismo nmero de sujetos.

Modelo no equilibrado (ANOVA)


Es aquel modelo en el que todos los grupos o muestras (definidos por cada uno de los niveles del factor) no estn
compuestos por el mismo nmero de sujetos

Muestra
Es un subconjunto de n casos o individuos de una poblacin de tamao N que se obtiene con la intencin de inferir
algn parmetro de la poblacin.

Para cumplir esta funcin, la seleccin de sujetos de la muestra debe realizarse de acuerdo a unos procedimientos
de muestreo que garanticen que la muestra es representativa de la poblacin de origen. La muestra representativa
nos proporciona una informacin similar a la que se obtendra en un estudio exhaustivo ms amplio, pero con
mayor rapidez y menor coste.
El nmero de sujetos que componen la muestra suele ser inferior que el de la poblacin, pero suficiente para que
la estimacin de los parmetros determinados lleve asociados Errores mximos de estimacin no muy elevados.
Para que el tamao de la muestra sea idneo es preciso recurrir a su clculo.

Nivel de confianza
El nivel de confianza es una probabilidad referida a la aseveracin de la inferencia o estimacin realizada a partir del
estadstico obtenido en una muestra. Su probabilidad asociada es 1-.
En la estimacin por intervalos representa la probabilidad de que un parmetro se halle dentro del
intervalo establecido.
En el contraste de Hiptesis el nivel de confianza (1-) representa la probabilidad para no rechazar la
H0 siendo cierta.
El nivel de confianza a establecer es una decisin que ha de tomar el investigador (y, consiguientemente, lo mismo
ocurre con su complementario: , el nivel de significacin).
El nivel de confianza va ligada a la Regin de no rechazo, que es aquella zona de la distribucin muestral constituida
por el conjunto de muestras para las cuales se acepta H 0.

13 | P g i n a
GLOSARIO

Nivel de significacin
El nivel de significacin se representa con la letra griega (alpha) y est asociado al contraste de una hiptesis
estadstica, siendo su valor complementario al nivel de confianza (1- ),
Se define como la probabilidad () de tomar la decisin de rechazar la hiptesis nula cuando sta es verdadera
(error de tipo I). El establecimiento de un nivel de significacin (y consecuentemente, tambin el nivel de
confianza) es una decisin que debe tomar el investigador, no obstante, son valores comnmente utilizados: 0,05 y
0,01.
El nivel de significacin define la zona de rechazo, aquella zona de la distribucin muestral constituida por el
conjunto de muestras para las cuales se rechaza la H0 al considerarse que la probabilidad de obtener tales
muestras, siendo H0 cierta, es demasiado baja. De este modo, en la medida que el nivel p-crtico sea menor al
nivel de significacin (encontrndose, por tanto dicho valor en la zona de rechazo) se aceptar la H1,
rechazndose H0, indicando que este resultado es 'estadsticamente significativo' queriendo decir con ello que no
es probable que sea debido al azar.
Una "diferencia estadsticamente significativa" solamente indica que hay evidencias estadsticas de una diferencia
entre los datos empricos y la formulacin terica, lo cul no es sinnimo de que esta diferencia sea grande,
importante, o significativa en el sentido literal del trmino.

Nivel p-crtico Ver p-crtico

Niveles de un factor (Ver Factor y Anlisis de varianza)


Cada una de las categoras que conforman un factor en un Anlisis de varianza

Ortogonal (factor, vector, elemento)


El concepto ortogonal procede del lgebra de matrices, de este modo se dice que dos vectores son ortogonales si su
producto escalar es cero.
Con el fin de facilitar la comprensin de dicho concepto al alumno en la presente asignatura se seala que el
concepto ortogonal equivale a independiente. De este modo, si decimos que los efectos principales de dos factores
en un diseo factorial son ortogonales, en realidad estamos queriendo decir que son independientes.

p-crtico
Valor o nivel p-critico es una probabilidad asociada al estadstico de contraste dentro de la distribucin muestral
del estadstico. Corresponde a la probabilidad de obtener ese valor del estadstico de contraste, u otro ms alejado
de la Ho, si Ho fuera cierta.
Este valor p-crtico se compara con el nivel de significacin "alfa" y si es menor tendremos que rechazar la
hiptesis nula.
El p-crtico indica la probabilidad de que, suponiendo cierta la Ho, se obtengan en una muestra representativa de
la poblacin, unos resultados como los obtenidos en la investigacin.
En algunas publicaciones y paquetes estadsticos tambin recibe el nombre de p-valor o valor-p.

Parmetro
Es un valor numrico que describe una caracterstica de la poblacin (como su tendencia central, su variablidad, su
forma, etc). Por tanto, la media cuando se refiere a los datos de una poblacin es un parmetro de tendencia
central. La varianza, la proporcin, la correlacin, la pendiente de una recta de regresin, etc, son parmetros si
estn referidos a los datos de una muestra.
Se representan con letras del alfabeto griego y son valores desconocidos que se estiman a partir de sus estimadores:
los estadsticos de la muestra.

14 | P g i n a
GLOSARIO

Poblacin
Se denomina Poblacin o Universo al conjunto de todos los elementos que estamos estudiando, acera de los
cuales pretendemos sacar conclusiones.
Con frecuencia el nmero de elementos o sujetos que compone una poblacin es tan elevado que sera difcil
estudiarla en su totalidad Por esta razn se decide tomar un subconjunto de n elementos representativo de dicha
poblacin y que denominamos muestra.
La rama de la estadstica que permite realizar afirmaciones sobre una poblacin a partir de los datos obtenidos en
alguna de las muestras que se pueden obtener de la misma se denominar inferencia estadstica.

Potencia del contraste


Es la decisin correcta de rechazar una hiptesis nula cuando es falsa.
Su probabilidad se representa por "uno menos beta": 1- . y depende del "nivel de significacin", del tamao de la
muestra y del tamao del efecto.
Su valor complementario es el Error Tipo II: .

Prueba omnibus (Diseo factorial) Ver Diseo factorial

Pruebas a priori o planificadas Ver comparaciones mltiples

Pruebas no paramtricas
En la actualidad no existe un consenso absoluto sobre qu elementos definen a las pruebas no paramtricas: en
general puede decirse que este tipo de pruebas se utiliza en aquellos casos en los que no se puede asumir una
distribucin especfica para la poblacin de la que proceden los datos.

A continuacin se presentan algunas caractersticas que nos pueden ayudar a encontrar los elementos especficos
de las pruebas no paramtricas, as como sus principales diferencias con los contrastes paramtricos:

- Estas pruebas se aplican cuando los datos proceden de una poblacin cuya distribucin poblacional no
viene especificada y, por lo tanto no se puede asumir una forma concreta para su distribucin, por
tanto, pueden aplicarse sin hacer ningn supuesto sobre la forma especfica de la distribucin subyacente a
la variable dependiente. Por este motivo estas pruebas tambin se denominan pruebas sin supuesto
distribucional.

- Contrariamente a lo que se suele pensar, las pruebas no paramtricas s realizan supuestos, si bien dichos
supuestos son menos rgidos y restrictivos a los que se realizan en las pruebas paramtricas, siendo
precisamente ste, uno de los puntos que mejor define a este tipo de pruebas.

- Tal y como se ha especificado ms arriba, dichos supuestos no estn referidos a la forma especfica de la
distribucin poblacional. Por otra parte, un supuesto muy utilizado en las pruebas no paramtricas es el
supuesto de la distribucin simtrica de la variable dependiente en la poblacin.

- Otro criterio a tener en cuenta es que las pruebas no paramtricas se suelen utilizar cuando las escalas para
medir la variable dependiente son de tipo nominal u ordinal, o bien cuando las escalas sean de tipo
intervalo/razn pero han sido recodificadas en variables de tipo nominal u ordinal. De este modo, Los datos
en los procedimientos no paramtricos pueden utilizar escalas de nivel inferior al exigido por el
procedimiento paramtrico correspondiente.

- Por ltimo, este tipo de contrastes, al no utilizar toda la informacin proporcionada son menos eficientes y
necesitan tamaos muestrales mayores para alcanzar la misma potencia que el procedimiento paramtrico
correspondiente.

15 | P g i n a
GLOSARIO

Pruebas paramtricas
Estas pruebas se basan en el conocimiento de la distribucin poblacional de la que procede nuestra variable
dependiente. Entre estas pruebas hay que contemplar tanto los intervalos de confianza como el clculo de los
estadsticos de contraste utilizados para contrastar hiptesis sobre los parmetros poblacionales, Estas pruebas nos
permitirn pues tomar una decisin a la hora de aceptar o rechazar la hiptesis nula planteada sobre un parmetro
en la poblacin.
Las pruebas paramtricas poseen supuestos ms rgidos y restrictivos que las no paramtricas. De este modo, tal y
como se ha sealado este tipo de procedimientos requieren del conocimiento de la forma de distribucin de la
poblacin de la que proceden los datos. Por otra parte, la escala en la que debe venir medida la variable debe ser,
como mnimo, de intervalo.

Pruebas post hoc, no planificadas o a posteriori Ver Comparaciones mltiples

Regin de rechazo
La regin de rechazo o regin crtica viene delimitada por los valores crticos y corresponde al conjunto de valores de
la distribucin de probabilidad del estadstico de contraste para los que se rechaza la hiptesis nula.

Por ejemplo, en los diseos de una muestra, la regin crtica para el contraste bilaterla de un valor hipottico
formulado para la media poblacional con un nivel de confianza del 95%, la regin crtica viene determinada por los
valores que son menores o igualea a -1,96 o mayores o iguales que +1,96

Robusto (estadstico)
Se dice que un estadstico o un anlisis es robusto cuando no se ve especialmente afectado por el incumplimiento de
un determinado supuesto.
As, por ejemplo, la normalidad de la distribucin de las puntuaciones para cada una de las condiciones del factor es
un supuesto que, tericamente, debera cumplirse en el anlisis ANOVA, sin embargo en ocasiones podemos
encontrar estudios donde se aplic el ANOVA como tcnica de anlisis sin cumplirse este supuesto. Esto se debe a
que el ANOVA es robusto al incumplimiento del supuesto de normalidad.

Simetra compuesta
La simetra compuesta integra dos de los supuestos que deben cumplirse en el ANOVA intrasujetos y que, adems,
son particulares de este tipo de diseos (AxS):
Las varianzas de las puntuaciones para los distintos niveles del factor deben ser iguales entre s
(homocedasticidad).
Las covarianzas entre todos los niveles del factor deben ser iguales entre s.

Si representamos esta informacin en una matriz (tabla) el cumplimiento de este supuesto se manifestara con
claridad al observarse dos elementos:
Por una parte la diagonal principal (diagonal que va desde la esquina superior izquierda hasta la esquina
inferior derecha) en la que se representan las varianzas
Por otra parte, las covarianzas en los dems elementos de la matriz

Se habla de simetra compuesta porque en el caso de cumplirse los dos supuestos referidos nos encontraramos con
una matriz simtrica, en relacin a la diagonal principal, y compuesta por dos nicos valores: el de la varianza y el de
la covarianza.

16 | P g i n a
GLOSARIO

Tamao del efecto


Es un concepto relativamente nuevo en las Ciencias del Comportamiento y difcil de estimar. Se refiere al grado en
que la Ho es falsa, es decir, el grado en que el fenmeno concreto de estudio est presente en la poblacin. El
tamao del efecto es un elemento de gran importancia en el anlisis de potencia, ya que la potencia de todo
contraste depende de la magnitud del efecto que se quiere detectar de modo que cuando los efectos son grandes,
la potencia del contraste incrementa. Manteniendo constante el nivel de significacin y el tamao de la muestra,
cuanto mayor sea el tamao del efecto mayor es la potencia estadstica.

Teorema Central del Lmite


Este teorema de especial importancia en el mbito de estimacin de parmetros y el contraste de hiptesis
2
establece que: si una poblacin tiene una media y una varianza finitas, la distribucin de las medias muestrales
de tamao n extradas de manera aleatoria e independiente, se aproxima a la forma de una distribucin normal con
2
varianza /n y media conforme el tamao n se va incrementando

Universo Ver Poblacin

Valor p-crtico Ver p-crtico

Valores crticos
Es el valor o valores dentro de la distribucin muestral que se asocian directamente al nivel de significacin , este
valor marca la mxima diferencia que podemos admitir, por simple azar, entre el valor terico planteado en H 0 y el
valor obtenido en la muestra. Estos valores marcan los lmites entre la zona de rechazo y de aceptacin.
Un modo a la hora de decidir si rechazar o aceptar la H0 es comparar el estadstico de contraste con el valor crtico,
de tal modo que en la medida que el estadstico de contraste sea mayor (en valor absoluto) al valor crtico se
rechazar la H0 aceptndose H1 .

Variable
En su acepcin estadstica, una variable es una representacin numrica de una caracterstica. Cuando efectuamos
la medida de una caracterstica determinada, atribuimos nmeros a los objetos segn sea la cuanta que presenten
de dicha caracterstica. Esta representacin numrica refleja el hecho de que los objetos varan respecto a la
caracterstica objeto de estudio, y por tanto permite diferenciar unos objetos de otros.

Variable aleatoria
Una variable aleatoria es una funcin que asigna un nmero, y solo uno, a cada resultado de un experimento
aleatorio. El valor de la variable aleatoria puede cambiar de ensayo a ensayo cuando el experimento se repite
sucesivamente. La variable aleatoria puede ser discreta o continua.
Por ejemplo, el nmero de aciertos que se cometen al responder al azar a un test de conocimientos formado
por N tems con tres alternativas de respuesta (de las que solo una es correcta) es una variable aleatoria que
puede tomar cualquier valor discreto desde 0 (para el que no acierta ninguna pregunta) hasta N (para el que
acierta todas). Toda variable aleatoria tiene asociado su distribucin de probabilidad (si la variable es discreta) o su
funcin de densidad de probabilidad (si la variable aleatoria es continua)

17 | P g i n a
GLOSARIO

Variable aleatoria continua


Cuando la variable aleatoria, toma cualquier valor numrico de un conjunto infinito -y por tanto no numerable- de
casos posibles, decimos que la variable aleatoria es continua. En este caso, entre dos valores cualesquiera de la
variable, por muy prximos que estn, podemos encontrar infinitos valores intermedios. Los siguientes casos
Tiempo que tarda una rata en recorrer un laberinto, el cociente intelectual, la longitud de unos estmulos
presentados en experimentos de percepcin visual, el tiempo de reaccin ante un estmulo, son ejemplos de
variables tericamente continuas que puede presentar valores como 3.7, 3.8, 3.72 o 3.721 segundos y entre dos
cualesquiera de ellos, v.gr. 3.721 y 3.722 seg, existen infinitos valores intermedios como 3.721049, 3.72119, 3.72196
etc.

Variable aleatoria de Bernouilli


Es aquella variable aleatoria que se origina en aquellos experimentos en los que slo se pueden dar dos valores:
hombre-mujer; cara-cruz; salud-enfermedad; acierto-fallo, etc. El espacio muestral es binario y los valores
numricos asignados a cada suceso del espacio muestral suelen ser 1 y 0.

Variable aleatoria discreta


Cuando la variable aleatoria, X, es un conjunto de valores numricos definidos sobre un conjunto finito o infinito,
pero en cualquier caso numerable (susceptibles de ser contados) de casos posibles, decimos que la variable aleatoria
es discreta. En este caso entre dos valores consecutivos no existen valores intermedios, porque la variable aleatoria
X toma valores nicamente en los puntos x1, x2,..., xn. con probabilidades respectivas pi siendo nula la probabilidad
de que tome cualquier otro valor. Los siguientes casos nmero de asignaturas matriculadas por los alumnos de 1 de
Psicologa, la edad - contada en aos- de estos alumnos, el nmero de tems contestados correctamente en un test,
son ejemplos de variables discretas y los son tambin la mayora de las situaciones que requieren un conteo.

Variable categrica
Llamada tambin variable cualitativa es aquella que se mide con escala nominal de tal forma que los valores que
presenta corresponden a categoras discretas. Estas categoras no pueden ser ordenadas y representan grupos
diferentes, como, el tipo de religin, el sexo, etc.

Variable chi-cuadrado
Es una variable continua definida como la suma de una serie de variables con distribucin normal estndar.

Variable continua
Una variable continua es aquella que puede tomar un nmero infinito de posibles valores, de tal forma que entre
dos cualesquiera de ellos por prximos que estn, existen infinitos valores posibles. Por ejemplo, la altura, el tiempo
de reaccin a un estmulo, y por lo general todas aquellas que requieren una medida.

Variable criterio (Anlisis de regresin)


En el contexto del Anlisis de regresin se denomina variable criterio a la variable dependiente.
De este modo, el Anlisis de regresin se aplica cuando una variable cuantitativa (la variable dependiente o criterio),
es estudiada como una funcin de una variable o de una combinacin de varias variables independientes o
predictoras.

Variable cualitativa Vase Variable categrica.

18 | P g i n a
GLOSARIO

Variable dependiente
Representada como Y se trata de la variable observada en un experimento. Es la variable objeto de estudio.
Dicha variable no queda bajo el control directo del experimentador.

Variable dicotmica
Es un tipo especial de variable cualitativa, que slo puede adoptar dos valores. Por ejemplo, la variable sexo o la
variable "resultado que se obtiene al lanzar una moneda". Toda variable continua es susceptible de ser
"dicotomizada", por ejemplo, la variable "altura" siendo una variable continua puede presentarse "dicotomizada"
en altos y bajos.

Variable discreta
Una variable discreta es aquellas que toma unos valores concretos que pueden ser contados como 0, 1, 2, 3, 4, ...Si
una variable puede tomar solo un nmero finito de valores, decimos que es discreta. Como ejemplo de variable
discreta est el nmero de respuestas correctas contestadas en un test, el nmero de hijos de una familia y por lo
general todas aquellas variables que requieren un conteo.

Variable F
Variable continua que se define como el cociente entre dos variables chi-cuadrado dividida cada una de ellas por sus
respectivos grados de libertad. Puede tomar cualquier valor positivo y tiene una funcin de densidad de
probabilidad conocida como distribucin F

Variable independiente
Representada por X, es la variable controlada o manipulada por el experimentador con el fin de analizar su efecto
sobre la variable dependiente u observada (Y).

Variable nominal
Es lo mismo que una variable categrica. Los valores o nmeros que presenta una variable nominal corresponden a
"nombres" o etiquetas. Por ejemplo, la profesin es un tipo de variable nominal o categrica. Si una variable
nominal slo presenta dos categoras, recibe el nombre de variable dicotmica.

Variable ordinal
Es un tipo de variable medida con escala ordinal y cuyos valores solo pueden ser ordenados no pudiendo
establecerse distancias entre valores. Por ejemplo, los nmeros asignados a los candidatos que se presentan a una
oposicin en funcin de la puntuacin obtenida en la prueba forman una variable ordinal.

Variable predictora (Anlisis de regresin)


En el contexto del Anlisis de regresin se denomina variable predictora a la variable independiente.
De este modo, el Anlisis de regresin se aplica cuando una variable cuantitativa (la variable dependiente o criterio),
es estudiada como una funcin de una variable o de una combinacin de varias variables independientes o
predictoras.

19 | P g i n a
GLOSARIO

Variable t
Es una variable continua definida como el cociente entre una variable normal tipificada , z, y la raiz cuadrada de una
variable chi-cuadrado, dividida por sus grados de libertad. La variable t, as definida, puede tomar cualquier valor,
positivo o negativo y tiene una funcin de densidad de probabilidad conocida que recibe el nombre de distribucin t
de Student en honor de su descubridor, el matemtico Gosset que public sus trabajos con el seudnimo de
Student.

Variables aleatorias independientes


Dos variables aleatorias X e Y son independientes si los valores de X no influyen sobre los valores de Y, y viceversa, si
los valores de Y no influyen sobre los valores de X. Con otras palabras, dos variables X e Y son independientes si los
valores de X no afectan a la distribucin de probabilidad de Y. Entonces se cumple que en la distribucin de
probabilidad conjunta f(xy)=f(x).g(y)

Varianza

La varianza, representada como es un ndice de dispersin que permite determinar la dispersin o variablidad
de los datos de variable objeto de estudio. Matemticamente se define como la media de los cuadrados de las
distancias de cada puntuacin a la media. Su frmula recoge la expresin anterior.

Varianza insesgada Vase Cuasi-varianza

Varianza intergrupos (ANOVA)


En el ANOVA o anlisis de varianza se trata de la varianza del error, debida a toda una serie de factores no
controlados en el experimento.

Varianza intragrupos (ANOVA)


En el ANOVA o anlisis de varianza se trata de la varianza atribuible al efecto de los distintos niveles del factor sobre
la variable dependiente u objeto de estudio

20 | P g i n a

Vous aimerez peut-être aussi