Vous êtes sur la page 1sur 19

Inferencia Estadística

Tabla de contenidos
 Inferencia Estadística
o Distribución en el muestreo
o Distribución en el muestreo de la media muestral
o Error Estándar de la Media Muestral
o Teorema Central del Límite
o Estimadores y Métodos de Estimación
o Cálculo de un IC al 95% para la media de una población
o Estimación por intervalo de confianza
o Uso del estadístico T en IC
o Uso del Estadístico Z en IC
o Hipótesis
o Modelo Estadístico
o Parte Fija o Valor Esperado
o Componente aleatoria
o Modelos Lineales
o Contraste de hipótesis
o Valor p
o Cálculos en contraste de hipótesis

Inferencia Estadística
La Inferencia Estadística hace referencia a un conjunto de
procedimientos que, mediante el uso de estadísticos muestrales,
permiten elaborar conclusiones sobre parámetros poblacionales
desconocidos. Conocer o estimar a un parámetro de la distribución de
una variable es posible a través de un estadístico. Dado que el
estadístico será obtenido a partir de una muestra, es claro imaginar
que hay más de una muestra posible de ser elegida y que entonces el
valor del estadístico dependerá de la muestra seleccionada. Los
valores de los estadísticos cambian de una muestra a otra. Interesa
entonces tener una medida de estos cambios para cuantificar la
medida del error en el que podría incurrirse al hacer una inferencia.
.

Indice de temas | Glosario | Autoevaluación

Distribución en el muestreo
Cuando seleccionamos una muestra aleatoria desde una población y
calculamos un estadístico desde los datos, quisiéramos conocer si el
valor del estadístico está cercano al valor del verdadero parámetro
poblacional que el estadístico estima.

Por ejemplo, si seleccionamos una muestra aleatoria de 1000 jóvenes


varones de una ciudad y calculamos el promedio de sus pesos para usar
este valor muestral como un estimador del peso de todos los jóvenes
hombres de la ciudad, nos podríamos preguntar ¿Como sabemos si el
valor hallado es una estimación segura o precisa?

Conceptualmente, podríamos imaginar la situación de tomar muchas


muestras aleatorias de 1000 sujetos cada una y en cada muestra
calcular la media de la variable de interés. La distribución de estas
medias nos dirá algo sobre la calidad de las estimaciones. Por ejemplo,
tienden las medias de las distintas muestras a estar cercas unas de
otras o son muy dispersas? En otras palabras, cual es la desviación
estándar de las medias?

La distribución de las estimaciones obtenidas con un estadístico se


llama distribución en el muestreo del estadístico y la desviación
estándar de esta distribución se denomina error estándar (EE).

Indice de temas | Glosario | Autoevaluación

Distribución en el muestreo de la media


muestral
A través de muestreo repetido con muestras de tamaño n desde una
Población y sacando la media muestral a cada muestra se observa que
el conjunto de medias muestrales tiene las siguientes características
distribucionales:

el promedio de la distribución de la variable media muestral de


tamaño n tiene igual valor que la media de la población de la que se
extrajeron las muestras.

la varianza de la distribución de la variable media muestral de tamaño


n no es igual a la varianza de la población muestreada, sino que es
menor ya que es la varianza poblacional dividido n.

La distribución de la media muestral caracterizada por los


parámetros y , es simétrica independientemente de la
distribución de la variable en la población y su varianza decrece si
aumenta el tamaño de la muestra.
Histogramas de frecuencias relativas de la variable media muestral (correspondientes
a pesos en gramos) de muestras extraídas desde una misma población utilizando
diferentes tamaños muestrales.

Este hallazgo es muy importante ya que en una distribución con menor


varianza los datos se concentran más alrededor de la media. Esto nos
lleva a pensar que con muestras de mayor tamaño, la media muestral
sería un estimador más preciso de . De hecho, cuando la muestra es la
población entera, el estadístico no se diferencia del parámetro.

Indice de temas | Glosario | Autoevaluación


Error Estándar de la Media Muestral
La raíz cuadrada de la varianza de la distribución del estadístico se
denomina Error Estándar y proporciona una medida de confiabilidad
para el dato estadístico obtenido a partir de una muestra ya que la
desviación estándar es una medida del error del muestreo (de la
variación en la muestra).

El error estándar (EE) es una medida de la variación del estimador que


permite cuantificar el error de estimación (variación entre las
estimaciones).

El EE del estadistico media muestral indica la confiabilidad de la media


obtenida de una muestra de tamaño n, se calcula como:

Suele ser útil expresar el error estándar en términos relativos.

Si EE representa el error estándar de un estimador , el error estándar


relativo es . Un error estándar relativo de hasta 0,20 podría ser
admisible, pero un error estándar relativo de 0,80 implicaría que la
discrepancia promedio del estimador respecto del valor que está
estimando, representa aproximadamente un 80% del mismo.

Indice de temas | Glosario | Autoevaluación

Teorema Central del Límite


Una importante idea que sintetiza lo expuesto anteriormente sobre la
distribución de la variable aleatoria media muestral, es que esta se
aproxima, a medida que n crece, a una distribución Normal
independientemente de la distribución subyacente en los datos
originales.
Si los datos tienen distribución normal, las medias muestrales de
tamaño n se distribuirán normalmente con media igual a la de los datos
y con varianza igual a la de los datos dividido n.

Si los datos no tienen distribución normal, pero n es suficientemente


grande (digamos n mayor a 30) la distribución de la media muestral
igualmente será normal con media igual a la de los datos y con varianza
igual a la de los datos dividido n.

Indice de temas | Glosario | Autoevaluación

Estimadores y Métodos de Estimación


Cuando deseamos asignar un valor a un parámetro distribucional
desconocido podemos extraer una muestra aleatoria de la población y
calcular un estadístico (estimador) que nos provea una estimación del
valor del parámetro.

Los mejores estadísticos son aquellos que gozan de buenas propiedades


estadísticas:
son insesgados, consistentes, eficientes y suficientes. También es
útil que se cumpla la propiedad de cerramiento (estimador cerrado)

Los métodos de estimación más usados para obtener estimadores


lineales son método de máxima verosimilitud, método de los
momentos y método de mínimos cuadrados.

Las inferencias sobre los parámetros pueden obtenerse por estimación


puntual, estimación por intervalo de confianza o realizarse
mediante pruebas de hipótesis.

Indice de temas | Glosario | Autoevaluación

Cálculo de un IC al 95% para la media


de una población
Los límites inferior (LI) y superior (LS) del intervalo de confianza
(bilateral) para la media, dado un nivel de confianza , donde α es una
probabilidad de error asociada a la estimación son:

En dicha expresión, representa la media muestral y el


estimador de su error estándar. Si el intervalo tiene una confianza
del 95%, entonces .

Luego, dada una muestra, la construcción del intervalo de confianza


bilateral (es decir con límite inferior y superior) para la media
poblacional se obtiene sumando y restando de la media
muestral, veces su error estándar. El valor de este cuantil es
cercano a 2.

Más precisamente, el coeficiente corresponde al


percentil una distribución T con n-1 grados de libertad. Si
deseamos un intervalo de confianza al 95% entonces de
donde y por lo tanto

Luego, si tuviésemos una muestra de tamaño n=20, el coeficiente por


el que habría que multiplicar al error estándar de la media (para
restar y sumar, a fin de obtener los límites inferior y superior
respectivamente), sería el percentil 0,975 de una T con 19 grados de
libertad.

El coeficiente es fácil de obtener con la calculadora de


probabilidades y cuantiles de InfoStat seleccionando T Student (v) y
completando los campos marcados con los grados de libertad
apropiados y la probabilidad acumulada. El [Valor de x] para la
probabilidad ingresada es el cuantil 0,975 de la distribución.

Si se conoce la varianza poblacional entonces en lugar del estadístico


T se usara el estadístico Z, por ej, para un IC del 95% el cuantil Z0.975
es 1.96, un valor cercano a 2.

En la práctica, es raro que se conozca la varianza poblacional, razón


por la cual se usan mas IC contruidos a partir de la distribución T de
Student. No obstante, cuando n es grande, digamos mayor a 30,
la distribución T de Student se aproxima a la distribución Normal
Estandar y , consecuentemente, los IC pueden calcularse
reemplazando el coeficiente T por un score Z obtenido de la
distribución Normal estándar.

Indice de temas | Glosario | Autoevaluación

Estimación por intervalo de confianza


Una forma de reportar la incertidumbre de una estimación es dando
un intervalo de confianza para el parámetro que se quiere estimar.
Estos intervalos tienen una probabilidad diseñada de contener al
verdadero valor del parámetro. Esta probabilidad se fija usualmente
en 0,95. Intervalos de menor confianza, como por ejemplo 0,90 o 0,99
son también frecuentemente usados.

Para construir intervalos de confianza se usa el error estándar (EE)


como medida de la calidad de la estimación estadística. Con este valor
se puede saber cuán lejos las estimaciones de los parámetros pueden
estar respecto al verdadero valor del parámetro que desconocemos.

El IC provee una medida de la precisión y de la confianza de nuestra


estimación del parámetro.

Indice de temas | Glosario | Autoevaluación

Uso del estadístico T en IC


El coeficiente usado en el cálculo del IC denotado

por corresponde al percentil de una distribución T


con n-1 grados de libertad. Este coeficiente se usa cuando e EE fue
calculado a partir de la varianza muestral. En caso de disponer de la
varianza poblacional o cuando n es suficientemente grande (mayor a
30), el coeficiente T puede reemplazarse con el cuantil de una
distribución normal estándar (Z).

Si deseamos un intervalo de confianza al 95% entonces de


donde y por lo tanto

Luego, si tuviésemos una muestra de tamaño n=20, el coeficiente por


el que habría que multiplicar al error estándar de la media (para restar
y sumar, a fin de obtener los límites inferior y superior
respectivamente), sería el cuantil 0,975 de una T con 19 grados de
libertad.

Este cuantil se puede obtener de una versión tabulada de la


distribución T de Student, usualmente disponible en los libros de
estadística o bien con la calculadora de probabilidades y cuantiles de
InfoStat seleccionando T Student (v) y completando los campos
marcados con los grados de libertad apropiados y la probabilidad
acumulada. El [Valor de x] para la probabilidad ingresada es el cuantil
0,975 de la distribución.

Indice de temas | Glosario | Autoevaluación

Uso del Estadístico Z en IC


Si se conoce la varianza poblacional entonces en lugar del estadístico
T se usara el estadístico Z, por ej, para un IC del 95% el cuantil Z0.975 es
1.96, un valor cercano a 2.
En la práctica, es raro que se conozca la varianza poblacional, razón
por la cual se usan más intervalos de confianza contruidos a partir de
la distribución T de Student. No obstante, cuando n es grande, digamos
mayor a 30, la distribución T de Student se aproxima a la distribución
Normal Estandar y , consecuentemente, los IC pueden calcularse
reemplazando el coeficiente T por un score Z obtenido de la
distribución Normal estándar.

Indice de temas | Glosario | Autoevaluación

Hipótesis
La investigación científica es un proceso iterativo de aprendizaje.
Cuando se desea explicar algún fenómeno natural se plantea una
hipótesis. Luego se intenta verificar o refutar experimentalmente esa
hipótesis juntando datos y analizándolos. El análisis de los datos
tomados a través de experimentación (u observación) nos brindará
una explicación modificada del fenómeno en consideración, para así
replantear nuestras hipótesis y reiniciar el proceso. A medida que se
va aprendiendo más acerca del fenómeno, es necesario a veces
incorporar nuevas variables (o eliminar variables) en el estudio, y
debido a la complejidad de la mayoría de los fenómenos estudiados en
Bio-Ciencias, es que es necesario el uso de un modelo para explicar la
variabilidad de los datos observados y el contraste de múltiples
hipótesis referidas a distintas partes de este modelo.

Hipótesis Estadísticas

La toma de decisiones basada en criterios estadísticos se fundamenta


en el conocimiento de la forma en que se distribuyen las variables
aleatorias. Por ello, las hipótesis científicas, las cuales so referidas al
problema de investigación y en términos n estadísticos, deben ser
traducidas al lenguaje del contraste de hipótesis estadísticas que se
plantean en relación a los parámetros de las funciones de distribución
de variables aleatorias.

Por ejemplo, si la hipótesis científica supone que un nuevo tratamiento


que se ha desarrollado para controlar los niveles de azúcar en
sangre evitará que ese nivel supere los 125 mg/dl ; se planteará un
par de hipótesis estadística: una que dice que el nuevo tratamiento no
tiene el efecto deseado, postulando que el parámetro media de la
distribución de niveles de azúcar en sangre en una población de sujetos
que usan el medicamento es mayor o igual a 125 mg/dl (hipótesis nula)
y otra que postula que la media de esa distribución es menor a 125
mg/dl (hipótesis alternativa). Así las hipótesis estadísticas que se
contrastarán a partir de datos muestrales quedaron planteadas en
relación a la esperanza de la distribución de una variable aleatoria.

Indice de temas | Glosario | Autoevaluación

Modelo Estadístico
Los datos recolectados varian según las condiciones de su contexto
experimental.

La variabiidad en los datos, puede ser expresada de manera


simplificada a través de un modelo, conformado por una ecuación y
una serie de suposiciones sobre las componentes de azar que subyacen
el estudio.

La ecuación del modelo incluye siempre dos partes, una determinística


asociada con variaciones sistemáticas y que se reconoce que van a
existir incluso antes de realizar el experimento y otra que depende de
componentes aleatorias que son imposible de controlar y usualmente
inherentes a la variabilidad propia del fenómeno aleatorio en estudio.

Y=Función Deterministica + Perturbación Aleatoria

Estructuras del Modelo

También podemos decir que en un modelo estadístico hay siempre dos


estructuras íntimamente relacionadas:

 La estructura de media (que provee el valor esperado para la


respuesta bajo las condiciones experimentales)
 La estructura de varianzas y covarianzas (asociada a la o las
componentes aleatorias del modelo). Desde ésta segunda
estructura es que se domestica el azar!

Indice de temas | Glosario | Autoevaluación

Parte Fija o Valor Esperado


La primera estructura está formada por los efectos de factores fijos o
fijados por el investigador; factores para los que se determinan a priori
que valores (o niveles) van a asumir. Algunos de estos factores se
relacionan con las condiciones de interés que se desean probar,
mientras que otros pueden estar relacionados a factores o variables de
control, que como se conoce a priori que afectan la respuesta son
incluidos en la ecuación del modelo para explicar variabilidad.

Por ejemplo, si conocemos que algunas unidades recibieron el


tratamiento 1 y otras el tratamiento 2, un modelo para explicar la
variable respuesta del experimento, podría ser:

Y=Media + Tratamiento + Error

Donde Y representa la respuesta. Media es la media general de Y ,


Tratamiento representa el efecto del tratamiento asignado a la unidad
experimental de la cual se relevó una observación de Y , mientras que
Error representa una variable aleatoria que indica que nuestro
conocimiento sobre el valor que puede tomar Y no es total y que, más
allá del valor esperado en función del tratamiento que ha recibido,
pueden existir desviaciones que ocurran por azar.

Indice de temas | Glosario | Autoevaluación

Componente aleatoria
El modelo estadístico, como otro modelo tipos de modelos, es una
simplificación de la realidad.
Probablemente resulte imposible listar todos los factores y variables
que pueden ocasionar variaciones en los datos de la variable analizada,
es decir, parte de esa variación será no explicada y estará asociada a
componentes que producen variabilidad no sistemática o aleatoria.

En todo modelo estadístico se espera al menos la presencia de una


componente aleatoria, denominada usualmente término de error
aleatorio. Para esta componente usualmente se supone que los
errores de una y otra observación son independientes y la colección de
errores sigue una distribución normal con esperanza cero y varianza
σ2.

Indice de temas | Glosario | Autoevaluación

Modelos Lineales
Se conoce con este nombre a modelos estadísticos donde
la ecuación es una ecuación lineal en los parámetros. Algunos
ejemplos, son:

Modelo 1:

Modelo 2:

Modelo 3: Yi = β0+ β 1 X1 + β 2 X2 + .... + β k Xk + εi

En el Modelo 1 se establece que los datos colectados para la variable


Y tienen una media, µ, y que la única desviación respecto a esa media
puede darse por azar y cuantificada por el término ε o error asociado
al dato i-ésimo (i=1,…,n). El término de error representa la diferencia
entre el valor observado de Y en la i-ésima unidad de análisis y la media
de la distribución a la que se supone pertenece la observación.

En el Modelo 2 se establece que los datos colectados para la variable


Y tienen una media, µ, y una componente aleatoria, ε, pero además
acarrean un efecto (τ) constante para todos los casos como, por
ejemplo, el efecto de un tratamiento al que se sometieron todas las
observaciones. En muchas situaciones experimentales el efecto de
tratamiento es distinto entre subgrupos de unidades
experimentales ya que en algunas se aplica un tratamiento y en
otras, otro tratamiento. Estos modelos son conocidos como modelos
lineales de clasificación, y se verán más en detalle cuando se
trate ANAVA.

En el Modelo 3 se establece que los datos colectados para la variable


Y pueden explicarse como una función de otras variables aleatorias Xs
a través del uso de parámetros (βs ) que relaciona Y con cada una de
esas X, indicando el cambio en Y por cada unidad de cambio en X. Este
modelo, se denominan modelo de regresión lineal.

Indice de temas | Glosario | Autoevaluación

Contraste de hipótesis
El contraste o prueba de hipótesis consiste en establecer el valor de
verdad (verdadero o falso) de las proposiciones enunciadas sobre la
parte fija o la parte aleatoria de los modelos estadísticos.

Por ello, antes de proceder con un contraste de hipótesis, debemos


proponer un modelo estadístico para los datos.

Dado que el modelo verdadero es siempre desconocido; el que


proponemos debe ser entendido como un sólo uno de los modelos
posibles para los datos.

En el contraste de hipótesis estadísticas siempre hay dos modelos


competidores: el modelo nulo y el alternativo. Usualmente el modelo
propuesto por el investigador es el modelo alternativo.

A través del contraste de hipótesis podremos contestar a la pregunta


¿Cuál de estos dos modelo es mejor para explicar los datos que
revelemos bajo las condiciones de interés?

Hipótesis nula y alternativa

En términos de contraste de hipótesis se dice que siempre hay una


hipótesis nula, H0 , y una hipótesis alternativa, H1.
La hipótesis nula usualmente propone que algún parámetro del modelo
o una combinación de parámetros es cero (nulo).

Por ejemplo, en un experimento comparativo, la hipótesis nula podría


establecerse para el parámetro media de la distribución de las
diferencias de un par de medias muestrales, una de estas muestras
extraída desde una población o condición experimental y , la otra
proveniente de una segunda condición. La hipótesis nula establecería
entonces que la esperanza de la distribución de las diferencias de
medias muestrales es nula o cero; dicho de una manera no estadística,
la hipótesis nula establece que no existen diferencias entre los
promedios de la variable de interés entre las dos condiciones
experimentales.

La hipótesis alternativa, contradice la nula (en el ejemplo,


establecería que si hay diferencias entre las medias de una y otra
condición). Estadísticamente, dirá que el valor esperado de la
distribución de las diferencias de medias es distinto de cero.

Diferencias por azar?

Si la hipótesis nula es verdadera, cualquier diferencia observada en el


experimento entre las muestras de una y otra población será solo por
azar.

La hipótesis alternativa, H1, establece que las diferencias observadas


en las muestras reflejan diferencias reales entre las poblaciones desde
las cuales ellas fueron extraídas.. Por ello, usualmente, queremos
rechazar la H0, para mostrar algo.

En un experimento con ratas, por ejemplo, en la hipótesis nula


podríamos decir que las tratadas con un nuevo tratamiento, que se
quiere verificar función mejor que otro existente, tienen la misma
respuesta que ratas tratadas con otro tratamiento existente.

Nosotros esperamos rechazar la Ho para concluir diciendo que el nuevo


tratamiento tiene efecto superador. Así, encontramos algo mejor de
lo que teníamos hasta entonces!.

No obstante, siempre quisiéramos confiar que el hallazgo no fue por


azar…..
.

Indice de temas | Glosario | Autoevaluación

Valor p
A pesar que los test estadísticos nunca pueden decirnos con absoluta
certeza cuál de las dos hipótesis es la verdadera, sin embargo pueden
darnos una idea de cuán probable la H0 es.

Lo que quisiéramos conocer es la probabilidad del evento que nos lleva


a rechazar la hipótesis nula y a concluir a partir de la hipótesis
alternativa, para medir si la conclusión podría haber sido obtenida por
azar. Es decir, nos gustaría saber, por ejemplo, cuál es la probabilidad
que tienen las diferencias que hemos encontrado entre tratamientos
de ser solo por azar.

Desafortunadamente, los test estadísticos no pueden brindarnos esta


probabilidad. Pero nos brindan una probabilidad relacionada a esta.
Nos dan la probabilidad de obtener diferencias entre las muestras al
menos tan grande como las que obtuvimos si nos encontramos en una
situación donde la hipótesis nula es verdadera. Esta probabilidad es
conocida como “ valor p”, y se usa para acompañar las conclusión
científicas derivadas de un contraste de hipótesis.

Rechazo de Hipótesis Nula

Cuanto menor es el valor p menos confianza tenemos en la hipótesis


nula. Para decidir cuándo dejamos de “aceptar” la hipótesis nula se
fija un umbral, denominado α. Si el valor p está por debajo de α
decimos que la hipótesis nula no es consistente con los datos
observados y entonces, la hipótesis nula se rechaza y concluimos con
el postulado establecido en la hipótesis alternativa.

Por ejemplo, si p = 0.80, entendemos que la probabilidad de obtener


una diferencia entre las muestras tan grande como la que observamos
en el experimento, si las poblaciones que muestreamos no presentan
diferencias reales, es alta (80%). Por tanto, no rechazamos la hipótesis
nula y concluimos que no hay diferencia entre las dos poblaciones que
muestreamos.
Un estándar aceptado científicamente es que rechacemos H0 if p ≤
0.05. Es decir, la probabilidad de obtener diferencias iguales o
mayores a las encontradas en nuestro estudio si las poblaciones
muestreadas son las mismas, es α=0.05.

Errores en Contrastes de Hipótesis

Hay que notar que los test estadísticos no son contundentes, sus
conclusiones no son del tipo “blanco o negro”. Si a= 0.05, existe un 5%
de probabilidad de que rechacemos la hipótesis nula cuando esta es
realmente verdadera! Este tipo de error es denominado error de tipo
I.

Entonces, porque no disminuir α?

Si hacemos esto, se incrementa la probabilidad de aceptar H0 cuando


en realidad es falsa

Este segundo error es llamado error de tipo II. Fijando a = 0.05 es


normalmente aceptado como un buen compromiso en tratar de
mantener controlados ambos tipos de error.

Nivel de significación

El valor p por debajo del cual rechazamos H0 es denotado, entonces,


como valor a ; a es usualmente fijado en 0.05. Aunque los valores 0.01
y 0.10 también suelen ser usados y aceptados científicamente. Una
diferencia entre muestras que resulte en un valor p ≤a es denominada
“estadísticamente significativa”. También se dice que hay
“significancia estadística”.

El nivel de signficación a es definido como la máxima probabilidad de


cometer Error de Tipo I.

En un contraste de hipótesis el error de Tipo I ocurre con una


probabilidad igual o menor que el nivel de significación.

Indice de temas | Glosario | Autoevaluación


Cálculos en contraste de hipótesis
Una vez planteado el modelo estadístico e identificado
el parámetro sobre el cual se postulan las hipótesis estadística (por
ejemplo, la media poblacional), se estima ese parámetro desde datos
muestrales usando un estimador apropiado (por ejemplo, la media
muestral) y se calcula un estadístico basado en ese estimador que sea
adecuado para el contraste de hipótesis en cuestión (por ejemplo, el
estadístico Z-score o el estadístico T de Student para casos donde la
hipótesis se refiere a medias poblacionales).

Calculado el estadístico, con la formula apropiada, se compara el


valor del estadístico con un valor crítico, el cual se encuentra tabulado
y proviene de la distribución del estadístico, para decidir si la H0 se
debe rechazar o no.

El valor critico depende del nivel de significación fijado y de los grados


de libertad en los datos los que varían según la fórmula del estadístico
usada. Usualmente, se rechaza H0cuando el estadístico es más grande
que el valor crítico.

Los software de estadística calculan el estadístico que el investigador


elige y en lugar de devolver ese valor crítico, devuelven directamente
el valor p calculado desde la distribución del estadístico. Así si se
cumple que p £a, se rechaza H0

Contrastes Bilaterales y Unilaterales

Los valores críticos del estadístico son diferentes según el contraste


sea bilateral o unilateral.

Hacemos un test bilateral cuando la hipótesis alternativa se plantea


con un signo, es decir no plantea la dirección de las diferencias entre
las poblaciones, no dice cuál puede ser mayor o menor.

Por el contrario, se plantea un test unilateral, cuando basado en


nuestro conocimiento científico, podemos predecir que de existir
diferencias el parámetro bajo hipótesis en una condición será mayor (
o menor) que en otra.

El uso de una prueba bilateral es más conservador, es decir en este


contexto hay menor probabilidad de rechazar la hipótesis nula. Tal
vez, por esta característica son más usados en la práctica.
.

Vous aimerez peut-être aussi