Vous êtes sur la page 1sur 85

Introducción a la

simulación
Universidad Andrés Bello
I semestre – 2018
Estadísticas
Repaso de conceptos
Orígenes
• La naturaleza estadística de la vida.
• Cómo fue que empezó todo.
Some scholars pinpoint the origin of statistics to 1663, with
the publication of Natural and Political Observations upon
the Bills of Mortality by John Graunt. Early applications of
statistical thinking revolved around the needs of states to
base policy on demographic and economic data, hence
Sir Francis Galton: its stat- etymology. The scope of the discipline of
desviación estándar statistics broadened in the early 19th century to include
(1860’s), correlación the collection and analysis of data in general.
(1888), regresión a la Its mathematical foundations were laid in the 17th century
media (regression to with the development of the probability theory by Gerolamo
mediocrtity). Cardano, Blaise Pascal and Pierre de Fermat.
https://goo.gl/CNqfS7

3
Conceptos generales
• Compendios (surveys): No invasivos.
• Experimentos: Invasivos. Se buscan relaciones de causa y
efecto.
• Estadísticas descriptivas:
▪ Datos categóricos – por categorías (género, afiliación política, otros).
▪ Numéricos (peso, color, densidad, otros).

4
Conceptos generales
• La variable.
▪ Variable – es una característica que puede ser contada, medida,
categorizada (género, edad, estatura, etc.).
• X = característica.
• x = valor que la característica toma.

5
Tipos de variables
• Variables discretas y continuas. http://goo.gl/ipNr8h

▪ Variables aleatorias discretas: van a depender de si el valor x que


toma la variable es entero o no (0, 1, 2, 3, … , 10).
▪ Variable aleatoria continua: en este caso, los posibles valores de x
pueden ser descritos solo usando intervalos de números reales (por
ejemplo, 0 a ∞).

https://goo.gl/9NGrMb

6
Conceptos generales
• La distribución y la variable.
▪ Distribución – listado de posibles valores de la variable (o intervalos
de valores) y con qué frecuencia (o con qué densidad) se dan.
• Si una variable cuenta el número de éxitos en cierto número de ensayos,
estamos en presencia de una distribución binomial.
• Si ocurren de acuerdo a una curva de campana, distribución normal.
• Si está basada en muestras promedio y el número de datos es limitado,
estamos en presencia de una distribución t.

7
Conceptos generales
• Distribuciones de
probabilidad más
comunes.
▪A
▪B
▪C

http://goo.gl/VqrbDj

8
Conceptos generales
• Error estándar: diferencia entre la población y los resultados
de las muestras  Error ≠ Equivocación.
• Elementos más comunes en una distribución:
▪ La media (tiempo promedio de reparto de pizzas, por ejemplo).
▪ Proporción (de la población que apoya a un candidato, por ejemplo).
• Correlación (relación entre x e y).
• Regresión (predicción que, basados en una variable, hacemos
sobre la otra).

9
Conceptos generales
• Etapas de un estudio estadístico:
▪ Determinar la población a estudiar.
▪ Recoger los datos.
▪ Organizar, resumir, analizar. http://goo.gl/bYwo8p

▪ Extraer conclusiones.
• ¿En qué momento entra la simulación?

10
Conceptos generales
• La población (population).
• La muestra – subconjunto de la población (sample).
• La aleatoriedad – instrumento para seleccionar una muestra
evitando el sesgo (bias).
• ¿Qué ejemplos de sesgo podría dar?

11
Conceptos generales
• Estadístico – número que resume los datos recogidos de una
muestra: porcentaje, promedio, percentil, moda, etc.
• Parámetro – número o cifra que corresponde a toda una
población.
• Sesgo (bias) – la Némesis del estadístico. Favoritismo con que se
selecciona una muestra.

12
Conceptos generales
• Media (mean) – también conocida como promedio (average).
Muy influida por los datos fuera de rango (outliers).
• Mediana (median) – punto central en el que hay el mismo
número de datos hacia la derecha que hacia la izquierda de un
conjunto de datos.
• Desviación estándar (standard deviation): distancia promedio
de la media.

13
Media y mediana
• La media y la mediana.
http://goo.gl/8wgsZT

▪ El punto de equilibrio del balancín es afectado por los pesos de las personas
en cada lado, no por el número de personas, de modo que la media refleja los
valores reales de los datos antes que la cantidad de datos.
▪ La mediana es el lugar donde se pone el pivote, de modo que se tiene un
número igual de personas en cada lado del balancín, con independencia de
los pesos. Con el mismo número de personas en cada lado, el balancín no se
equilibraría en términos de peso (a menos que hubiera gente con el mismo
peso a cada lado). Así, la mediana no se ve afectada por los valores de los
datos, solo por la localización de ellos dentro del conjunto.

14
Desviación estándar
• En sentido general, la desviación estándar también nos sirve para
describir dónde va a caer la mayoría de los datos (como en la
curva normal – 68%, 95%, 99,7%).

15
Distribución
• Distribución – listado o función que muestra todos los posibles
valores de los datos y la frecuencia con que ellos se dan.

16
Experimento
• Experimento: estudio que impone un control sobre los sujetos
(en estudio), sobre el entorno, y sobre el registro de las
respuestas. El propósito es encontrar relaciones causa efecto.

http://goo.gl/E1D7jR

17
This probability value is the probability of obtaining

p-value
data as extreme or more extreme than the current data
(assuming H0 is true).

• p-value – recurso de los tests de hipótesis para pesar la


fortaleza de una evidencia (que es lo que los datos dicen acerca
de una población). Es un número entre 0 y 1 que se interpreta así:

18
Nivel de significancia
• Significancia o valor estadístico –
se dice de aquel resultado con
una probabilidad muy baja de
haber ocurrido por azar (para lo
cual se cuenta con un p-value
dado).

https://goo.gl/DKPU4B

19
Factor de confusión

Causalidad y correlación
https://goo.gl/5wv3rN

• Causalidad y correlación: la correlación nos dice que hay una


relación entre dos variables. La causalidad nos explica por qué o
cómo.
▪ Por ejemplo, el número de asesinatos en Nueva York está
correlacionado con la venta de helados, pero estos últimos no son la
causa de los primeros ni aquellos de estos.

~
https://goo.gl/Mg3kDj http://goo.gl/dCjuxk

20
Causalidad y correlación
• Causalidad y correlación
La ilustración muestra la relación entre asociación y causación.
Por ejemplo, una correlación grande (negativa o positiva) no
implica causalidad.
Suponga que se observa una alta correlación entre las ventas
semanales de chocolate caliente y el número de accidentes en
esquí. Uno no podría concluir que los accidentes en esquí están
aumentando las ventas de chocolate y viceversa, ya que son dos
variables que no se hallan mutuamente relacionadas, ¿qué
podría explicar esta relación? La relación aparente entre las
dos variables puede estar siendo causada por una tercera
variable. En esta caso, las variables pueden estar relacionadas
con las condiciones climáticas durante los meses de invierno.

21
Causalidad y correlación
• Cuando el coeficiente de correlación es cero, se dice que no hay
relación entre las variables dependiente e independiente.
• Cuando el coeficiente de correlación es menor que ± 0,10, la
relación entre las variables es muy débil.
• Cuando el valor del coeficiente de correlación es cercano a ± 1,00,
la relación entre las variables es muy fuerte.

Relación negativa fuerte No hay relación lineal Relación positiva fuerte

-1 0 +1

22
Causalidad y correlación

23
Causalidad y correlación

24
Causalidad y correlación
• Cálculo del coeficiente de correlación

X 8 4 5 -1
y -2 0 2 6

25
Causalidad y correlación
• Cálculo del coeficiente de correlación
n=4

x y x*y xˆ2 yˆ2


8 -2 -16 64 4
4 0 0 16 0
5 2 10 25 4
-1 6 -6 1 36

෍ 𝑥 = 16 ෍𝑦 = 6 ෍ 𝑥 ∗ 𝑦 = −12 ෍ 𝑥 2 = 106 ෍ 𝑦 2 = 44

26
Causalidad y correlación
• Cálculo del coeficiente de correlación

4 −12 − 16 6
𝑟= = −0.939
4 106 − 16 2 × [4 44 − (6)2 ]

• ¿Hacia dónde se inclina la pendiente de la curva?

27
Causalidad y correlación

Coeficiente de determinación
R^2=0.8816, significa que el
modelo de regresión puede
explicar el 88,2% de la variación
en los valores de y.

28
Causalidad y correlación
• Ajuste de una línea recta.
• ¿A qué recurrimos?
▪ Álgebra: 𝑦 = 𝑚𝑥 + 𝑏

Eje y
▪ Estadísticas: 𝑦ො = 𝑎𝑥 + 𝑏
• ¿A qué método se recurre para que
encontrar la relación entre las dos
variables? Eje x

29
Causalidad y correlación
La figura 5-13 muestra un
La figura 5-12 muestra un
patrón no lineal. Si un
• Coeficiente de determinación: patrón lineal. Este gráfico
modelo lineal hubiese
residual implicaría que un
El c.d. es una medida que nos generado este residual, ello
modelo lineal es el
permite determinar que tan adecuado para predecir los
implicaría que un modelo
certeras serán las predicciones valores de la variable
no lineal es el apropiado
para predecir los valores de
que hagamos con nuestro ajuste dependiente y.
y.
lineal.
• Gráficos residuales: Los residuos
son errores. Un residual es la
diferencia entre un valor y
observado y el valor y que hemos
predicho.

30
La distribución de probabilidad normal

31
Distribución normal
La distribución normal puede verse como la distribución límite de
una variable aleatoria binomial.
En un experimento binomial, si usamos una probabilidad de éxito
p, podemos analizar qué pasa a medida que el número de intentos
n aumenta.
Para ver qué pasa, podemos construir, por ejemplo, histogramas
para n = 5, 10, 25, y 50…

32
La curva normal
• La distribución normal:
▪ Media poblacional: µ
▪ Desviación estándar: σ

33
La curva normal a)

• Las curvas normales de los ejemplos a) y b) tienen la


misma desviación estándar, pero sus medias son
diferentes.
• La figura b) está ubicada 30 unidades a la derecha de la
figura a) porque su media es 120 (la de b) es 90). b)
• Las figuras a) y c) tienen la misma media, pero la a) tiene
más variabilidad.
• Como a) tiene más variabilidad, se extiende de 0 a 180
aprox., mientras que en c) solo van de 60 a 120.
• Finalmente, las figuras b) y c) tienen diferentes medias y
desviaciones estándar.
c)
• La desviación estándar más pequeña de c) hace que sus
valores se concentren en torno a la media.

34
La curva normal
• Es continua.
• Tiene forma de campana.
• Es simétrica en torno a la media.
• La media, la mediana y la moda están localizadas al
centro de la distribución y son iguales la una a las
otras.
• La curva nunca toca el eje de las x.
• El área total bajo la curva normal es 1.

https://en.wikipedia.org/wiki/Normal_distribution#/media/File:Carl_Friedrich_Gauss.jpg 35
68 – 95 – 99,7
• Regla empírica.
• El área total bajo la curva normal es 1.
• La probabilidad de que la variable
aleatoria normal sea igual a un valor
discreto dado es siempre cero, ya que
la variable aleatoria normal es
continua.
• La probabilidad de que una variable
aleatoria esté entre dos valores viene
dado por el área bajo la curva normal
entre dos valores dados y el eje
horizontal.

36
Standard normal distribution showing standard deviations.
68 – 95 – 99,7 Image credit: University of Virginia.

• Regla empírica.

37
La curva normal
• La distribución normal estándar (distribución Z).
▪ Es el estándar por el que todas las distribuciones normales son
medidas.
▪ Su media es ¿? y su desviación estándar es ¿?
▪ Casi todos sus valores (99,7%) caen entre -3 y +3.
▪ Un valor z (z value) representa el número de desviaciones estándar a
las que un valor particular dado se encuentra en relación a la media.

38
La curva normal
• Cualquier variable aleatoria puede ser convertida a una variable
aleatoria normal estándar calculando el correspondiente valor 𝑧.
Este valor se obtiene de la siguiente fórmula:

𝑣𝑎𝑙𝑢𝑒 − 𝑚𝑒𝑎𝑛 𝑥−𝜇


𝑧= =
𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝑑𝑒𝑣𝑖𝑎𝑡𝑖𝑜𝑛 𝜎

• En la ecuación, x es el valor de una variable aleatoria normal X


con media 𝜇 y desviación estándar 𝜎.

39
La curva normal

Nota: Recuerde que el valor z


entrega el número de desviaciones
estándar al que un valor específico
se encuentra, ya sea por encima o
por debajo de la media.

40
La curva normal

41
La distribución normal estándar

42
43
Distribución t
http://goo.gl/LZcV3g

• La distribución t.

44
“La distribución t se usa para
estudiar la media de una población
más que a los individuos que la
componen. En particular, se la utiliza
para estimar –a partir de un
conjunto de datos– la media de una
población. Por ejemplo, el precio
promedio de todos los nuevos
hogares en California. O para saber si
es cierto lo que alguien dice acerca
de que el precio promedio en esos
hogares es de $500,000.”

45
La curva normal y la distribución t
• La relación entre la distribución normal y la t, es que esta última
es utilizada para analizar la media de una población si la
población tiene una distribución normal (o adecuadamente
cercana a ella).
• El análisis se realiza utilizando test de hipótesis e intervalos
de confianza.
• Sirve especialmente cuando el conjunto de datos es pequeño
(n<30) o cuando no se conoce la desviación estándar de la
población (lo que suele suceder).
46
La curva normal y la distribución t
• Las distribuciones t que están basadas en pequeñas colecciones
de datos tienen desviaciones estándar más grandes. Sus formas
son más planas; sus valores se encuentran más dispersos.
• Esto, porque los resultados basados en conjuntos de pocos datos
son más variables que aquellos que se encuentran basados en
largas colecciones de datos.
• En consecuencia, mientras más datos haya, más se parecerá la
distribución t a la normal.

47
48
Y ahora…

49
Teorema de límite central
• El teorema del límite central – Introducción
▪ Cuando se toma una muestra de datos, es importante considerar que
los resultados variarán de muestra a muestra. Los resultados
estadísticos basados en muestras deberían incluir una medida de cómo
se espera que esos resultados varíen. Cuando la prensa reporta
estadísticas como el precio promedio de un galón de gasolina en los
EEUU o el porcentaje de hogares que se vendieron el último mes, uno
sabe que no se muestrearon cada estación de gasolina ni cada hogar
vendido. LA PREGUNTA ES, ¿CUÁNTO CAMBIARÍAN LOS RESULTADOS SI
SE SELECCIONARA OTRA MUESTRA?

50
Teorema de límite central

Marquis de Laplace proved


the central limit theorem in
1810, consolidating the
importance of the normal
distribution in statistics.

51
Teorema de límite central
• Suponga que cada uno de sus amigos tira un
dado 50 veces (n=50) y registra el promedio,
𝑥.ҧ El gráfico de todos los promedios de todas
las muestras representa la distribución de la
variable aleatoria 𝑋.ത Dado que esta
distribución está basada en muestras
promedio más que en resultados
individuales, ella tiene un nombre especial, y
se llama distribución de muestra de la
media de la muestra, 𝑋. ത La figura de abajo
muestra la distribución de muestra de 𝑋, ത con
el promedio de 50 tiradas del dado.

52
Teorema de límite central

Comparison of probability
density functions, p(k) for
the sum of n fair 6-sided
dice to show their
convergence to a normal
distribution with increasing
n, in accordance to the
central limit theorem.

53
Teorema de límite central

El resultado no es coincidencia. En general, la media de la población de todas las


posibles medias de muestra es la misma que la media de la población original (o
sea, toda la población, lo que se escribe 𝜇𝑥ഥ = 𝜇𝑥 ). Parece trabalenguas, pero
tiene sentido decir que el promedio de los promedios de todas las posibles
muestras es el mismo que el promedio de la población de la que provienen las
muestras. En el ejemplo del dado, el promedio de la población de todas las 50
tiradas es igual al promedio de la población de todas las tiradas individuales
(3,5).

54
http://onlinestatbook.com/stat_sim/sampling_dist/index.html

Teorema de límite central


• El teorema de límite central.

55
Teorema de límite central

56
Teorema de límite central
• Ejercicio.
▪ Considere un test con una media de 500 y una desviación estándar de
100. ¿Qué es más probable?: (1) que la media de una muestra de 5
personas sea mayor que 580, o (2) que la media de una muestra de 10
personas sea mayor que 580.
▪ Use su intuición para descubrirlo.
580

400 500 600

57
Teorema del límite central
• Su intuición debiera decirle que una media por encima de 580 es
más probable de darse con una muestra más pequeña.

58
Teorema de límite central
• Explicación.
▪ Una manera de aproximarse a problemas de este tipo es pensar en extremos.
¿Cuál es la probabilidad de que la media de una muestra de 1000 personas
será mayor que 580? La probabilidad es prácticamente cero, ya que la media
de una muestra tan grande casi siempre se va a aproximar a la media de la
población. La probabilidad de que esté a 80 puntos de distancia de la media
(580 – 500), es prácticamente nula.
▪ Por otra parte, con una muestral pequeña, la media de la muestral bien
podría estar lejos de la media poblacional (esto es, a 80 puntos de ella).
▪ Por consiguiente, mientras más grande el tamaño de la muestra, es menos
probable que la media de la muestra se desvíe demasiado de la media
poblacional.
▪ Luego, es más probable que la muestra de 5 personas tenga una media
mayor que 580, antes que la media de una muestra de 10.

59
Intervalos de confianza

60
Intervalos de confianza

61
Intervalo de confianza
• Intervalo de confianza
▪ Se llama intervalo porque el resultado –lo buscado- es un intervalo.
▪ Por ejemplo el intervalo de niños a los que les gusta el básquetbol es de
40%, más o menos 3,5%.
▪ Esto significa que el porcentaje real de niños a los que gusta el
básquetbol está en algún lugar entre el 36,5% y el 43,5%.

62
Intervalo de confianza
https://goo.gl/Rwpb7f

• El intervalo de confianza corresponde a la frecuencia con que ese


intervalo contiene a un parámetro ―como la media. Cuando
decimos 95% nos referimos al porcentaje del intervalos de
confianza que hipotéticamente contienen ese valor.
• Después de considerar cualquier muestra, el parámetro
poblacional estará o no en el intervalo; no es cuestión de
probabilidad es cuestión de si está o no está.

63
http://goo.gl/LGJgG1

64
Intervalo de confianza
• “Por ejemplo, un IC puede ser usado para describir qué tan
confiables son los resultados de una investigación. En una
encuesta sobre intención de voto, el resultado podría ser que el
40% de los encuestados votarán por cierto partido.”
• Para un IC del 99% la proporción de la población con la misma
intención de voto irá del 30% al 50% (rango: 20). Pero si con los
mismos datos uno se propone un IC del 90%, en este caso el
rango irá de 37% a 43% (rango: 6)."

65
En consecuencia…
• Mientras más alto el IC, mayor el rango.

66
Intervalo de confianza
• Interpretación
▪ Suponga que usted es un biólogo e intenta atrapar un pez usando una
pequeña red.
▪ El tamaño de la red representa el margen de error de un intervalo de
confianza.
▪ Digamos que el nivel de confianza es de 95%.
▪ ¿Qué significa esto? Significa que si uno pasa la red por el estanque,
atrapará un pez el 95% de las veces.
▪ Atrapar un pez significa, por tanto, que el IC estaba correcto y contiene
al verdadero parámetro (el pez).

67
Intervalo de confianza
• Pero, ¿significa esto que en cualquier intento hay un 95% de
probabilidades de atrapar un pez con la red?

http://goo.gl/039RlX http://goo.gl/wVhtCt

68
Intervalo de confianza
• ¡No!
………………………………………………………………………………………
• Si usted cierra los ojos antes de meter la red en el agua, en ese
momento, las probabilidades de atrapar un pez son de un 95%.
• Pero una vez que usted mete la red en el agua manteniendo los
ojos cerrados, usted, al sacar la red, encuentra solo una de dos
posibilidades…
• La probabilidad ya no tiene nada que ver.

69
¿Sorprendido?

http://goo.gl/59a5f1

70
Intervalo de confianza
• De manera que no se está afirmando que hay un 95% de
confianza en que el parámetro está presente en ese intervalo. Lo
que se está afirmando es que hay un 95% de confianza en el
proceso (o método) por el cual las muestras aleatorias son
seleccionadas y los IC son creados.
• Esto es, a la larga, el 95% del tiempo, usted atrapará un pez.
• Este proceso resultará en intervalos que capturan la media
poblacional el 95% del tiempo.

71
Intervalo de confianza Advance
Vespertino

• El 5% restante representa errores debidos únicamente al azar y


no contienen sesgo (pues se supone que el método es a prueba
de sesgos).
• El ancho del intervalo de confianza es dos veces el margen de
error. Si el margen de error (half width) es ±5%, el ancho (width)
del I.C. es 2 x 5% = 10%.

72
Valores para varios niveles de
confianza

Intervalo de confianza Nivel de confianza


80%
Z* - value
1,28
90% 1,645
• Tres factores afectan el ancho de un IC: 95% 1,96
▪ Nivel de confianza (confidence level). 98% 2,33

▪ Tamaño de la muestra. 99% 2,58

▪ Tamaño de la variabilidad en la población.


• A medida que el nivel de confianza crece, el número de errores
estándar (valor crítico, z* value) incrementa, de modo que el
margen de error incrementa.
• (Un IC es un estadístico más o menos un margen de error, y el margen de error es el número de errores
estándar que se necesitan para obtener el nivel de confianza buscado.)

73
Valores para varios niveles de
confianza

Intervalo de confianza de estadísticas


Nivel de confianza
80%
Z* - value
1,28
90% 1,645 (convención)
• Tres factores afectan el ancho de un IC: 95% 1,96
▪ Nivel de confianza (confidence level). 98% 2,33

▪ Tamaño de la muestra. 99% 2,58

▪ Tamaño de la variabilidad en la población.


• A medida que el nivel de confianza crece, el número de errores
estándar (valor crítico, z* value) incrementa, de modo que el
margen de error incrementa.
• (Un IC es un estadístico más o menos un margen de error, y el margen de error es el número de errores
estándar que se necesitan para obtener el nivel de confianza buscado.)

74
Test de hipótesis

75
Test de hipótesis

76
Test de hipótesis
• Test de hipótesis
▪ El test de hipótesis es un procedimiento estadístico que sirve para ¿…?
• Pasos:
• Definir hipótesis nula e hipótesis alternativa.
• Recoger buenos datos usando un estudio bien diseñado.
• Calcular el test estadístico basado en los datos obtenidos.
• Encontrar el p-value para el test.
• Decidir si se rechaza o no la hipótesis nula.
• Entender que la conclusión puede estar equivocada solo por una cuestión de azar.

77
…determinar si hay o no evidencia suficiente
en una muestra de datos como para inferir que

Test de hipótesis cierta condición es verdadera para toda la


población.

• Test de hipótesis
▪ El test de hipótesis es un procedimiento estadístico que sirve para ¿…?
• Pasos:
• Definir hipótesis nula e hipótesis alternativa.
• Recoger buenos datos usando un estudio bien diseñado.
• Calcular el test estadístico basado en los datos obtenidos.
• Encontrar el p-value para el test.
• Decidir si existe o no evidencia suficiente como para rechazar o no la hipótesis nula.
• Entender que la conclusión puede estar equivocada solo por una cuestión de azar.

78
Test de hipótesis
• En cuanto a la hipótesis nula (Hₒ) y la alternativa (Hₐ):
▪ ¿Cómo sabe uno qué hipótesis poner en Hₒ y cuál en Hₐ?
▪ En general, la hipótesis nula dice que nada nuevo está pasando.
▪ Asimismo, se asume que las creencias de la gente son ciertas hasta
que se demuestre lo contrario.
▪ Así, la pregunta del millón es: ¿Se puede probar lo contrario?
▪ En otras palabras, ¿hay suficiente evidencia para rechazar Hₒ?

79
Test de hipótesis
• Finalmente, el p-value es un
número utilizado para saber qué
tan probable es que el test
estadístico pudiera haber
ocurrido por casualidad aun
cuando lo supuesto (Hₒ) fuese
cierto.

80
Ho y H1, un ejemplo.
• Un neurólogo está probando el efecto de un fármaco sobre el
tiempo de respuesta inyectando 100 ratas con una dosis unitaria,
exponiéndolas individualmente a estímulos neurológicos y
registrando el tiempo de respuesta. El neurólogo sabe que la
media del tiempo de respuesta para las ratas que no han sido
inyectadas con el fármaco es de 1.2 segundos. La media del
tiempo de respuesta de las 100 ratas inyectadas es de 1.05
segundos con una desviación estándar de 0.5 segundos. ¿Piensa
que el fármaco ha tenido algún efecto en el tiempo de respuesta?
• ¿Cuáles serían su Ho y H1 para este caso?

81
Ho y H1, un ejemplo.
• Ho = el fármaco no tiene efecto  𝜇 = 1.2 𝑠 (aun con el
fármaco);
• H1 = el fármaco tiene un efecto  𝜇 ≠ 1.2 𝑠 (cuando se
administró el fármaco).

82
Errores tipo I y II
• Error tipo I: Falsa alarma.
▪ Rechazar Hₒ cuando uno no debería hacerlo se conoce como error tipo
I.
• Error tipo II: Pasar por alto una anomalía.
▪ No rechazar Hₒ cuando sí se debería hacerlo se conoce como error tipo
II.

83
Errores tipo I y II
Errores Tipo I y Tipo II
Hipótesis nula
Verdadera Falsa
Juicio a la Rechazo Error Tipo I Inferencia correcta
hipótesis nula Acepto Inferencia correcta Error Tipo II

• Si rechazo –siendo verdadero– que el cielo es azul, cometo un error Tipo I


• Antes se aceptaban como ciertos los unicornios: al hacerlo ahora, cometo un error Tipo II

84
Introducción a la
simulación
Universidad Andrés Bello
I semestre – 2018

Vous aimerez peut-être aussi