Vous êtes sur la page 1sur 6

1

TÉCNICAS DE MUESTREO
Parámetros Varianza estimada de la media Varianza estimada de la Tamaños de muestra
x̅ proporción p̂
M. Aleatorio S2  N  n   p̂q̂  N  n Nσ 2
Var( x)    Var( p̂)     n
simple
n  N   n  1  N  B2
(N - 1)  σ2
4
M. n n
Nσ c2
conglomerados 
 N  n  i 1
(x i  xm i ) 2 
 N  n  i 1
(a i  p̂m i ) 2 n
B M2
2
V̂(x)    V̂(p̂)    N  σ c2
 NnM 
2
n 1  NnM 
2
n 1 4
M. Sistemático Para estimar la media y la proporción usar las mismas fórmulas del muestreo aleatorio simple.
Si N es desconocido tomar un valor aproximado. Una vez determinados N y n, entonces k ≤ N/n

Muestreo Estratificado
Estimación de parámetros
Descriptivas Estimadores los parámetros Varianzas estimadas Límite para el error de
estimación e I.C.

1 L Si2  Ni  n i  2
Media
1 L B  2 V(yst )
y st   Ni yi ;
N i1
V̂(yst )  2  
N i1 n i  Ni 
 Ni
y st  2 V(y st )
ni
y ik (y ik  y i )
yi  
ni 2
donde Si2  
k 1 n i k 1 n i 1
1 L p̂ i q̂ i  N i  n i  2
Proporción
1 L p̂ st  2 V(p̂st )
p̂ st   Ni p̂i
N i1
V̂(p̂ st )   
N 2 i 1 n i  1  N i 
N i
p̂1  p̂ 2  2 V(p̂1 )  V(p̂ 2 )
ni
y ik Si2  p̂ i * q̂ i
p̂ i   B  2 V(p̂ st )
 1 exito
y ik  
k 1 n i 0 fracaso

Si2  Ni  n i  2
Total
B  2 V(τ̂st )
L
τ̂st  Nyst   N i yi
L
V̂(τ̂st )  V̂(Nyst )  N 2 V̂(yst )     Ni
i1 i1 n i  Ni 
ni
(y ik  y i ) 2
Si2  
k 1 n i 1
L

 N σ /w 2
i
2
i i
Tamaño de muestra para estimar u y p: Fórmula general: n  i 1
2 L
B
N2 D   N i σ i2
4 i

Tamaño de muestra por tipo de asignación


Descriptivas Asignación Proporcional Asignación de Neyman Asignación Óptima
Peso de los
Ni Niσi Ni σi / ci L
estratos w i wi L wi ; CT   n ici
N σ
L
N
N σ /
i 1
i i i i ci
i 1 i 1
Tamaño estratos ni = nwi ni = nwi ni = nwi
Tamaño de la L
L 
2
L  L 
muestra N σ i
2
i   Niσi    N i σ i / c i   N i σ i c i 
n n   i1 L  n   i1  i1 
i 1
1 L
 Niσi2
L
ND  N 2 D   N i σ i2 N 2 D   N i σ i2
N i
i 1 i 1

MUESTREO EN POBLACIOES INFINITAS


2

Zα/2 2 p.q n∞
n∞ = n= n
e2 1+ ∞
N
INTERVALOS DE CONFIANZA y TAMAÑO DE MUESTRA

s s p̂q̂ p̂q̂
x  t α/2,n 1  μ  x  t α/2,n 1 (n<30)
p̂  Zα/2  p  p̂  Zα/2
n n n n
x1  x 2  Zα/2 S x1 x 2  μ1  μ 2  x1  x 2  Zα/2 S x1 x 2 p̂1  p̂ 2  Zα/2 S p̂1 p̂2  p  p̂  Zα/2 S p̂1 p̂2
m

Z σ 2 2 ( x  x )i
2
ni
n α/2
, donde: S2 =
2
i 1 cuando se va a estimar u; pero 2 = pq; cuando se va a estimar p
e n -1

Pruebas de hipótesis paramétricas


CASO: Estadístico de prueba y grados de libertad
Media, muestras x μ ;
Zo 
grandes σ/ n
Media, muestras x μ
To  g.l. = n-1
pequeñas s/ n
Diferencia de medias, x1  x 2
Zo 
muestras grandes σ12 σ 22

n1 n 2
Diferencia de medias, x1  x 2 (n 1  1)S12  (n 2  1)S 22 ; g.l. = n +n – 2
muestras pequeñas, To  ; S p2  1 2
1 1 n1  n 2  2
σ12  σ 22 Sp 
n1 n 2
Diferencia de medias,
x1  x 2 g.l. 
σ 2
1 / n 1  σ 22 / n 2 
2

2;
To 
muestras
σ12  σ 22
pequeñas,
s12 s 22 σ 2
1 / n1

 
2
σ / n2 2
2 
2


n1 n 2 n1  1 n2 1
Varianza (n  1)S 2 g.l. = n – 1
χ 20 
σ 20
Igualdad de Varianzas s 12
Fo  ; g.l. numerador = n1 –1; g.l. denominador = n2 –1
s 22
Datos pareados n n

d
d i  (di - d) 2

To  ; d i 1 ; Sd2 
j1 ; g.l. = n-1
sd / n n n 1
Proporción p̂  p 0
Zo 
p 0 (1  p 0 )/n

donde: p̂  x 1  x 2
Diferencia de
p̂1  p̂ 2 ; o p̂1  p̂ 2
proporciones Zo  Zo  n1  n 2
p̂1q̂1 p̂ 2 q̂ 2
 1 1 
p̂(1  p̂)  
n1 n2
 n1 n 2 
Chi – cuadrado de (O ij  E ij ) 2 (O i  E i ) 2
independencia y   
2
0  02  
Bondad de Ajuste E ij Ei

P-valor para tomar decisiones en la prueba de hipótesis


P-valor
3

Bilateral Unilateral Superior Unilateral inferior


2*p(Z>Zo) P(Z>Zo) P(Z<Zo)
REGRESIÓN SIMPLE
Modelos de regresión simple, ecuaciones de predicción, parámetros y cambios de variables:

Regresión Lineal Simple: Y  β̂ 0  β̂1X Exponencial: Y  β̂0 exp(β̂1X) x=x; y=lny

n  X i Yi   X i  Y i n  x i .lny i -  x i . lny i
R R
[n X   X  ] *[n  Y
2
i i
2
i
2
  Yi  ]
2
 n x 2
i 
-  x i  n  (lny i ) 2 -
2
 lny  
i
2

; n  x i .lny i -  x i . lny i
β1 
n  X i Yi   X i  Y i n  x i2 -  x i 
2
β̂1 
 X 
;
n  X i2 
2
1
i   lnyi β1  x i 
β̂ 0 
1
n
 Y i  β̂1  X i  β0  e n

El cambio en Y implica cambio en 0


Logarítmico Y  β̂0  β̂1lnX x=lnx; y=y Potencial Y  β̂ 0 Xβ̂1 x=logx; y=logy

n  lnx i .yi -  lnx i . yi n  log x i .log y i -  log x i . log y i


R R
n lnx 2
i 
-  lnx i  n  (yi )2 -
2
 y  
i
2
n (log x ) -  log x  n (log y ) -  log y  
i
2
i
2
i
2
i
2

n  lnx i .y i -  lnx i . y i n  log x i .log y i -  log x i . log y i


β1  β1 
n  (log x i ) 2 -  log x i 
n  lnx i2 -  lnx i 
2
2

1

 logyβ1  logx
β 0   y i  β1  lnx i 
1
β 0  10 n
n
El cambio en Y implica cambio en 0

INFERENCIAS EN LA REGRESIÓN SIMPLE


Prueba de hipótesis sobre el coeficiente de correlación
1. Ho:  = 0 X y Y no están correlacionadas H1: 0 ≠ 0 X y Y si están correlacionadas
2. tcrítico = t/2, n – 2 =
R n2
3. T0  4. Ho se rechaza |To| > |trítico |
1- R 2

Prueba de hipótesis sobre 0


1. Ho: 0 = 0 La recta pasa por el origen H1: 0 ≠ 0 La recta no pasa por el origen
2. tcrítico = t/2, n – 2 =
̂0
𝛽
3. To = (ver las fórmula abajo) 4. Ho se rechaza |To| > |trítico |
̂ 2 c00
√𝜎

Prueba de hipótesis sobre 1


1. Ho: 1 = 0 La variable X no predice a la variable Y
H1: 1 ≠ 0 La variable X si predice a la variable Y
2. tcrítico = t/2, n – 2 =
̂1
𝛽
3. To = (ver las fórmula abajo) 4. Ho se rechaza |To| > |trítico |
̂ 2 c11
√𝜎

Matriz de 𝑐00 𝑐01


𝐶 = (𝑋 𝑇 𝑋)−1 = (𝑐 𝑐11 )
varianzas - covarianzas 01
4

Intervalo de confianza para los j β̂j ∓ t α,n−2 ∗ Se (β̂j ) j=0, j=1


2

En la regresión lineal simple:


1 𝑥11
𝑋 = (⋮ ⋮ )
1 𝑥𝑛1 𝑛𝑥2
1 … . 𝑥1𝑝
En la regresión lineal múltiple: 𝑋 = (⋮ ⋱ ⋮ )
1 … 𝑥𝑛𝑝 𝑛,(𝑝+1)

REGRESIÓN LINEAL MÚLTIMPLE


Prueba de hipótesis sobre 0
1. Ho: 0 = 0 El hiperplano pasa por el origen
H1: 0 ≠ 0 El hiperplano no pasa por el origen
2. tcrítico = t/2, n – p – 1 =
̂j
𝛽
3. To = (ver las fórmula abajo)
̂ 2 cjj
√𝜎

4. 4. Ho se rechaza |To| > |trítico |

Prueba de hipótesis sobre j j=1, 2, …, p


1. Ho: 0 = 0 La recta Xi no predice a la variable Y
H1: 0 ≠ 0 La recta Xi si predice a la variable Y
2. tcrítico = t/2, n – p – 1 =
̂j
𝛽
3. To = (ver las fórmula abajo)
̂ 2 cjj
√𝜎

4. 4. Ho se rechaza |To| > |trítico |

Matriz de 𝑐00 …. 𝑐0𝑝


varianzas - covarianzas 𝐶 = (𝑋 𝑋) 𝑇 −1
=( ⋮ ⋱ ⋮ )
𝑐𝑝0 … 𝑐𝑝𝑝

Varianza Residual: SSE


σ2 = n−p−1
̂ p es el número de variables independientes

Error estándar de estimación


̂2 cjj
Se (βj ) = √σ
Estadístico de prueba 𝛽̂j
To =
√𝜎̂ 2 cjj
Intervalo de confianza para los i β̂j ∓ t α,n−p−1 ∗ Se (β̂j )
2
5

ANOVA DE UN FACTOR
1. Ho: u1 = u2 = … = uk
H1: al menos una media difiere de las demás
2. Fcrítico = F, k – 1, n – k =
3. Fo = (ver Tabla Anova de un factor)
4. Ho se rechaza si Fo > Fcrítico

Fuente de Variación SS g.l. MS Fo


Tratamientos (“entre” muestras = columnas ) SST = k–1= MST=SST/(k–1) = MST/MSE=
Error (“dentro” de las muestras) SSE = n–k= MSE =SSE/(n–k) =
Total SS Total = n–1=

̅i∗ = 1 ∑ni Y
̅ = ∑ni k Yij 1 k
̅
Yi∗ = ∑ni
j=1 Yij Y Y = nii∗ Y j=1 ∑i=1 n = n ∑i=1 ni ∗ Yi∗
ni j=1 ij
2
k ni
1
CM = (∑ ∑ Yij )
n
i=1 j=1
k ni k ni
2
Y) = ∑ ∑ Yij2 − CM
SSTotal = ∑ ∑(Yij − ̅
i=1 j=1 i=1 j=1
2
Y
̅i∗ − ̅
SST = ∑ki=1 ni (Y Y)2 = ∑ki=1 nii∗ − CM
SSE= SStotal – SST,

Estimación en un diseño de un factor


̂
σ 1 1
̅
Yi∗ ± t α,n−k ∗ ̅
Yi∗ − ̅ ̂2 (ni + ni′)
Yi′ ∗ ± t α,n−k ∗ √σ ̂2 = √MSE
̂ = √σ
σ
2 √ni 2
y̅i − y̅i′
ToT =
1 1
√σ
̂2 (ni + )
ni′

ANOVA DE DOS FACTORES

Tratamientos (k columnas) Bloques (b filas)


1. Ho: u1 = u2 = … = uk 1. Ho: u1 = u2 = … = ub
H1: No Ho H1: No Ho
2. Fcrítico = F, k – 1, (k – 1)(b – 1) = 2. Fcrítico = F, b – 1, (k – 1)(b – 1) =
3. FoT = Fo = (ver Tabla Anova 2 factores) 3. FoB = (ver Tabla Anova 2 factores)
4. Ho se rechaza si FoT > Fcrítico 4. Ho se rechaza si FoB > Fcrítico

Fuente de variación SS g.l. MS Fo


Tratamientos (entre muestras) SST = k–1= MST =SST/(k –1) = MST/MSE= FoT
Bloques SSB = b–1= MSB =SSB/(b –1) = MSB/MSE= FoB
Error (dentro de las muestras) SSE = (k–1)(b–1) = MSE =SSE/(k –1)(b–1)=
Total SSTotal = n –1 =
6

2
SSTotal = ∑ki=1 ∑bj=1(Yij − ̅
Y) = ∑ki=1 ∑ni 2
j=1 Yij − CM =SSB+SST+SSE
2 Y2∗j
̅∗j − ̅
SSB = k ∑bj=1(Y Y) = ∑bj=1 − CM
k
Y2i∗
̅i∗ − Y
SST = b ∑ki=1(Y ̅)2 = ∑ki=1 − CM
b
SSE = SS total – SSB – SST

̅ = 1 ∑ni
Y ∑k Y
bk j=1 i=1 ij
2
k ni
1
CM = (∑ ∑ Yij )
bk
i=1 j=1

Estimación en un diseño de dos factores


2
Tratamientos: ̅
Yi∗ − ̅ ̂2 ( )
Yi′ ∗ ± t α,(k−1)(b−1) ∗ √σ
2 b

2
̅∗j − Y
Y ̅∗j′ ± t α √σ2
Bloques: ,(k−1)(b−1) ∗ ̂ ( )
k
2

Estadísticos de prueba para tratamientos y bloques

̅i −y
y ̅i′ ̅j −y
y ̅j′
ToT = 1 1
ToB = 1 1
̂2( + )
√σ ̂2( + )
√σ
ni ni′ nj nj′

Vous aimerez peut-être aussi