Vous êtes sur la page 1sur 15

2.

1 COMPARACIONES MÚLTIPLES O PRUEBAS DE SIGNIFICANCIA

Siempre que el análisis de varianza conduzca a rechazar la hipótesis nula (H0) de no diferencia
entre las medias poblacionales, es decir, aceptar la Ha de diferencia entre las medias
poblacionales, surge la pregunta respecto a qué tratamiento es el mejor en el caso de un modelo
de efectos fijos.
El experimentador debe tener precaución al pretender encontrar diferencias significativas entre
las medias individuales, siempre debe asegurarse que su procedimiento sea válido.
Hay una variedad de procedimientos de comparación múltiple, podemos citar:
Pruebas a priori o planificadas:
- Contrastes lineales ortogonales
- Contrastes lineales no ortogonales
Pruebas a posteriori o no planificadas:
- Mínima Diferencia Significativa (LSD)
- Tukey (1953)
- Duncan (1955)
- SNK (Student-Newman-Keuls). Diseñada por Newman (1939) y estudiada por Keuls
(1952)
- Bonferroni (1961)
- Scheffé (1953)
- Dunnett (1955, 1964)
- Scott Knott (1974)
- MSA, entre otras.

Grupos desequilibrados: cuando tenemos un número diferente de individuos en cada


grupo, puede usar las siguientes pruebas:
• LSD de Fisher (solo si hay tres grupos)
• T3 de Duncan
• C de Dunnett
• Scheffe
• Tukey- cramer
• Games-Howel

Varianzas desiguales: cuando la prueba de igualdad de varianzas (por ejemplo, Levene) nos
hace sospechar que las varianzas no son similares en todos los grupos, podemos considerar
alguna de estas pruebas:
• T2 de Tamhane
• T3 de Dunnett
• C de Dunnett
• Scheffe
• Games-Howel

2.1.1 Comparaciones múltiples planificadas


Muchos métodos de contrastes multiples utilizan el concepto de contrastes. Las
comparaciones entre las medias de los tratamientos se hacen ya sea en términos de los
totales de los tratamientos (𝑦𝑖. ) o bien de los promedios de los tratamientos ( 𝑦̅𝑖. ).
Considere el ejemplo sobre los efectos del alcohol en el tiempo de resolución de
operaciones matemáticas sencillas.

Cuadro 4.1: Resumen de estadísticos para el experimento de tiempo en la resolución de


operaciones matemáticas sencillas.
Tratamientos
Sin alcohol Baja dosis Media dosis Alta dosis
ˆi = yi. 43.2 43.6 57.6 58.4
Con 𝑡 = 4, 𝑟𝑖 = 5, 𝐶𝑀𝑒𝑟𝑟𝑜𝑟 (𝑆 2 ) = 14.025 y 𝐺𝐿𝑒𝑟𝑟𝑜𝑟 =
16

Puesto que en el ejemplo se rechazó la Ho, implica que existe diferencia entre los tiempos
de resolución de problemas matemáticos.
Al principio del experimento, pudiéramos haber sospechado que las dosis media y alta
producen los mismos tiempos en la resolución de problemas matemáticos sencillos. Esto
implicaría una hipótesis siguiente:
𝐻𝑜: 𝜇3 = 𝜇4 o 𝐻𝑜: 𝜇4 − 𝜇3 = 0
𝐻𝑎: 𝜇3 ≠ 𝜇4 𝐻𝑎: 𝜇3 − 𝜇4 ≠ 0
Si se hubiera sospechado, que los promedios de los niveles más bajos (sin dosis y alta dosis)
no diferían significativamente de los niveles más altos (dosis media y alta dosis), la hipótesis
sería:
𝐻𝑜: 𝜇1 + 𝜇2 = 𝜇3 + 𝜇4 o 𝐻𝑜: (𝜇1 + 𝜇2 ) − (𝜇3 + 𝜇4 ) = 0
𝐻𝑎: 𝜇1 + 𝜇2 ≠ 𝜇3 + 𝜇4 𝐻𝑎: (𝜇1 + 𝜇2 ) − (𝜇3 + 𝜇4 ) ≠ 0
Las comparaciones o contrastes entre las medias de los tratamientos se pueden construir
de manera que se respondan a las preguntas específicas sobre el experimento. Los
contrastes son formas especiales de las funciones lineales de las observaciones. Un
contraste entre medias en forma general se define como:
𝑡

Γ = ∑ 𝑘𝑖 𝜇𝑖 = 𝑘1 𝜇1 + 𝑘2 𝜇3 + ⋯ + 𝑘𝑡 𝜇𝑡
𝑖=1

Donde las constantes de los contrastes 𝑘1 , 𝑘2 , … , 𝑘𝑡 suman cero; es decir ∑𝑡𝑖=1 𝑘𝑖 = 0, las
dos hipótesis anteriores pueden pueden expresarse en terminos de contrastes:
𝑡

𝐻𝑜: ∑ 𝑘𝑖 𝜇𝑖 = 0
𝑖=1
𝑡

𝐻𝑜: ∑ 𝑘𝑖 𝜇𝑖 ≠ 0
𝑖=1

Las constantes de los contrastes para las hipótesis planteadas son:


C1=C2=0, C3=1 y C4=-1, y la otra seria: C1=C2=1, C3=C4=-1
Las pruebas de hipótesis que incluyen contrastes pueden hacerse de dos maneras básicas:
el primer método que utiliza la prueba t. en términos de los totales de los tratamientos:
𝑡

C = ∑ 𝑘𝑖 𝑦𝑖 .
𝑖=1

La varianza de c es: V(C)= 𝑛𝜎 2 ∑𝑡𝑖=1 𝑐𝑖2


Cuando los tamaños de las muestras de cada tratamiento son iguales, la Ho de la ecuación
cuando es verdadera es, el cociente
∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖.

√𝑛𝜎 2 ∑𝑡𝑖=1 𝑘𝑖2

Tiene una distribución N(0,1). Entonces, sustituyendo la varianza desconocida por su


estimador CMerror es:
∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖.
𝑡=
√𝑛𝐶𝑀𝑒𝑟𝑟𝑜𝑟 ∑𝑡𝑖=1 𝑘𝑖2

Se rechaza la Ho si |𝑡| > 𝑡𝛼,𝑁−𝑡


2

En el segundo enfoque se utiliza la prueba F. el cuadrado de una variable aleatoria t con v


g.l. es una variable aleatoria F con 1 grado de libertad en el numerador y v g.l en el
denominador.
2
2
(∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖. )
𝐹=𝑡 =
𝑛𝐶𝑀𝑒𝑟𝑟𝑜𝑟 ∑𝑡𝑖=1 𝑘𝑖2
Se rechaza la Ho si F> 𝐹𝛼,1,𝑁−𝑡 . Este estadístico puede escribirse como:
𝐶𝑀𝑡𝑟𝑎𝑡 𝑆𝐶𝑡𝑟𝑎𝑡 /1
𝐹= =
𝐶𝑀𝑒𝑟𝑟𝑜𝑟 𝐶𝑀𝑒𝑟𝑟𝑜𝑟
Donde la suma de cuadrados de los contrastes con un solo grado de libertad es:
2
(∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖. )
𝑆𝐶𝑡𝑟𝑎𝑡 =
𝑛 ∑𝑡𝑖=1 𝑘𝑖2

Intervalo de confianza para los contrastes

El estimador del intervalo de confianza 100(1 - 𝛼)% para un contraste en termino de


promedios de los tratamientos, es: Suponiendo que el contraste de interés es:
𝑡

Γ = ∑ 𝑘𝑖 𝜇𝑖
𝑖=1

Al sustituir las medias de los tratmientos con los promedios de los tratamientos, queda:
𝑡

C = ∑ 𝑘𝑖 𝑦̅𝑖.
𝑖=1

Y
𝑡
𝜎2
V(C) = ∑ 𝑘𝑖2
𝑛
𝑖=1

Cuando los tamaños muestrales son iguales. Si de usa el CMerror, el intervalo de confianza
para el contraste en término de promedios es:

𝑡 𝑡 𝑡 𝑡 𝑡
𝐶𝑀𝑒𝑟𝑟𝑜𝑟 𝐶𝑀𝑒𝑟𝑟𝑜𝑟
∑ 𝑘𝑖 𝑦̅𝑖. − 𝑡𝛼,𝑁−𝑡 √ ∑ 𝑘𝑖2 ≤ ∑ 𝑘𝑖 𝜇𝑖 ≤ ∑ 𝑘𝑖 𝑦̅𝑖. + 𝑡𝛼,𝑁−𝑡 √ ∑ 𝑘𝑖2
2 𝑛 2 𝑛
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Si este intervalo incluye al cero, no podría rechazarse Ho.

Contraste estandarizado
Cuando hay interés en más de un contraste, con frecuencia es útil evaluarlos en la misma
escala. Una forma es estandarizando el contraste.
𝑡

∑ 𝑘𝑖∗ 𝑦𝑖 .
𝑖=1

Donde
𝑘𝑖
𝑐𝑖∗ =
√𝑛 ∑𝑡𝑖=1 𝑘𝑖2

Tamaños de muestras desiguales


En este caso se introducen modificaciones.
𝑡

∑ 𝑛𝑖 𝑘𝑖 = 0
𝑖=1

El estadístico queda como:


∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖.
𝑡=
√𝐶𝑀𝑒𝑟𝑟𝑜𝑟 ∑𝑡𝑖=1 𝑛𝑖 𝑘𝑖2

Y la suma de cuadrados de los contrastes queda:

2
(∑𝑡𝑖=1 𝑘𝑖 𝑦𝑖. )
𝑆𝐶𝑡𝑟𝑎𝑡 =
∑𝑡𝑖=1 𝑛𝑖 𝑘𝑖2

Contrastes ortogonales
Un caso especial del procedimiento anterior es el de los contrastes ortogonales.
Dos contrastes con coeficientes {𝑐𝑖 } 𝑦 {𝑑𝑖 } 𝑠𝑜𝑛 𝑜𝑟𝑡𝑜𝑔𝑜𝑛𝑎𝑙𝑒𝑠 𝑠𝑖:
𝑡

∑ 𝑘𝑖 𝑑𝑖 = 0
𝑖=1

Y para un diseño no balanceado:


𝑡

∑ 𝑟𝑖 𝑘𝑖 𝑑𝑖 = 0
𝑖=1

Para t tratamientos, el conjunto de t-1 contrastes ortogonales hace la partición de la


suma de cuadrados a los tratamientos en t -1 componentes independientes con un solo
grado de libertad. Por lo tanto las pruebas son independientes.
Existen varias maneras de elegir los contrastes ortogonales para un conjunto de
tratamientos. Por ejemplo: si hay t=3 tratamientos, donde el tratamiento 1 es de control
y el 2 y 3 son de interés, los contrastes ortogonales apropiados serian:
Tratamiento Coeficientes de los contrastes ortogonales
1 (control) -2 0
2 (nivel 1) 1 -1
3 (nivel 2) 1 1

Observe que el contraste 1 con ci = -2,1,1 compara el efecto promedio del factor con el
control, mientras que el contraste 2 di = 0,-1,-1 compara los dos niveles del factor de
interés.

Ejemplo: considere el siguiente ejemplo. Hay cuatro medias de los tratamientos y tres
g.l. entre estos tratamientos. Suponga que antes de correr el experimento se especificó
la siguiente serie de comparaciones entre las medias de los tratamientos (y sus
contrastes asociados).

Hipótesis contrastes
𝐻𝑜: 𝜇3 = 𝜇4 𝐶1 = −𝑦3. + 𝑦4.
𝐻𝑜: 𝜇1 + 𝜇2 = 𝜇3 + 𝜇4 𝐶2 = 𝑦1. + 𝑦2. − 𝑦3. − 𝑦4.
𝐻𝑜: 𝜇1 = 𝜇3 𝐶3 = 𝑦1. − 𝑦3.
𝐻𝑜: 4𝜇2 = 𝜇1 + 𝜇3 + 𝜇4 𝐶4 = −𝑦1. + 4𝑦2. − 𝑦3. − 𝑦4.

Los valores numéricos de los contrastes y de las sumas de cuadrados son los siguientes
(ANVA):
𝐶1 = −𝑦3. + 𝑦4.
𝐶2 = 𝑦1. + 𝑦2. − 𝑦3. − 𝑦4.
𝐶3 = 𝑦1. − 𝑦3.
𝐶4 = −𝑦1. + 4𝑦2. − 𝑦3. − 𝑦4.
El ANVA inicial era:
ANOVAa
Modelo Suma de cuadrados gl Media cuadrática F Sig.

1 Regresión 1067,800 3 355,933 25,378 ,000b

Residuo 224,400 16 14,025

Total 1292,200 19

Los datos eran:


Tratamientos Tiempo (seg.) Total ( yi . ) Media ( yi . )
T1: Sin alcohol 42, 39, 48, 43, 44 216 43.2
T2: Baja dosis de alcohol 45, 46, 45, 39, 43 218 43.6
T3: Media dosis de alcohol 64, 61, 50, 55, 58 288 57.6
T4: Alta dosis de alcohol 56, 55, 62, 59, 60 292 58.4

(∑𝑎𝑖=1 𝑐𝑖 𝑦𝑖. )2
𝑆𝐶𝑐𝑖 =
𝑛 ∑𝑎𝑖=1 𝑐𝑖2

42
𝐶1 = −1(288) + 1(292) = 4 ; 𝑆𝐶𝐶1 = =2
4(2)
𝐶2 = 1(216) + 1(218) − 1(288) − 1(292) = −146;
−1462
𝑆𝐶𝐶2 = = 1332.25
4(4)
𝐶3 = 1(216) − 1(288) = −72;
−722
𝑆𝐶𝐶3 = 4(2)
=648

𝐶4 = −1(216) + 4(292) − 1(288) − 1(292) = 372,


3722
𝑆𝐶𝐶4 = 1820.84
4(19)

El ANVA queda de la siguiente manera:


ANOVAa
Suma de Media
F.V. cuadrados Gl cuadrática F Sig.
Regresión 1067,800 3 355,933 25,378 ,000b
𝐻𝑜: 𝜇3 = 𝜇4 (2) 1 2
0.1426 ns
𝐻𝑜: 𝜇1 + 𝜇2 = 𝜇3 + 𝜇4 (1332.25) 1 1332.25
94.99 *
𝐻𝑜: 𝜇1 = 𝜇3 (648) 1 648
𝐻𝑜: 4𝜇2 = 𝜇1 + 𝜇3 + 𝜇4 46.203 *
(1820.84) 1 1820.84
Residuo 129.828 *
224,400 16 14,025
Total 1292,200 19

La primera hipótesis no es significativa, es decir no existe diferencia en los tiempos de


resolución de problemas matemáticos sencillos entre el tratamiento 3 y 4. Las demás
hipótesis son significativas.
Prueba de significancia t de Student
Es una prueba para comparaciones planeadas con anterioridad. El nivel de significancia
se toma como un error individual. Los supuestos para la realización de esta prueba son:
- Prueba F del ANVA significativa
- Variancias homogéneas
- Las muestras son extraídas al azar
- Los tamaños de las muestras son iguales
Al igual que con la prueba F, los contrastes entre tratamientos se pueden examinar con
la prueba t de Student (Kuehl, 2001). La relación entre la distribución t de Student y la
distribución F es:
t2 = F
donde la t de Student tiene v grados de libertad y el estadístico F tiene 1 grado de
libertad en el numerador y v grados de libertad en el denominador. La relación siempre
es válida cuando hay 1 grado de libertad en el numerador del estadístico F. Los grados
de libertad para la t de Student serán los mismos que para el denominador del
estadístico F.
C
tc =
Sc

tiene la distribución t de Student. Bajo la hipótesis nula Ho: C = 0. Estos valores pueden
ser obtenidos directamente con el programa R.
Hipótesis posibles de pares:
Caso A: cola derecha Caso B: cola Izquierda Caso C: dos colas
Ho: 𝜇𝑖 − 𝜇𝑗 = 𝑘 Ho: 𝜇𝑖 − 𝜇𝑗 = 𝑘 Ho: 𝜇𝑖 − 𝜇𝑗 = 𝑘
Ha: 𝜇𝑖 − 𝜇𝑗 > 𝑘 Ha: 𝜇𝑖 − 𝜇𝑗 < 𝑘 Ha: 𝜇𝑖 − 𝜇𝑗 ≠ 𝑘
Estadístico de prueba:
(𝑦̅𝑖. − 𝑌̅𝑗. ) − 𝑘
𝑡𝑐 = ~𝑡𝑔𝑙(𝑒𝑟𝑟𝑜𝑟)
𝑠𝑑
1 1
Donde 𝑠𝑑 = √𝐶𝑀𝐸 (𝑟 + 𝑟 ) es la desviación estándar de la diferencia de las medias
𝑖 𝑗
muestrales de los dos tratamientos.
Si todos los tratamientos tienen el mismo número de repeticiones, el estadístico de
prueba se planifica a:
(𝑦̅𝑖. − 𝑌̅𝑗. ) − 𝑘
𝑡𝑐 =
√2𝐶𝑀𝐸
𝑟
Regla de decisión:
Caso A: se rechaza la Ho si 𝑡𝑐 > 𝑡𝑡 , 𝑡𝑡 = 𝑡𝛼,𝐺𝐿𝐸
Caso B: se rechaza la Ho si 𝑡𝑐 < 𝑡𝑡 , 𝑡𝑡 = −𝑡𝛼,𝐺𝐿𝐸
Caso C: se rechaza la Ho si 𝑡𝑐 < −𝑡𝑡 , o si 𝑡𝑐 > 𝑡𝑡 , 𝑡𝑡 = 𝑡𝛼/2,𝐺𝐿𝐸
Ejemplo: si se quiere evaluar si el aumento de peso logrado con el compuesto vitamínico
B superaba al logrado con D en más de una libra.
Ho: 𝜇𝐵 − 𝜇𝐷 = 1
Ha: 𝜇𝐵 − 𝜇𝐷 > 1

(𝑦̅𝐵 − 𝑌̅𝐷 ) − 𝑘 (11 − 9.84) − 1


𝑡𝑐 = = = 0.6598
1 1
√𝐶𝑀𝐸 ( + ) √0.1604 (1 + 1)
𝑟𝐵 𝑟𝐷 6 5
Valor tabular:
𝑡𝑡 = 𝑡0.05,18 = 1.734
𝑡𝑐 (0.6598) < 𝑡𝑡 (1.734)
No se rechaza Ho. No existe suficiente evidencia estadística para aceptar el aumento de
peso logrado con el compuesto vitamínico B supere al logrado con D en más de una libra.

2.1.2 Comparaciones múltiples no planificadas.

Diferencia Límite de Significación (DLS)

Es usada una vez rechazada la Ho del ANVA o cuando la prueba ANVA es significativa.
La prueba DLS es una forma abreviada de la prueba t para el caso bilateral. La prueba
consiste en calcular la diferencia limite significativa (DLS) de modo que cualquier
diferencia entre las medias de dos tratamientos mayor a dicho límite sea significativa.
Los supuestos para esta prueba son los mismos que para la prueba t y por supuesto,
también debe ser planeada con anterioridad.

Características
Permite identificar las diferencias significativas pequeñas, cuando su significancia es
real, aunque se tengan pocas observaciones en cada tratamiento.
Esta prueba permite también ser utilizada para tratamientos desigualmente repetidos y
para para la estimación de intervalos.
A medida que el número de tratamientos aumenta, crece la probabilidad del error tipo
I. Es decir, el nivel de significancia (), es en realidad mayor al especificado por el
analista.
Su potencia es aceptable, solo si la significancia del factor se probó por lo menos con un
95% de confianza.
No tiene control sobre el error en el modelo de experimentación.
Esta prueba se emplea para comparaciones no ortogonales.
Se usa cuando se tiene a lo más 4 tratamientos
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
2) Nivel de significancia:
𝛼 = 5% 𝑜 1%
3) Prueba estadística: Diferencia limite significativa
𝐷𝐿𝑆 = 𝑡(𝛼⁄2,𝐺𝐿𝑒𝑟𝑟𝑜𝑟) 𝑠𝑑̅
Donde,
t, es la distribución t de student
𝛼: nivel de significancia
𝐺𝐿𝑒𝑟𝑟𝑜𝑟: Grados de libertad del error
La desviación estándar de la diferencia de las medias muestrales de los dos
tratamientos es:
Para el caso desbalanceado:

1 1
𝑠𝑑̅ = √𝐶𝑀𝐸 ( + )
𝑟𝑖 𝑟𝑗

Para el caso balanceado:

2𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑠𝑑̅ = √
𝑟

4) Regla de decisión:
Se rechaza la hipótesis nula (Ho) con nivel de significancia 𝛼 si, |𝑦̅𝑖. − 𝑦̅𝑗. | > 𝐷𝐿𝑆

Ejemplo: comparando dos tratamientos


1) Hipótesis estadística
Ho: 𝜇𝐴 = 𝜇𝐵
Ha: 𝜇𝐴 ≠ 𝜇𝐵
2) Nivel de significancia:𝛼 = 5%
3) Prueba estadística:

1 1 1 1
𝐷𝐿𝑆 = √𝐶𝑀𝐸 ( + ) = √0.1604 ( + ) = 0.4858
𝑟𝐴 𝑟𝐵 6 6

|𝑦̅𝐴 − 𝑦̅𝐵 | = |10.85 − 11| = 0.15


Como (|𝑦̅𝐴 − 𝑦̅𝐵 |=0.15) < (DLS=0.4858) no se rechaza Ho.
4) Regla de decisión.
En conclusión, no existe suficiente evidencia estadística para aceptar que la
ganancia de peso obtenida con el compuesto vitamínico A sea diferente a la
obtenida con el compuesto vitamínico B. En caso de más tratamientos, puede
realizar esta prueba repetidas veces entre todos los tratamientos.
Prueba de Dunnett

La prueba de Dunnett es utilizada cuando se quiere comparar cada uno de los


tratamientos contra el tratamiento testigo o control. Los supuestos son:
o Variancias homogéneas
o Las muestras son extraídas al azar
En muchos experimentos, uno de los tratamientos es un control o testigo, y al
investigador puede interesarle su comparación con las t - 1 medias de tratamiento con
el control. Por tanto, sólo deben realizarse t - 1 comparaciones.

Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑘
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑘 𝑐𝑜𝑛 𝑖 = 1,2, … , 𝑡 − 1
2) Nivel de significancia:𝛼 = 5%
3) Prueba estadística:
Caso desbalanceado

1 1
𝐴𝐿𝑆(𝐷𝑛 ) = 𝐷𝛼,(𝑡−1.𝑛−𝑡) √𝐶𝑀𝑒𝑟𝑟𝑜𝑟 ( + )
𝑟𝑖 𝑟𝑘

se le llama Amplitud Límite Significativa de Dunnett.


Donde:
𝐷𝛼,(𝑡−1.𝑛−𝑡) : se encuentra en la tabla de Dunnett con n–t grados de libertad que
corresponden al cuadrado medio del error.
CMerror : es el cuadrado medio del error y se obtiene de la tabla ANVA.
Para el caso balanceado tenemos:

2𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐴𝐿𝑆(𝐷𝑛 ) = 𝐷𝛼,(𝑡−1.𝑛−𝑡) √
𝑟

4) Regla de decisión: La hipótesis nula se rechaza si,


|𝑦̅𝑖. − 𝑦̅𝑘. | > 𝐴𝐿𝑆(𝐷𝑛 )

Prueba de Duncan
Esta prueba puede ser aplicada aun sin ser significativa la prueba F.
Es usada cuando las varianzas son homogéneas y un C.V. bajo
La prueba de Duncan (1955), también conocida como la prueba de rango múltiple. Es un
procedimiento muy utilizado para comparar todos los pares de medias. Para realizar
esta prueba no es necesarios realizar previamente la prueba F (cuadro ANVA) y que esta
resulte significativa; sin embargo, es recomendable que la prueba F haya resultado
significativa, a fin de evitar contradicciones entre ambas pruebas.
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
2) Nivel de significancia: 𝛼 = 5% 𝑜 1%
3) Prueba estadística:
Como las t muestras son de igual tamaño, los t promedios se acomodan en orden
descendente y el error estándar de los promedios se estima con:

𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑠𝑦̅𝑖. = √
𝑟

A la expresión

𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐴𝐿𝑆(𝐷) = 𝑑𝛼,(𝑝,𝑛−𝑡) √
𝑟

se le llama Amplitud Límite Significativa de Duncan.


Donde:
𝑑𝛼,(𝑝,𝑛−𝑡) : Es la Amplitud Estudiantizada Significativa de Duncan y se encuentra en la
tabla de Duncan (anexo tablas) con p = 2, 3, 4, …, t, y N – t grados de libertad que
corresponden al cuadrado medio del error.
CMerror : es el cuadrado medio del error y se obtiene de la tabla ANVA.
p: distancia entre dos medias comparadas
: nivel de significancia.
Con esta expresión se obtiene los t – 1 valores de los rangos de significancia
4) Regla de decisión:
La hipótesis nula se rechaza si,
|𝑦̅𝑖. − 𝑦̅𝑗. | > 𝐴𝐿𝑆(𝐷)

Prueba de Tukey
Es un método más riguroso para comparar pares de medias de tratamientos que el
método de Duncan, es conocida como la prueba de la diferencia significativa honesta
HSD (Honestly significant difference). Es procedimiento que proporciona una tasa con
respecto al experimento en el sentido fuerte, para las comparaciones en pares de todas
las medias de tratamiento, que se usa para obtener intervalos de confianza simultáneos
de 100(1 - )%. Los supuestos son:
▪ Varianzas homogéneas
▪ Las muestras son extraídas al azar
▪ CV<10%
▪ Cuando los tamaños de las muestras seleccionadas para cada tratamiento son
iguales de preferencia.
Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗

1) Nivel de significancia: 𝛼 = 5% 𝑜 1%
2) Prueba estadística:
Desviación estándar de la diferencia de promedios.

𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝑠𝑥̅ = √
𝑟

𝐴𝐸𝑆(𝑇): 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑 𝑒𝑠𝑡𝑢𝑑𝑖𝑎𝑛𝑡𝑖𝑧𝑎𝑑𝑎 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎(tabla Tukey, Student Newman


keuls).
𝐴𝐸𝑆(𝑇) = 𝑞𝛼,(𝑡,𝑛−𝑡)
Para el caso balanceado:

𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐷𝐻𝑆(𝑇) = 𝑞𝛼,(𝑡,𝑛−𝑡) √ = 𝐴𝐸𝑆(𝑇) ∗ 𝑠𝑥̅
𝑟

Para el caso desbalanceado:

𝐶𝑀𝑒𝑟𝑟𝑜𝑟 1 1
𝐷𝐻𝑆(𝑇) = 𝑞𝛼,(𝑡.𝑛−𝑡) √ ( + )
2 𝑟𝑖 𝑟𝑘

se le llama Diferencia Honestamente Significativa de Tukey.


Donde:
CMerror: es el cuadrado medio del error y se obtiene de la tabla ANVA.
t : número de tratamientos.
 : nivel de significancia.
3) Regla de decisión: La hipótesis nula se rechaza si,
|𝑦̅𝑖. − 𝑦̅𝑗. | > 𝐷𝐻𝑆(𝑇)

Prueba de Student-Newman-Keuls (SNK)


La prueba de SNK es una prueba de comparaciones múltiples. Permite comparar las
medias de los t tratamientos de un factor después de haber rechazado la Hipótesis nula
de igualdad de medias mediante la técnica ANOVA. Es una prueba de carácter
secuencial, es decir, que utiliza un nuevo valor “estudiantizado” para cada comparación.
Es más conservativo que el Duncan en el número de diferencias que declara
significativas. Puede ser usado con 10% de significancia

Método
1) Hipótesis estadística:
𝐻𝑜: 𝜇𝑖 = 𝜇𝑗
𝐻𝑎: 𝜇𝑖 ≠ 𝜇𝑗 ∀𝑖 ≠𝑗
2) Nivel de significancia: 𝛼 = 5% 𝑜 1%
3) Prueba estadística:

𝐶𝑀𝑒𝑟𝑟𝑜𝑟
𝐴𝐿𝑆(𝑆𝑁𝐾) = 𝑞𝛼,(𝑡,𝑣) √
𝑟

se le llama Amplitud Límite Significativa de Stundent-Newman-Keuls.


Donde:
𝑞𝛼,(𝑡,𝑣) : Es la Amplitud Estudiantizada Significativa de SNK y encuentra en la tabla de
SNK con t = 2, 3, 4, … y v son los grados de libertad que corresponden al cuadrado
medio del error.
CMerror: es el cuadrado medio del error y se obtiene de la tabla ANVA.
t: número de tratamientos.
: nivel de significancia.
La prueba no se realiza si existe un conjunto de medias que contiene a yi y y j con
mayor tamaño que t, que no es significativa según el criterio SNK.
4) Regla de decisión: La hipótesis nula se rechaza si,
|𝑦̅𝑖. − 𝑦̅𝑗. | > 𝐴𝐿𝑆(𝑆𝑁𝐾)

Prueba de Scheffé.
Scheffé (1953) propuso un método para probar todas las comparaciones posibles o
construir intervalos de confianza para todas ellas. Este método proporciona la
protección señalada del error con respecto al experimento, para cualquier número de
comparaciones; en consecuencia, es bastante conservador y, en general, se usa para
comparaciones no planeadas o sugeridas por los datos.
Sirve para probar todos los contrastes de medias que pudieran ser de interés, en
particular aquellos que involucran a más de dos medias. Los datos no necesariamente
deben ajustarse a una distribución normal.

Método
1) Hipótesis estadística:
𝐻𝑜: 𝐶 = 0
𝐻𝑎: 𝐶 ≠ 0
2) Nivel de significancia: 𝛼 = 5% 𝑜 1%
3) Prueba estadística:
t
Considerando cualquier comparación, C =  ki yi. , entre t medias de tratamientos
i =1

con un error estándar:

𝑡
𝑘𝑖2
𝑆𝑐 = √𝐶𝑀𝑒𝑟𝑟𝑜𝑟 [∑ ]
𝑟𝑖
𝑖=1

A la expresión

𝑡−1
𝑆(𝛼) = 𝑆𝑐 √(𝑡 − 1)𝐹𝑣,𝛼

se le llama Estadístico de Scheffé.


Donde:
𝑡−1
𝐹𝑣,𝛼 : Es el estadístico F con (t - 1) y v grados de libertad con un nivel de significancia
de .
CMerror: es el cuadrado medio del error.
t: número de tratamientos.
4) Regla de decisión La hipótesis nula se rechaza si,
|𝐶| > 𝑆(𝛼)

2.1.3 Comentarios sobre las comparaciones múltiples


Cuando los experimentos tienen dos tratamientos, las pruebas t y F son las más
recomendables.
Si el número de tratamientos es mayor que 2, las pruebas t y Duncan dan más fallas,
pero, puede usar la prueba de Duncan o Tukey que es más rigurosa, esto dependiendo
de la rigurosidad que se desee.
La prueba de Tukey y de Duncan tienen bases muy semejantes, sin embargo, la prueba
de Duncan da diferencias significativas con más facilidad al 5%. Así, la prueba de Duncan
es un intermedio entre el excesivo rigor de la prueba de Tukey y la falta de rigor de la
prueba LSD. Para el uso de Duncan, es necesario que las varianzas de los tratamientos
sean homogéneas. (puede hacerse también para diferente número de repeticiones).
La prueba Student-Newman-Keuls es similar a la prueba de Duncan con la diferencia que
los valores de amplitudes estudiantizadas significativas deben ser buscadas en la tabla
de Student-Newman-Keuls.
La prueba de Scheffé es muy rigurosa, no es recomendable para la comparación de dos
medias, pero sí debe usarse en contrastes más amplios, debido a que tiene límites de
confianza más estrechos.
El procedimiento de Dunnett, permite al investigador ser más conservador por cuanto
utilizará las tasas de error con respecto al experimento en el sentido fuerte. En estas
circunstancias la familia de comparaciones como unidad conceptual es importante para
el investigador. Es decir, la comparación de todos los tratamientos con uno de control.
Si se desea controlar la tasa de error individual, los métodos LSD y de Duncan resultan
apropiados. Facilitan más protección de los errores de Tipo I que los otros métodos y
son menos conservadores que los procedimientos basados en la elección de la tasa de
global.

Vous aimerez peut-être aussi