Académique Documents
Professionnel Documents
Culture Documents
7.1.- Introducción: En este capítulo se definirá el modelo de Gauss Markov (GM) de k-partes,
absorción de las ecuaciones normales (EN) reducidas, y condiciones de estimabilidad en el modelo de 2
partes
Sea y = Xβ + ε el modelo de GM
�β1 �
�p1 �1 � k
� �
sea β = M
� �
una partición de , β p = �
i =1
pi
�βk �
�pk �1�
� �
Sea nX =� X1 L X k � una partición de X
�p
� n�p1 n�pk �
�β1 �
�p1�1 �
� �� �
y = Xβ + ε = � X1 L Xk � M + ε = X1β1 + L + Xk β k + ε
� n�p1 n�pk �� �
�βk �
� 1�
pk �
1 1+ L + X kβ k +ε , se le llama
Definición 7.1: Cuando el modelo de GM se escribe como: y = Xβ
modelo de GM de k partes.
�a1 � �b1 �
� � � �
(2) k=3, b1 = m , β 2 = �M�, β3 = �M�
�
ap� �bq �
� � � �
Ejemplo 2
> y<-c(68,66,79,75,84,90,96,94,71,68,78,78)
> length(y)
[1] 12
> X<-matrix(rep(0,72),ncol=6)
> fix(X)
> X
col1 col2 col3 col4 col5 col6
[1,] 1 1 0 0 1 0
[2,] 1 1 0 0 1 0
[3,] 1 1 0 0 0 1
[4,] 1 1 0 0 0 1
[5,] 1 0 1 0 1 0
[6,] 1 0 1 0 1 0
[7,] 1 0 1 0 0 1
[8,] 1 0 1 0 0 1
[9,] 1 0 0 1 1 0
[10,] 1 0 0 1 1 0
[11,] 1 0 0 1 0 1
[12,] 1 0 0 1 0 1
> X1<-X[,1:4]
> X1
col1 col2 col3 col4
[1,] 1 1 0 0
[2,] 1 1 0 0
[3,] 1 1 0 0
[4,] 1 1 0 0
[5,] 1 0 1 0
[6,] 1 0 1 0
[7,] 1 0 1 0
[8,] 1 0 1 0
[9,] 1 0 0 1
[10,] 1 0 0 1
[11,] 1 0 0 1
[12,] 1 0 0 1
> X2<-X[,5:6]
> X2
col5 col6
[1,] 1 0
[2,] 1 0
[3,] 0 1
[4,] 0 1
[5,] 1 0
[6,] 1 0
[7,] 0 1
[8,] 0 1
[9,] 1 0
[10,] 1 0
[11,] 0 1
[12,] 0 1
Ejemplo 3
Sea
�y111 � �e111 �
�M � �M �
� � � �
�y11n11 � �e11n11 �
� � � � �1 1 0 L 0 �
�m � �y121 � �e121 � �n1g� 1 n1g�
1 n1g�
1 n1g�
1
�
� �b �
�a1 �
�
1
� �
�M � �M � �1 0 1 L 0 �
β1 = , β 2 = �M�, y = � �,ε=� �, X = �n2 g�1 n2 g�
1 n2 g�
1 n2 g�1
�,
�M� �y12 n12 � �e12 n12 � 1
�M M M O M�
� � �bq � � � � � � �
ap� � �
� �M � �M � � 1 0 0 L 1 �
�y pq1 � �e pq1 � �n p g�
1 n p g�
1 n p g�
1 1�
n p g�
� � � �
�M � �M �
�y pqn pq � �e pqn pq �
� � � �
�n1�1 0 L 0 �
n11�
1 n11�
1
�11 �
�0 1 L 0 �
�n12 �1 n12 �
1 n12 �1
�
�M M O M�
� �
� 0 0 L 1 �
n1q �1 n1 q �
1 n1q �1
� �
� 1 0 L 0 �
n21� n21� n21�
� 1 1 1
�
�0 1 L 0 �
n22 �
�n22 �1 1 n22 �1
�
X 2 = �M M O M �.
� �
� 0 0 L 1 �
n2 q �
1 n2 q �
1 n2 q �
1
� �
�M M M M�
�1 0 L 0 �
�n p1�1 n p1�
1 1�
n p 1�
� �
� 0 1 L 0 �
n p 2�
1 n p 2�
1 n p 2�
1
� �
�M M O M�
�0 0 L 1 �
�
�n pq �
1 n pq �
1 1�
n pq � �
Luego,
1 1+ X 2β 2 +ε
y = Xβ
7.2 Absorción (Asimilación), y las ecuaciones normales reducidas
y = Xβ1 1+ X 2β 2 +ε
�b1 �
X�
� X�
1 X1 1X 2 � X�
�p1�1 �= � 1y �
�
X� X� �� � �
X� �
� 2 X1 2 X 2 �b 2 � 2y �
�
� 1�
p2 � �
Suponga que p = p1 + p2 es un número grande. Se necesita encontrar una manera más fácil de
solucionar las EN.
Se puede usar el siguiente método llamado absorción, para reducir el problema de computación.
1° X� � �
1 X1b1 = X1 y - X1 X 2b 2
2° X� � �
2 X1b1 + X 2 X 2b 2 = X 2 y
X� ( ) � (
2 I n - PX1 X 2b 2 = X 2 I n - PX1 y )
Definición 7.2: A las ecuaciones dada en X� ( ) � ( )
2 I n - PX1 X 2b 2 = X 2 I n - PX1 y se le llama EN reducidas.
Se dice que el bloque de EN dada en 2° absorbe a las ecuaciones dada en el bloque 1°.
La idea es la siguiente: ( X�
1 X1 ) , o ( X1 X1 ) fácil de computar. Luego, se tiene
-1 -
� PX1 , luego se puede
solucionar las EN reducidas sin muchos problemas computacional para b 2 . Luego sustituyendo b 2 en
X� � �
1 X1b1 = X1 y - X1X 2b 2 , se puede solucionar estas ecuaciones y obtener b1 . A este método se le llama
absorción.
Ejemplo 4:
> y<-c(68,66,79,75,84,90,96,94,71,68,78,78)
> X1tX1<-t(X1)%*%X1
> X1tX2<-t(X1)%*%X2
> X2tX1<-t(X2)%*%X1
> X2tX2<-t(X2)%*%X2
> XtX<-t(X)%*%X
> XtX
col1 col2 col3 col4 col5 col6
col1 12 4 4 4 6 6
col2 4 4 0 0 2 2
col3 4 0 4 0 2 2
col4 4 0 0 4 2 2
col5 6 2 2 2 6 0
col6 6 2 2 2 0 6
> X1tX1
col1 col2 col3 col4
col1 12 4 4 4
col2 4 4 0 0
col3 4 0 4 0
col4 4 0 0 4
> X1tX2
col5 col6
col1 6 6
col2 2 2
col3 2 2
col4 2 2
> X2tX1
col1 col2 col3 col4
col5 6 2 2 2
col6 6 2 2 2
> X2tX2
col5 col6
col5 6 0
col6 0 6
> Xty<-t(X)%*%y
> X1ty<-t(X1)%*%y
> X2ty<-t(X2)%*%y
> Xty
[,1]
col1 947
col2 288
col3 364
col4 295
col5 447
col6 500
> X1ty
[,1]
col1 947
col2 288
col3 364
col4 295
> X2ty
[,1]
col5 447
col6 500
> library(MASS)
> G1<-ginv(X1tX1)
> G1
[,1] [,2] [,3] [,4]
[1,] 0.046875 0.015625 0.015625 0.015625
[2,] 0.015625 0.171875 -0.078125 -0.078125
[3,] 0.015625 -0.078125 0.171875 -0.078125
[4,] 0.015625 -0.078125 -0.078125 0.171875
> PX1<-round(X1%*%G1%*%t(X1),4)
> PX1
[,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8] [,9] [,10] [,11] [,12]
[1,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[2,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[3,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[4,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[5,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[6,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[7,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[8,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[9,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
[10,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
[11,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
[12,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
> In<-diag(rep(1,12))
> t(X2)%*%(In-PX1)%*%X2
col5 col6
col5 3 -3
col6 -3 3
> t(X2)%*%(In-PX1)%*%y
[,1]
col5 -26.5
col6 26.5
�3 -3� �-26.5�
� b2 = �
� �
�-3 3 � �26.5 �
> LIENR<-t(X2)%*%(In-PX1)%*%X2
> LDENR<-t(X2)%*%(In-PX1)%*%y
> GLIENR<-ginv(LIENR)
> b2est<-GLIENR%*%LDENR
> b2est
[,1]
[1,] -4.416667
[2,] 4.416667
> b1est<-G1%*%(X1ty-X1tX2%*%b2est)
> b1est
[,1]
[1,] 59.1875
[2,] 12.8125
[3,] 31.8125
[4,] 14.5625
Ejemplo 5:
Las EN tiene 1 + p + q parámetros. Se reducirá a un problema con sólo q ecuaciones con q parámetros
desconocidos
Si hacemos:
�
M M O M�
� �
0
� 0 L 1 n p g�
0
� 0 L 0 �� ng1 L ngq �
�ng1 n11 L n p1 �� ��
� �0 1 n1g L 0 �� n11 L n1q �
2 X1 ( X1 X1 ) X1 X 2 = �M M�� �
-
X� � � M O
�
M M O M ��M O M�
�ngq n1q L n pq �� �� �
� �0 L 1 n p g�� L n pq �
� 0 n p1
� 0 0 L 0 �
�ng1 n11 L n p1 ��
� � n11 n1g n12 n1g L n1q n1g �
2 X1 ( X1 X1 ) X1 X 2 = �M M��
X� �
-
� M O �
� M M O M �
�ngq n1q L n pq �
� ��n p1 n p g np 2 n pg L
�
n pq n p g�
�
�p ni1ni1 p
ni1niq �
��
i =1 ni g
L �n �
� i =1 ig �
2 X1 ( X1 X1 ) X1 X 2 =
-
X� � � � M O M �, y
�p �
� niq ni1 L niq niq �
p
�� � �
�i =1 ni g i =1 ni g �
�ni1ni1 ni1niq �
� L
�ng1 L 0 � p �ni g ni g � �
� �
X� (
2 I n - PX1 ) X2 = X�
2 X 2 - X 2 PX1 X 2 = �
� M O M�- �� M O
i =1 �
M �
�
�0 L ngq � niq ni1 niq niq �
� � � L
�n ni g �
� ig �
� p
nij2
�ngj - � , si k = j
� i =1 ni g
El elemento ( j , k ) -ésimo al lado derecho de esta última igualdad está dado por: � q
�- nij nik , si k �j
� �
� i =1 ni g
p
�nij �
Lo cual demuestra que es el vector q �1 cuyo j-ésimo elemento es gj g �� �yi gg , para j = 1, K , q
y -
i =1 �ni g �
Las EN reducidas: X� ( � )
2 I n - PX1 X 2b 2 = X 2 I n - PX1 y ( )
� p
ni1ni1 p
n n p
ni1niq � � p
�ni1 � �
�g1 � n
n - - � i1 i1 L -� � �y g
1 g - � � �yi gg �
� i =1 i g i =1 ni g i =1 n ig � � i =1 �ni g � �
� p ni 2ni1 p
n n p
n n �� bˆ � � p
�n � �
�-� ng2 - � i 2 i 2 L -� i 2 iq ��1 � �yg2 g - �� i 2 �yi gg�
� i =1 ni g i =1 ni g i =1 ni g ��M�= � i =1 �ni g � �
� �� �
ˆ � �� �
M M O M b
� M �
� � q
� p niq ni1 p
niq ni 2 p
nn � � p
�n � �
�- � n -�
ni g
L ngq - � i1 i1 � �ygq g - �� iq �yi gg�
� i=1 i g i =1 i =1 ni g � � i =1 �ni g � �
� �
�
Esto puede ser calculado por paquetes estadístico como el R para b 2 = �
�bˆ1 L bˆq � �
1 X1 ) ( X1y - X1 X 2b 2 )
1 X1b1 = X1y - X1 X 2b 2 , luego b1 = ( X�
De las EN dada en 1° : X� � � % -
� � %
Para este ejemplo se tiene:
�0 � �0 � � 0 �
� � � � �q �
�mˆ � �y1gg � � 0 0 L 0 � y1gg � � �n1 j �ˆ �
� � �
aˆ1 � �n1g � �n11 n1g n12 n1g L n1q n1g �
�
�
b1 �
ˆ
�
� �� 2 �b j
�n1g � �j =1 �n1g � �
b% = � = � �- ��M�= � �- � �
1
�M� �M � � M M O M �� � �M � � M �
� � � �� �bˆq
�aˆ p � y p gg � n p1 n p g n p 2 n p g L n pq n p g�� � �y p gg� q �n pj � �
�
� � � �� � � 2 �
bˆ j �
�n p g � � p g � �j =1 �n p g � �
n � � �
�
� 0 �
� �
�mˆ � �y - �n1 j �bˆ �
q
� 1gg � �2 �j �
aˆ1 � � j =1 �n1g �
b%1 = � �= � �
�M� � M �
� � � �
�aˆ p � � q �
n pj �ˆ �
�p gg �
y - �2 � b
�n � j �
j =1 �
� p g � �
q
�nij �ˆ
En resumen se tiene mˆ = 0 , aˆ i = yi gg - �� � b j , para i = 1, K , p
j =1 �ni g �
7.3 Consideraciones de Absorción
�X�
1 X1 � � �
X = �p1�p2
X� � o X�
X = � X� �
� � � 1 X1 �
� � � p2 �p1 �
Var �
� b%2 �
λ� �= s λ �
2
�
�X� �
2 I n - PX1 X 2 �λ( )
Se puede realizar inferencias de λ� β 2 . Encontrar primero βˆ 2 después hallar βˆ 1 en términos de βˆ 2 .
β1 + λ�
y* = Xβ 2 +ε ,
*
( )
donde y = I n - PX1 y y X = I n - PX1 X 2
* *
( )
Nótese que:
(I n )
- PX1 y = y - X1 ( X�
1 X1 ) X1y
�
-
*
Este es un modelo de ajuste de ci con X1 . Note que la i-ésima columna de X = In - PX1 X2 es ( )
(I n )
- PX1 c i = ci - PX1 ci = ci - cˆ i = ci - X1hˆ i = el vector de los residuos del modelo ci = X1h i . Aquí ci es un
vector de datos; cˆ i es el valor ajustado con X1 .
*
Teorema: Las EN del modelo A ( ε Y X = X β 2 + ε son idénticas a las EN reducidas del modelo de GM de
2 partes.
Prueba
(
Modelo A: I n - PX1 y = I n - PX1 Xβ)
2 2+ ε ( )
� ��
Las EN: �
�
X� ( �
2 I n - PX1 �
�� ) (
I n - PX1 Xβ2 �
�
= I�
2X 2 nP
�
- X1 I nP- Xy1 ) ( )( )
X� (
2 I n - PX1 Xβ ) ( )
2 2 =X 2 I n -P X1 y , las EN reducidas del modelo de GM de 2 partes.
�
Note que las EN son las mismas del modelo: y = I n - PX1 Xβ (
2 2+ ε )
Ejemplo 5
En el Caso (2)
� 1� 1� L 1��
1�n1g 1�n2 g 1�n p g
� 1 1 0 L 0 � � �
�n1g� 1 n1g�
1 n1g�
1 n1g�
1 0
�� 0 L 0 ��1� 0� L 0��
�1 0 1 L �
0 �0 1 n1g L 0 � �1�n1g 1�n2 g 1�n p g�
1 � ��0�
PX1 = � � 0��
n2 g�1 n2 g�
1 n2 g�
1 n2 g�
1� L
�M M M O M�� M M O M �� 1�n1g 1�n2 g 1�n2 g�
� ��
0 0 L
��M
1 n p g�� M O M�
� 1 0 0 L 1 �� �
�n p g�
1 n p g�
1 n p g�
1 1�
n p g�
�0� 0� L 1��
�1�n1g 1�n2 g 1�n p g�
�1 1 0 L 0 �
�n1g� 1 n1g�
1 n1g�
1 n1g�
1
�� 0 L 0 L 0 L 0 �
�1 0 1 L �
0 �1/ n1g L 1/ n1g L 0 L 0 �
1 � �
PX1 = �n2 g�1 n2 g�
1 n2 g�
1 n2 g�
�
�M M M O M�� M M M O M M M �
� �� L L
�
L 1/ n p g�
� 1 0 0 L 1 �� 0 0 1/ n p g
�n p g�
1 n p g�
1 n p g�
1 1�
n p g�
1/ n1g
� L 1/ n1g 0 L 0 L 0 L 0 �
�M O M M O M O M O M �
� �
�
1/ n1g L 1/ n1g 0 L 0 L 0 L 0 �
� �
�0 L 0 1/ n2 g L 1/ n2g L 0 L 0 �
�M O M M O M L M O M �
PX1 = � �
�0 L 0 1/ n2 g L 1/ n2g L 0 L 0 �
�M O M M O M L M L M �
� �
�0 L 0 0 L 0 L 1/ n p g K 1/ n p g�
�M O M M O M O M O M �
� �
�
�0 L 0 0 L 0 L 1/ n p g L 1/ n p g�
�
1/ n1g
� L 1/ n1g 0 L 0 L 0 L 0 �
�M O M M O M O M O M �
� �
�
1/ n1g L 1/ n1g 0 L 0 L 0 L 0 �
� �
0 L 0 1/ n2g L 1/ n2g L 0 L 0 �
1 L
� 0� �
�M O M M O M L M O M �
�
I n - PX1 = �
MO M�- � �
� �0 L 0 1/ n2g L 1/ n2g L 0 L 0 �
�
0 L
� 1�
� �M O M M O M L M L M �
� �
�0 L 0 0 L 0 L 1/ n p g K 1/ n p g�
�M O M M O M O M O M �
� �
�
�0 L 0 0 L 0 L 1/ n p g L �
1/ n p g�
1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 �
� M O M M O M O M O M �
� �
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 �
� �
� 0 L 0 1 - 1/ n2g L -1/ n2g L 0 L 0 �
� M O M M O M L M O M �
I n - PX1 = � �
� 0 L 0 -1/ n2g L 1 - 1/ n2g L 0 L 0 �
� M O M M O M L M L M �
� �
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g �
� M O M M O M O M O M �
� �
�
� 0 L 0 0 L 0 L -1/ n p g L 1 - 1/ n p g�
�
1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 ��y111 �
� M �M �
� O M M O M O M O M � �� �
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 ��y11n11 �
� �� �
� 0 L 0 1 - 1/ n2 g L -1/ n2 g L 0 L 0 ��y121 �
� M O M M O M L M O M �� M �
(
y * = I n - PX1 ) y=�
� 0 L 0 -1/ n2 g L 1 - 1/ n2g L 0 L
��
0 ��y12 n12 �
�
� M � �
O M M O M L M L M �� M �
� �
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g ��y pq1 �
� M � �
O M M O M O M O M �� M �
� �
�
� 0 L 0 0 L 0 L -1/ n p g ��
L 1 - 1/ n p g� y pqn pq �
� �
1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 ��y111 �
� M �M �
� O M M O M O M O M � �� �
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 ��y11n11 �
� �� �
� 0 L 0 1 - 1/ n2 g L -1/ n2g L 0 L 0 ��y121 �
� M O M M O M L M O M �� M �
(
y* = I n - PX1 ) y=�
� 0 L 0 -1/ n2 g L 1 - 1/ n2 g L 0 L
��
0 ��y12 n12 �
�
� M � �
O M M O M L M L M �� M �
� �
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g ��y pq1 �
� M � �
O M M O M O M O M �� M �
� �
� L L L -1/ n p g L 1 - 1/ n p g��y pqn pq �
� 0 0 0 0 �� �
� n11
�
� 111 �y11k �
y -
� k =1
�
� M �
� n11 �
�y - y �
� 11n11 � k =1
11k
�
� n
�
�y - 12 y �
� 121 � k =1
12 k �
� �
� M �
(
y * = I n - PX1 ) y=� n12 �
�y12 n - �y12 k �
� 12 k =1 �
� M �
� �
� n pq
�
�y pq1 - �y pqk �
� k =1 �
� M �
� n pq
�
� �
�y pqn pq - �y pqk �
� k =1 �
( )
X* = I n - PX1 X 2 =
� 1 L 0 �
n11� 1 n11�
1
� �
1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 ��M O �
� M O M M O M O M O M � � �
� �� 0 L 1 �
n1q �1 n1 q �
1
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 �� �
� �1 L 0 �
� 0 L 0 1 - 1/ n2g L -1/ n2 g L 0 L 0 �� n � 1 n21� 1
�21 �
� M O M M O M L M O M ��M O M�
� �
� 0 L 0 -1/ n2g L 1 - 1/ n2 g L 0 L 0 ��0 L 1 �
�n2 q �
1 1�
n2 q �
� M O M M O M L M L M �� �
� ��M M M�
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g ��
1 L 0 �
� M O M M O M O M O M �� n p1�1 n p1�1�
� ��
� L L L -1/ n p g L 1 - 1/ n p g� M O M�
� 0 0 0 0 �� �
�0 L 1 �
�n pq �
1 1�
n pq �
� n11 �
1-
� 0 L 0 �
n1.
� �
� M M L M �
� �
� n
1 - 11 0 L 0 �
� n1. �
� �
� 0 n
1 - 12 L 0 �
� n1. �
� �
� M M L M �
� n �
� 0 1 - 12 L 0 �
� n1. �
� M M O M �
� �
� n1q �
� 0 0 L 1-
� n1. ��
� M M M M �
� �
� 0 n1q �
0 L 1-
� n1. �
� �
(
X* = I n - PX1 ) X2 = � M
� n
M M M �
�
�
1 - p1 0 L 0 �
� n1. �
� �
� M M M M �
� n p1 �
1-
� 0 L 0 �
� np. �
� n �
� 0 1 - p1 L 0 �
� n p. �
� �
� M M M M �
� n �
� 0 1 - p1 L 0 �
� n p. �
� �
� M M O M �
� n �
� 0 0 L 1 - pq �
� n p. �
� �
� M M M M �
� n �
� 0 0 L 1 - pq �
� n p. �
�b%1
�
Teorema: Sea �%�cualquier solución de las EN del modelo GM de dos partes. Las SCResid del
�b2 �
modelo de GM de 2 partes = a las SCResid del modelo A (o modelo de absorción). Esto es,
y� ( )
1 X1y - b 2 X 2 y = y I n - PX1 y - b 2 X 2 I n - PX1 y
y - b�� �� � � � ( )
( 1) ( 2)
Comentarios
Nótese que (1) = la SCResid de las EN reducidas.
= la SCResid de las EN del modelo de absorción.
b%2 es una solución de las EN reducidas.
Prueba:
% � % �
X� 1 X1b1 = - X 2 X 2b 2 + X1y , la EN de 1°.
P X b% = -P X�
X1 1 1 b% + P y
X1 2 2 X1
(1) X1b% � %
1 = PX1 y - PX1 X 2b 2
Entonces
y - b%
y� �� %
1 X 1y - b 2 X 2 y
��
y-�
= y� PX1 y - PX1 X�%� � % ��
� 2b 2 �y - b 2 X 2 y
= y� P y + b%
y - y� X1
��X P y - b%
2
��
Xy 2 X1 2 2
( )
= y�I n - PX1 y + b%
��
2 X 2 I n - PX1 y ( )
= SCRes del modelo A
Teorema: λ�
2β 2 es estimable bajo el modelo A (absorción) � es estimable bajo el modelo de GM de 2
partes
Prueba
� Sea λ�
2β 2 estimable bajo el modelo A. Entonces existe
a , n �1 tal que λ� ��
I n - PX1 �
2 =a � �X 2 . Pero
X = [ X1 X 2 ] , [ 0λ 2 ]a= I - P
� � �n ( X1 )
X[ X
1 2 (- Pn
]a= I � X
X1 ) X(
�F ) , desde que
� �
( )
a�I n - PX1 [ X1 X2 ] = � (
a�I n - PX1 X1 a�I n - PX1 X 2 �. ) ( )
� =0 �
β1 �
�
2β 2 = [ 0
Entonces, λ� 2 ] � �es estimable bajo el modelo de GM de 2 partes
� λ�
β2 �
�
�n ( 1 ) 1 � .
I n - ( X�
� 1 ) X1 �
�
z , donde z es cualquier vector, a = � �
- -
a = X�
10 + �
� I - X� X� z
1 ( X1 X1 ) , ( X�
1 X1 )
- -
1 X1 . Entonces, a = �
Una g-inversa de X�
1 es X� � cualquier g-inversa de X� �
I n - PX1 �
�z .
2 = a X2 = z �
Luego, λ� � ��
I n - PX1 �
�X 2 �F �
I n - PX1 �
� (
�X 2 . Entonces, λ � )
2β 2 es estimable bajo el modelo A.
Observaciones
y = Xβ1 1+ X 2β 2 +ε
�b%
1
�
Sea �%�una solución cualquiera de las ecuaciones normales (para este modelo de 2 partes).
�b2 �
Observe que:
- Reemplazar y �
PX1 y por y�
y - y�I - PX1 y ( )
- Sumar y restar b%2 X� (
2 I - PX1 y )
SCR ( β 2 β1 ) = SCR ( β1 ,β 2 ) - SCR ( β1 )
= b% � % � { ( % � ) } ( % � ) (
1 X1 y + b 2 X 2 y - y y - y I - PX1 y + b 2 X 2 I - PX1 y - b 2 X 2 I - PX1 y
� � )
{ ( )
= y �I - PX1 y - b%2 X�
2 I - PX1( ) y} - { y �
y - b%X�
1 y - b%X�
1 y} + b%X�( I - P ) y
2 2 2 2 X1
Nótese que los dos primeros componentes, en llaves, se anulan, debido a que son las sumas de cuadrados
de los residuos de los modelos de dos partes y modelo de absorción, como se pudo ver eran iguales.
Luego
SCR ( β 2 β1 ) = b%2 X� (
2 I - PX1 y )
También se tiene que:
Un procedimiento de cálculo de las sumas de cuadrados, depende cuál de las matrices sea más fácil de
1 X1 y X 2 X 2 o de p1 > p2 o que p2 > p1 :
invertir X� �
1.- Calcular SCR ( β 2 ) y SCR ( β1 )
2.- SCR ( β β ) = b%X�I - P y
2 1 2 2 ( X1 )
3.- SCR ( β1 β 2 ) = SCR ( β 2 β1 ) + SCR ( β1 ) - SCR ( β 2 )
Fuente de Variación GL SC
β1 r1 SCR ( β1 )
β 2 después de β1 r2 SCR ( β 2 β1 )
Residuos n-r SC Re s
Total n y�
y
Fuente de Variación GL SC
β2 r1 SCR ( β 2 )
β1 después de β 2 r2 SCR ( β1 β 2 )
Residuos n-r SC Re s
Total n y�
y
Donde r = r1 + r2 , ri = rango ( X�
i X i ) , para i = 1, 2
Para un modelo de rango completo (caso de regresión lineal) se puede probar las siguientes
hipótesis
�SCR ( β 2 β1 ) �
� �
� r2 �: F
F= ( r2 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �
�SCR ( β1 β 2 ) �
� �
� r1 �: F
F= ( r1 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �
�SCR ( β 2 β1 ) �
� �
� r2 �: F
F= ( r2 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �
�SCR ( β1 β 2 ) �
� �
� r1 �: F
F= ( r1 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �
Ejemplo:
1.- Como parte de un estudio para investigar las relaciones entre el estrés y algunas otra variables, se recolectaron
los siguientes datos de una muestra aleatoria de 15 ejecutivos industriales, dado en el archivo estres.txt. A
continuación se dan las variables estudiadas:
Y : Mediciones de estrés
X 1 : Mediciones de tamaño firme
X 2 : Número de años en el mismo puesto
X 3 : Salario anual en miles de dólares
X 4 : Edad
Pruebe si la contribución adicional de X 1 y X3, estando las otras dos variables restante
b �
� 0
��
H 0 : β 2 = 0 , siendo β 2 = �1 �, 0 = ��
b3 �
� 0
��
> estres<-read.table("estres.txt",T)
> str(estres)
'data.frame': 15 obs. of 5 variables:
$ Y : int 101 60 10 27 89 60 16 184 34 17 ...
$ X1: int 812 334 377 303 505 401 177 598 412 127 ...
$ X2: int 15 8 5 10 13 4 6 9 16 2 ...
$ X3: int 30 20 20 54 52 27 26 52 34 28 ...
$ X4: int 38 52 27 36 34 45 50 60 44 39 ...
> mod<-lm(Y~.,estres)
> X1<-as.matrix(estres[,-1])
> uno<-rep(1,nrow(X1))
> X<-cbind(uno,X1)
> XtX<-t(X)%*%X
> beta<-coefficients(mod)
> lambda<-rbind(c(0,1,0,0,0),c(0,0,0,1,0))
> SCH0<-t(lambda%*%beta)%*%solve(lambda%*%solve(XtX)%*%t(lambda))%*% (lambda%*%beta)
> SCH0
[,1]
[1,] 15990.85
> SCE<-deviance(mod)
> GLE<-df.residual(mod)
> CME<-SCE/GLE
> r<-qr(lambda)$rank
> r
[1] 2
> Fc<-(SCH0/r)/CME
> Fc
[,1]
[1,] 13.84505
> pvalue<-1-pf(Fc,r,GLE)
> pvalue
[,1]
[1,] 0.00131481
> X1<-X[,-c(2,4)]
> X2<-X[,c(2,4)]
> X1tX1<-t(X1)%*%X1
> Px1<-X1%*%solve(X1tX1)%*%t(X1)
> I15<-diag(rep(1,15))
> y<-estres[,1]
> X2ipX2<-t(X2)%*%(I15-Px1)%*%X2
> X2ipy<-t(X2)%*%(I15-Px1)%*%y
> iX2ipX2<-solve(X2ipX2)
> beta2<-iX2ipX2%*%X2ipy
> beta2
[,1]
X1 0.1762934
X3 1.5745378
> SCb2b1<-t(beta2)%*%X2ipy
> SCb2b1
[,1]
[1,] 15990.85
A B
b1 b2
a1 68, 66, 65 79, 75, 76
a2 84, 90, 87 96, 94, 93
a3 71, 68, 74 78, 78, 80
yijk = m + a i + b j + e ijk , i = 1, 2 y 3 , j = 1, 2 , k = 1, 2, 3
a) Pruebe la siguiente hipótesis:
> y<-c(68,66,65,79,75,76,84,90,87,96,94,93,71,68,74,78,78,80)
> A<-c(rep("a1",6),rep("a2",6),rep("a3",6))
> B<-rep(c(rep("b1",3),rep("b2",3)),3)
> X1<-matrix(0,18,4)
> fix(X1)
> X2<-matrix(0,18,2)
> fix(X2)
> library(MASS)
> X1tX1<-t(X1)%*%X1
> G1<-ginv(X1tX1)
> Px1<-X1%*%G1%*%t(X1)
> round(Px1,4)
[,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8] [,9] [,10]
[1,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[2,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[3,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[4,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[5,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[6,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[7,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[8,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[9,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[10,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[11,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[12,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[13,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[14,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[15,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[16,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[17,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[18,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[,11] [,12] [,13] [,14] [,15] [,16] [,17] [,18]
[1,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[2,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[3,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[4,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[5,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[6,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[7,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[8,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[9,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[10,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[11,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[12,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[13,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[14,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[15,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[16,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[17,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[18,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
> I18<-diag(rep(1,18))
> X2ipX2<-t(X2)%*%(I18-Px1)%*%X2
> X2ipy<-t(X2)%*%(I18-Px1)%*%y
> G2<-ginv(X2ipX2)
> b2<-G2%*%X2ipy
> b2
[,1]
[1,] -4.222222
[2,] 4.222222
> SCb2b1a<-t(b2)%*%X2ipy
> SCb2b1a
[,1]
[1,] 320.8889
> beta1<-G1%*%t(X1)%*%y
> beta1
[,1]
[1,] 59.25000
[2,] 12.25000
[3,] 31.41667
[4,] 15.58333
> SCbeta1<-t(beta1)%*%t(X1)%*%y
> SCbeta1
[,1]
[1,] 113596.3
> G2<-ginv(t(X2)%*%X2)
> beta2<-G2%*%t(X2)%*%y
> beta2
[,1]
[1,] 74.77778
[2,] 83.22222
> SCbeta2<-t(beta2)%*%t(X2)%*%y
> SCbeta2
[,1]
[1,] 112658.9
> SCb1b2<-SCb2b1a+SCbeta1-SCbeta2
> SCb1b2
[,1]
[1,] 1258.333
> mod<-lm(y~A+B)
> anva<-aov(mod)
> summary(anva)
Df Sum Sq Mean Sq F value Pr(>F)
A 2 1258.3 629.2 135.98 6.74e-10 ***
B 1 320.9 320.9 69.35 8.55e-07 ***
Residuals 14 64.8 4.6
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
β = 0,
H 0 : λ� donde = [ 0 0 0 0 -1 1]
λ� , = [ m a1 a 2 a 3
β� b1 b 2 ]
> X<-cbind(X1,X2)
> XtX<-t(X)%*%X
> Xty<-t(X)%*%y
> library(MASS)
> iXtX<-ginv(XtX)
> beta<-iXtX%*%Xty
> beta
[,1]
[1,] 43.090909
[2,] 6.863636
[3,] 26.030303
[4,] 10.196970
[5,] 17.323232
[6,] 25.767677
> lambda<-c(0,0,0,0,-1,1)
> SCH0<-(t(lambda)%*%beta)%*%solve(t(lambda)%*%iXtX%*%lambda)%*%t(lambda)%*%beta
[,1]
[1,] 320.8889
1 1+ X 2β 2+ L + X kβ k+ ε
y = Xβ
Sean X j = � �y β j�= [ β1 L
Xj � β k ] , para j = 1, K , k
*
X1 L
�
*
Donde � �X1 L Xk � �representa una partición de la matriz X , Entonces usando la notación definida
para el caso del modelo de dos partes se tiene:
SCR ( β j β1 L β j-1 ) = y �
PX* y - y �
PX* y
j j-1
�
= y�P - P �y
�X*j X*j-1 �
Fuente de Variación GL SC
β1 r1 SCR ( β1 )
β 2 después de β1 r2 - r1 SCR ( β 2 β1 )
β 3 después de β1 y β 2 r3 - r2 SCR ( β 3 β*2 )
M M M
β k después de β1 , β 2 , K βk-1 rk - rk -1 SCR ( β k β*k -1 )
Residuos n-r SCR (
yβ- ,…,β
y� )
1 k
Total n y�
y
Donde rj = rango �
X1 L
� ( Xj � )
�= rango ( X j ) , para j = 1,K , k , y r = rango ( X ) = rk
*
Observación:
Luego, usando el resultado de arriba, se puede mostrar que PX*j - PX*j-1 es idempotente y de rango igual a
( )
rango PX* - rango PX*
j
( ).
j-1
Estadística de prueba
De acuerdo con el teorema de Cochran, la suma de cuadrados en la tabla del ANVA se distribuyen en
forma independientes, y cada suma de cuadrados, dividida por s 2 , tienen distribuciones c 2 no central.
Luego,
SCR ( β j β*j-1 ) (r -r )
j j -1
Fi =
SC Re s ( n - r )
Se distribuye como una F no central.
¿Cuál Hipótesis?
H 0 = Λ1β1 + Λ1 ( X1�
X1 ) X�
1 ( X 2β 2 + L + X k β k ) = 0 , para
-
j = 2, K , k
( )
Sea Λ jβ j un conjunto de rj - rj -1 funciones paramétricas estimables en el modelo y = Xβj j+ ε , y sea
* *
rango ( Λ j ) = rj - rj -1 .
( I - P ) y = ( I - P ) Xβ + ε
X*j-1 X*j-1 j j
( ) ( )(X
-
H 0 = Λ jβ j + Λ j �
X�I - PX* X j �X� I - PX* β j+1 + L + Xk βk ) = 0
�j j-1 � j j-1
j+1
Otra expresión de H 0 :
�β j �
��β �
�
( ) ( ) ( ) ( )
- -
Λj
� Λj �
X�I - PX* X j �X� I - PX* X j+1 L Λj �
X�I - PX* X j �X� I - PX* X k ��j+1 �= 0
�j � j �j � j
� ��M �
j-1 j-1 j-1 j-1
� �
�βk �
Tenga en cuenta que:
H 0 = Λ k βk = 0
Ejemplo
E ( yijk ) = m + a i + b j , i = 1, K , p , j = 1, K , q y k = 1, K , nij
Fuente de variación GL SC
m 1 SCR ( m )
a i después de m p -1 SCR ( a i m )
b j después de a i y m q -1 SCR ( b j m , a i )
Residuos n - p - q +1 �y 2
ijk - SCR ( m , a i , b j )
i , j ,k
n
Total �y
i , j ,k
2
ijk
( ) ( )
En general, SCR a i m , b j �SCR ( a i m ) y SCR b j m , a i �SCR b j m ( )
Resultado
ni �n�j
SCR ( b j m , a i ) = SCR ( b j m ) para cualquier valor de y si y solamente si nij = , para i = 1, K , p
n
, j = 1, K , q
ni �n�j
nij = a esta condición es denominada “frecuencias proporcionales” , esta condición es de cierta
n
forma, más flexible del que el de datos balanceados.
Ejemplo
Se tiene datos de un experimento con dos factores A y B
A B
b1 b2
a1 68, 66, 65 79, 75, 76
a2 84, 90, 87 96, 94, 93
a3 71, 68, 74 78, 78, 80
> y<-c(68,66,65,79,75,76,84,90,87,96,94,93,71,68,74,78,78,80)
> A<-c(rep("a1",6),rep("a2",6),rep("a3",6))
> B<-rep(c(rep("b1",3),rep("b2",3)),3)
> X1<-rep(1,18)
> X1tX1<-t(X1)%*%X1
> Px1<-X1%*%solve(X1tX1)%*%t(X1)
> SCRu<-t(y)%*%Px1%*%y
> SCRu
[,1]
[1,] 112338
> chu1<-1
> X1tX1<-t(X1)%*%X1
> X2<-matrix(rep(0,3*18),ncol=3)
> fix(X2)
> X2
col1 col2 col3
[1,] 1 0 0
[2,] 1 0 0
[3,] 1 0 0
[4,] 1 0 0
[5,] 1 0 0
[6,] 1 0 0
[7,] 0 1 0
[8,] 0 1 0
[9,] 0 1 0
[10,] 0 1 0
[11,] 0 1 0
[12,] 0 1 0
[13,] 0 0 1
[14,] 0 0 1
[15,] 0 0 1
[16,] 0 0 1
[17,] 0 0 1
[18,] 0 0 1
> chu2<-solve(X1tX1)%*%t(X1)%*%X2
> chu2
col1 col2 col3
[1,] 0.3333333 0.3333333 0.3333333
> X3<-matrix(rep(0,2*18),ncol=2)
> fix(X3)
> X3
col1 col2
[1,] 1 0
[2,] 1 0
[3,] 1 0
[4,] 0 1
[5,] 0 1
[6,] 0 1
[7,] 1 0
[8,] 1 0
[9,] 1 0
[10,] 0 1
[11,] 0 1
[12,] 0 1
[13,] 1 0
[14,] 1 0
[15,] 1 0
[16,] 0 1
[17,] 0 1
[18,] 0 1
> chu3<-solve(X1tX1)%*%t(X1)%*%X3
> chu3
col1 col2
[1,] 0.5 0.5
> X2a<-cbind(X1,X2)
> X2atX2a<-t(X2a)%*%X2a
> library(MASS)
> G2<-ginv(X2atX2a)
> Px2a<-X2a%*%G2%*%t(X2a)
> SCRadu<-t(y)%*%(Px2a-Px1)%*%y
> SCRadu
[,1]
[1,] 1258.333
> lambdaa<-matrix(rep(0,6),ncol=3)
> fix(lambdaa)
> lambdaa
col1 col2 col3
[1,] -1 1 0
[2,] -1 0 1
> chadu1<-lambdaa
> I18<-diag(rep(0,18))
> chadu2<-lambdaa%*%ginv(t(X2)%*%(I18-Px1)%*%X2)%*%t(X2)%*%(I18-Px1)%*%X3
> chadu2
col1 col2
[1,] 0 0
[2,] 0 0
> lambdaadu<-cbind(chadu1,chadu2)
> lambdaadu
col1 col2 col3 col1 col2
[1,] -1 1 0 0 0
[2,] -1 0 1 0 0
> X<-cbind(X2a,X3)
> XtX<-t(X)%*%X
> G3<-ginv(XtX)
> Px<-X%*%G3%*%t(X)
> SCbdau<-t(y)%*%(Px-Px2a)%*%y
> SCbdau
[,1]
[1,] 320.8889
> SCTotal<-t(y)%*%y
> SCResiduos<-SCTotal-t(y)%*%Px%*%y
> r1<-qr(Px1)$rank
> r1
[1] 1
> r2<-qr(Px2a)$rank
> r2
[1] 3
> r3<-qr(X)$rank
> r3
[1] 4
> n<-length(y)
> n
[1] 18
> GL<-c(r1,r2-r1,r3-r2,n-r3,n)
> SC<-c(SCRu,SCRadu,SCbdau,SCResiduos,SCTotal)
> Fuente<-c("u","alfai despues de u","betaj despues de u y
alfai","Residuos","Total")
> data.frame(Fuente,GL,SC)
Fuente GL SC
1 u 1 112338.00000
2 alfai despues de u 2 1258.33333
3 betaj despues de u y alfai 1 320.88889
4 Residuos 14 64.77778
5 Total 18 113982.00000
Luego,
- Para la media: Con la SCR ( u ) = 112338 se prueba la siguiente hipótesis
a1 �
�
� b1 �
�
H 0 : Λ1β1 + Λ1 ( X1�
X1 ) X1�
X2β 2 + Λ1 ( X1�
X1 ) a2 �
m + [ 1/ 3 1/ 3 1/ 3] � [ ]
- -
X 3β 3 = 1 �
X1� + 1/ 2 1/ 2 � =0
� b2 �
� �
a3 �
�
� �
1 1
H0 : m + ( a1 + a1 + a 3 ) + ( b1 + b 2 ) = 0
3 2
1 1
H1 : m + ( a1 + a1 + a 3 ) + ( b1 + b 2 ) �0
3 2
SCMedia 112338
Fc = 1 = 1 = 24278.88
CME 64.77778
14
> Fc<-(112338/1)/(64.77777778/14)
> Fc
[1] 24278.88
> pvalue<-1-pf(Fc,1,14)
> pvalue
[1] 0
Se rechaza H0, la prueba resultó muy altamente significativa, al menos uno de los parámetros: el efecto
de la media común, y/o efecto del nivel i del factor A (para i=1,2 y 3), y/o del nivel factor B (para j =1,
2) sobre la variable respuesta.
- Para diferencia de nivel i menos el efecto del nivel 1 del factor (para i=2, 3)
a1 �
�
-1 1 0 �� � � b � ��
( ) ( ) � 0 0 �� 0
-
H 0 : Λ 2β 2 + Λ 2 �
X�I - PX* X 2 �X� I - PX* X 3β 3 = � �a 2 �+ � ��1 �= ��
�
�2 1 � 2 1
-1 0 1 �
� � b 2 � ��
0 0 �� 0
a3 �
�
� �
a1 �
�
�-1 1 0 �� � �� 0
H0 : � �a 2 �= ��
�
�-1 0 1 � 0
��
a3 �
�
� �
a1 �
�
-1 1 0 �� � ��
� 0
H1 : � � a 2 ����
�
-1 0 1 �
� 0
��
a3 �
�
� �
�b �
H 0 : [ -1 1] �1 �= 0
�b2 �
b �
�
H1 : [ -1 1] �1 ��0
b2 �
�