Vous êtes sur la page 1sur 32

Capítulo VII: Modelo de Gauss Markov de k-partes

7.1.- Introducción: En este capítulo se definirá el modelo de Gauss Markov (GM) de k-partes,
absorción de las ecuaciones normales (EN) reducidas, y condiciones de estimabilidad en el modelo de 2
partes

7.2 Modelo de GM de k partes

Sea y = Xβ + ε el modelo de GM
�β1 �
�p1 �1 � k
� �
sea β = M
� �
una partición de , β p = �
i =1
pi
�βk �
�pk �1�

� �
Sea nX =� X1 L X k � una partición de X
�p
� n�p1 n�pk �

�β1 �
�p1�1 �
� �� �
y = Xβ + ε = � X1 L Xk � M + ε = X1β1 + L + Xk β k + ε
� n�p1 n�pk �� �
�βk �
� 1�
pk �

1 1+ L + X kβ k +ε , se le llama
Definición 7.1: Cuando el modelo de GM se escribe como: y = Xβ
modelo de GM de k partes.

Ejemplo1: ANVA con dos factores


�m �
� �b1 �
�a1 �
� � �
(1) k=2, β1 = ,β = M
�M� 2 � �
� � �bq �
�ap� � �

�a1 � �b1 �
� � � �
(2) k=3, b1 = m , β 2 = �M�, β3 = �M�

ap� �bq �
� � � �
Ejemplo 2

1) Considere un experimento con dos factores A y B sin interacción

yijk = m + a i + b j + e ijk , para i = 1, 2 y 3 , j = 1, 2 , k = 1, 2

> y<-c(68,66,79,75,84,90,96,94,71,68,78,78)
> length(y)
[1] 12
> X<-matrix(rep(0,72),ncol=6)
> fix(X)
> X
col1 col2 col3 col4 col5 col6
[1,] 1 1 0 0 1 0
[2,] 1 1 0 0 1 0
[3,] 1 1 0 0 0 1
[4,] 1 1 0 0 0 1
[5,] 1 0 1 0 1 0
[6,] 1 0 1 0 1 0
[7,] 1 0 1 0 0 1
[8,] 1 0 1 0 0 1
[9,] 1 0 0 1 1 0
[10,] 1 0 0 1 1 0
[11,] 1 0 0 1 0 1
[12,] 1 0 0 1 0 1
> X1<-X[,1:4]
> X1
col1 col2 col3 col4
[1,] 1 1 0 0
[2,] 1 1 0 0
[3,] 1 1 0 0
[4,] 1 1 0 0
[5,] 1 0 1 0
[6,] 1 0 1 0
[7,] 1 0 1 0
[8,] 1 0 1 0
[9,] 1 0 0 1
[10,] 1 0 0 1
[11,] 1 0 0 1
[12,] 1 0 0 1
> X2<-X[,5:6]
> X2
col5 col6
[1,] 1 0
[2,] 1 0
[3,] 0 1
[4,] 0 1
[5,] 1 0
[6,] 1 0
[7,] 0 1
[8,] 0 1
[9,] 1 0
[10,] 1 0
[11,] 0 1
[12,] 0 1

Ejemplo 3

Escriba los componentes de la matriz X de manera similar que el caso de β


Caso (1)

Sea
�y111 � �e111 �
�M � �M �
� � � �
�y11n11 � �e11n11 �
� � � � �1 1 0 L 0 �
�m � �y121 � �e121 � �n1g� 1 n1g�
1 n1g�
1 n1g�
1

� �b �
�a1 �

1
� �
�M � �M � �1 0 1 L 0 �
β1 = , β 2 = �M�, y = � �,ε=� �, X = �n2 g�1 n2 g�
1 n2 g�
1 n2 g�1
�,
�M� �y12 n12 � �e12 n12 � 1
�M M M O M�
� � �bq � � � � � � �
ap� � �
� �M � �M � � 1 0 0 L 1 �
�y pq1 � �e pq1 � �n p g�
1 n p g�
1 n p g�
1 1�
n p g�

� � � �
�M � �M �
�y pqn pq � �e pqn pq �
� � � �

�n1�1 0 L 0 �
n11�
1 n11�
1
�11 �
�0 1 L 0 �
�n12 �1 n12 �
1 n12 �1

�M M O M�
� �
� 0 0 L 1 �
n1q �1 n1 q �
1 n1q �1
� �
� 1 0 L 0 �
n21� n21� n21�
� 1 1 1

�0 1 L 0 �
n22 �
�n22 �1 1 n22 �1

X 2 = �M M O M �.
� �
� 0 0 L 1 �
n2 q �
1 n2 q �
1 n2 q �
1
� �
�M M M M�
�1 0 L 0 �
�n p1�1 n p1�
1 1�
n p 1�
� �
� 0 1 L 0 �
n p 2�
1 n p 2�
1 n p 2�
1
� �
�M M O M�
�0 0 L 1 �

�n pq �
1 n pq �
1 1�
n pq � �

Luego,

1 1+ X 2β 2 +ε
y = Xβ
7.2 Absorción (Asimilación), y las ecuaciones normales reducidas

Considere un modelo de GM de dos partes:

y = Xβ1 1+ X 2β 2 +ε

Las ecuaciones normales (EN):

�b1 �
X�
� X�
1 X1 1X 2 � X�
�p1�1 �= � 1y �

X� X� �� � �
X� �
� 2 X1 2 X 2 �b 2 � 2y �

� 1�
p2 � �
Suponga que p = p1 + p2 es un número grande. Se necesita encontrar una manera más fácil de
solucionar las EN.

Suponga que es fácil hallar una g-inversa de X�


1 X1 (o equivalentemente es fácil solucionar las primera

p1 ecuaciones para b1 en término de b 2 )

Se puede usar el siguiente método llamado absorción, para reducir el problema de computación.

Las EN pueden ser expresados como

1° X� � �
1 X1b1 = X1 y - X1 X 2b 2

2° X� � �
2 X1b1 + X 2 X 2b 2 = X 2 y

Multiplicando por la izquierda de ambos miembros por X1 ( X�


1 X1 ) en la ecuación dado en 1°, se tiene:
-

PX1 X1b1 = PX1 y - PX1 X 2b 2


X1b1 = PX1 y - PX1 X 2b 2

Sustituyendo éste resultado en la ecuación dado en 2°, se tiene


X�2�
�PX1 y - PX1 X 2b 2 �
�+ X� �
2 X 2b 2 = X 2 y

X� ( ) � (
2 I n - PX1 X 2b 2 = X 2 I n - PX1 y )
Definición 7.2: A las ecuaciones dada en X� ( ) � ( )
2 I n - PX1 X 2b 2 = X 2 I n - PX1 y se le llama EN reducidas.

Se dice que el bloque de EN dada en 2° absorbe a las ecuaciones dada en el bloque 1°.

Estas EN reducidas son consistentes.

La idea es la siguiente: ( X�
1 X1 ) , o ( X1 X1 ) fácil de computar. Luego, se tiene
-1 -
� PX1 , luego se puede
solucionar las EN reducidas sin muchos problemas computacional para b 2 . Luego sustituyendo b 2 en
X� � �
1 X1b1 = X1 y - X1X 2b 2 , se puede solucionar estas ecuaciones y obtener b1 . A este método se le llama
absorción.

Ejemplo 4:

Considere un experimento con dos factores A y B sin interacción

yijk = m + a i + b j + e ijk , para i = 1, 2 y 3 , j = 1, 2 , k = 1, 2

> y<-c(68,66,79,75,84,90,96,94,71,68,78,78)
> X1tX1<-t(X1)%*%X1
> X1tX2<-t(X1)%*%X2
> X2tX1<-t(X2)%*%X1
> X2tX2<-t(X2)%*%X2
> XtX<-t(X)%*%X
> XtX
col1 col2 col3 col4 col5 col6
col1 12 4 4 4 6 6
col2 4 4 0 0 2 2
col3 4 0 4 0 2 2
col4 4 0 0 4 2 2
col5 6 2 2 2 6 0
col6 6 2 2 2 0 6
> X1tX1
col1 col2 col3 col4
col1 12 4 4 4
col2 4 4 0 0
col3 4 0 4 0
col4 4 0 0 4
> X1tX2
col5 col6
col1 6 6
col2 2 2
col3 2 2
col4 2 2
> X2tX1
col1 col2 col3 col4
col5 6 2 2 2
col6 6 2 2 2
> X2tX2
col5 col6
col5 6 0
col6 0 6
> Xty<-t(X)%*%y
> X1ty<-t(X1)%*%y
> X2ty<-t(X2)%*%y
> Xty
[,1]
col1 947
col2 288
col3 364
col4 295
col5 447
col6 500
> X1ty
[,1]
col1 947
col2 288
col3 364
col4 295
> X2ty
[,1]
col5 447
col6 500
> library(MASS)
> G1<-ginv(X1tX1)
> G1
[,1] [,2] [,3] [,4]
[1,] 0.046875 0.015625 0.015625 0.015625
[2,] 0.015625 0.171875 -0.078125 -0.078125
[3,] 0.015625 -0.078125 0.171875 -0.078125
[4,] 0.015625 -0.078125 -0.078125 0.171875
> PX1<-round(X1%*%G1%*%t(X1),4)
> PX1
[,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8] [,9] [,10] [,11] [,12]
[1,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[2,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[3,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[4,] 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
[5,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[6,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[7,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[8,] 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25 0.00 0.00 0.00 0.00
[9,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
[10,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
[11,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25
[12,] 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.25 0.25 0.25 0.25

> In<-diag(rep(1,12))
> t(X2)%*%(In-PX1)%*%X2
col5 col6
col5 3 -3
col6 -3 3

> t(X2)%*%(In-PX1)%*%y
[,1]
col5 -26.5
col6 26.5

Luego las ecuaciones normales reducidas:

�3 -3� �-26.5�
� b2 = �
� �
�-3 3 � �26.5 �
> LIENR<-t(X2)%*%(In-PX1)%*%X2
> LDENR<-t(X2)%*%(In-PX1)%*%y
> GLIENR<-ginv(LIENR)
> b2est<-GLIENR%*%LDENR
> b2est
[,1]
[1,] -4.416667
[2,] 4.416667
> b1est<-G1%*%(X1ty-X1tX2%*%b2est)
> b1est
[,1]
[1,] 59.1875
[2,] 12.8125
[3,] 31.8125
[4,] 14.5625

Ejemplo 5:

Modelo con dos factores A y B sin interacción, modelo en dos partes:

yijk = m + a i + b j + e ijk , i = 1, K , p , j = 1, K , q , k = 1, K , nij

Las EN tiene 1 + p + q parámetros. Se reducirá a un problema con sólo q ecuaciones con q parámetros
desconocidos

�ngg n1g L n p g ng1 L ngq ��mˆ � �yggg �


�n n1g L 0 n11 L n1q � �
aˆ1 � � �
�1g �� � �y1gg �
�M M O M M O M��M� �M �
� �� � � �
�npg 0 L n p g n p1 L aˆ p �= �y p gg�
n pq ��
�ng1 n11 L n p1 ng1 L 0 ��b1 � �yg1g�
� �� � � �
�M M O M M O M��M� �M �
�ngq n1q L n pq 0 L ngq � �
bq � � �
� �� � �ygq g�

Si hacemos:

�ngg n1g L n p g� �ng1 L ngq �


� � � � �ng1 n11 L n p1 �
�n1g n1g L 0� n L n � �
X =� �, X�
11 1 q
X�X = , X� X = M M O M�
1 1
�M M O M� 1 2 �M O M� 2 1 �
� � � � �ngq n1q L n pq �
npg 0 L n p g� n p1 L n pq � � �
� �
�yggg �
�ng1 L 0� �y � �yg1g�
� � � 1gg � � �
2X2 = �
X� M O M�, X� 1y = , X� 2 y = �M �.
�M �
�0 L ngq � � � �ygq g�
� � �y p gg� � �

Luego, una g-inversa de X�


1 X1 es
0
� 0 L 0 �

0 1 n1g L 0 �
( X�
1 X1 ) =� �, entonces
-


M M O M�
� �
0
� 0 L 1 n p g�

0
� 0 L 0 �� ng1 L ngq �
�ng1 n11 L n p1 �� ��
� �0 1 n1g L 0 �� n11 L n1q �
2 X1 ( X1 X1 ) X1 X 2 = �M M�� �
-
X� � � M O

M M O M ��M O M�
�ngq n1q L n pq �� �� �
� �0 L 1 n p g�� L n pq �
� 0 n p1
� 0 0 L 0 �
�ng1 n11 L n p1 ��
� � n11 n1g n12 n1g L n1q n1g �
2 X1 ( X1 X1 ) X1 X 2 = �M M��
X� �
-
� M O �
� M M O M �
�ngq n1q L n pq �
� ��n p1 n p g np 2 n pg L

n pq n p g�

�p ni1ni1 p
ni1niq �
��
i =1 ni g
L �n �
� i =1 ig �

2 X1 ( X1 X1 ) X1 X 2 =
-
X� � � � M O M �, y
�p �
� niq ni1 L niq niq �
p

�� � �
�i =1 ni g i =1 ni g �

�ni1ni1 ni1niq �
� L
�ng1 L 0 � p �ni g ni g � �
� �
X� (
2 I n - PX1 ) X2 = X�
2 X 2 - X 2 PX1 X 2 = �
� M O M�- �� M O
i =1 �
M �

�0 L ngq � niq ni1 niq niq �
� � � L
�n ni g �
� ig �

� p
nij2
�ngj - � , si k = j
� i =1 ni g
El elemento ( j , k ) -ésimo al lado derecho de esta última igualdad está dado por: � q
�- nij nik , si k �j
� �
� i =1 ni g

El lado derecho de las EN reducidas:


�0 0 L 0 ��yggg �
�yg1g� � ng1 n11 L n p1 ��
� �� �0 1 n1g L 0 � � �
��y1gg �
X� (
2 I n - PX1 ) 2 y - X 2 X1 ( X1 X1 ) X1y = �M �
y = X� � �
-
� - �M M O M��
�M M O M ��M �
�ygq g� �ngq n1q L n pq �
� �� ��0 0
�� �
L 1 n p g��y p gg�

�0 �
�y �
n p1 �� �
1gg
�yg1g� � ng1 n11 L
� �� ��n1g �
X� ( )
2 I n - PX1 y = X 2 y - X 2 X1 ( X1 X1 )
� � �
-
1y = �M �
X� - �M M O M�� �
�ygq g� �ngq n1q L n pq ��M �
� �� ��y �
p gg
� �
�n p g �
�p �ni1 � � � p
�ni1 � �
�� � �i gg� � g1g �� �yi gg �
y y -
�i =1 �ni g � � � i =1 �ni g � �
�yg1g� �p � �
�y � � �ni 2 � � �
p
�ni 2 � �
X� ( ) y = X� - � ( � )
-
� = �g2g�- � � � �yi gg
�= �
yg2 g - �� �yi gg�
ni g � �
2 I n - PX1 y X X X X X y n
2 2 1 1 1 1
�M � �i =1 � i g � � � i =1 �

� �� M � � M �
�ygq g�
�p �n � � � p
�niq � �
��� �i gg� �gq g �
iq
y
�i =1 �ni g � �
� �y - � �yi gg�
i =1 � �
ni g � �
� �

p
�nij �
Lo cual demuestra que es el vector q �1 cuyo j-ésimo elemento es gj g �� �yi gg , para j = 1, K , q
y -
i =1 �ni g �

Las EN reducidas: X� ( � )
2 I n - PX1 X 2b 2 = X 2 I n - PX1 y ( )
� p
ni1ni1 p
n n p
ni1niq � � p
�ni1 � �
�g1 � n
n - - � i1 i1 L -� � �y g
1 g - � � �yi gg �
� i =1 i g i =1 ni g i =1 n ig � � i =1 �ni g � �
� p ni 2ni1 p
n n p
n n �� bˆ � � p
�n � �
�-� ng2 - � i 2 i 2 L -� i 2 iq ��1 � �yg2 g - �� i 2 �yi gg�
� i =1 ni g i =1 ni g i =1 ni g ��M�= � i =1 �ni g � �
� �� �
ˆ � �� �
M M O M b
� M �
� � q

� p niq ni1 p
niq ni 2 p
nn � � p
�n � �
�- � n -�
ni g
L ngq - � i1 i1 � �ygq g - �� iq �yi gg�
� i=1 i g i =1 i =1 ni g � � i =1 �ni g � �
� �


Esto puede ser calculado por paquetes estadístico como el R para b 2 = �
�bˆ1 L bˆq � �
1 X1 ) ( X1y - X1 X 2b 2 )
1 X1b1 = X1y - X1 X 2b 2 , luego b1 = ( X�
De las EN dada en 1° : X� � � % -
� � %
Para este ejemplo se tiene:

�mˆ � � 0 0 L 0 ��yggg � � 0 0 L 0 ��ng1 L ngq �



� � � �� � � bˆ1 �
�aˆ1 � � 0 1 n1g L 0 ��y1gg� � 0 1 n1g L 0 ��

�n11 L n1q ���M�

%
b1 = = - �
�M� � M M O M ��M � � M M O M ��M O M�� �
� �� �� � � �� �bˆq �
�aˆ p � �0 0 L 1 n p g��y p gg� �0 0 L 1 n p g��
n p1 L n pq ��

�0 � �0 � � 0 �
� � � � �q �
�mˆ � �y1gg � � 0 0 L 0 � y1gg � � �n1 j �ˆ �
� � �
aˆ1 � �n1g � �n11 n1g n12 n1g L n1q n1g �


b1 �
ˆ

� �� 2 �b j
�n1g � �j =1 �n1g � �
b% = � = � �- ��M�= � �- � �
1
�M� �M � � M M O M �� � �M � � M �
� � � �� �bˆq
�aˆ p � y p gg � n p1 n p g n p 2 n p g L n pq n p g�� � �y p gg� q �n pj � �

� � � �� � � 2 �
bˆ j �
�n p g � � p g � �j =1 �n p g � �
n � � �

� 0 �
� �
�mˆ � �y - �n1 j �bˆ �
q

� 1gg � �2 �j �
aˆ1 � � j =1 �n1g �
b%1 = � �= � �
�M� � M �
� � � �
�aˆ p � � q �
n pj �ˆ �
�p gg �
y - �2 � b
�n � j �
j =1 �
� p g � �

q
�nij �ˆ
En resumen se tiene mˆ = 0 , aˆ i = yi gg - �� � b j , para i = 1, K , p
j =1 �ni g �
7.3 Consideraciones de Absorción

En el modelo de GM de 2 partes, suponga que es fácil solucionar ( X�


2X2 ) ( X�
2X2 )
-1 -
o . En lugar de la
absorción del bloque 1° de las EN dentro del bloque 2°|, se puede absorver el bloque 2° dentro del
bloque 1°. Cuando ambos X� �
1 X1 y X 2 X 2 son fáciles de obtener y tomar las inversas(o inversas
generalizadas), entonces, absorver el bloque 1° dentro del bloque 2 si p1 > p2 , y el bloque 2° dentro del
bloque 1° si p2 > p1 .

�X�
1 X1 � � �
X = �p1�p2
X� � o X�
X = � X� �
� � � 1 X1 �
� � � p2 �p1 �

El elemento correspondiente a la partición a ( 2, 2 ) de la matriz X�


X es una g-inversa de
X� ( )
2 I n - PX1 X 2 , la matriz de las EN reducidas. (ver Searle 1.7 p. 27)
Sea λ � b%2 , donde b%2 es
β 2 estimable, entonces el estimador mínimo cuadrático ordinario (MCO) es λ �
cualquier solución de las EN reducidas. Luego,

Var �
� b%2 �
λ� �= s λ �
2

�X� �
2 I n - PX1 X 2 �λ( )
Se puede realizar inferencias de λ� β 2 . Encontrar primero βˆ 2 después hallar βˆ 1 en términos de βˆ 2 .
β1 + λ�

7.4.- Modelo A y su relación con el Modelo GM de 2 parte

1 1+ X 2β 2 +ε . Se llamará al modelo siguiente el modelo A (A


Sea el modelo de GM de 2 partes: y = Xβ
por absorción):

y* = Xβ 2 +ε ,
*

( )
donde y = I n - PX1 y y X = I n - PX1 X 2
* *
( )
Nótese que:
(I n )
- PX1 y = y - X1 ( X�
1 X1 ) X1y

-

= y - X1b%1 , donde b%1 es una solución de X� �


1 X1b1 = X1 y

= ε y gX1 , el vector de los residuos obtenido del ajuste de la


1 1 +ε
1ra parte sólo del modelo y = Xβ
* *
Entonces, ε y gX1 = y = X β 2 + ε es un modelo de ajuste de los residuos de modelo 1°

Sean c1 , …, cp2 las columnas de X 2 , esto es X 2 = �


�c1 , c2 ,…, cp2 �

Considere el modelo ci = X1h i , h i un vector la p1 �1 de parámetros, i = 1, K , p2

*
Este es un modelo de ajuste de ci con X1 . Note que la i-ésima columna de X = In - PX1 X2 es ( )
(I n )
- PX1 c i = ci - PX1 ci = ci - cˆ i = ci - X1hˆ i = el vector de los residuos del modelo ci = X1h i . Aquí ci es un
vector de datos; cˆ i es el valor ajustado con X1 .

*
Teorema: Las EN del modelo A ( ε Y X = X β 2 + ε son idénticas a las EN reducidas del modelo de GM de
2 partes.

Prueba
(
Modelo A: I n - PX1 y = I n - PX1 Xβ)
2 2+ ε ( )
� ��
Las EN: �

X� ( �
2 I n - PX1 �
�� ) (
I n - PX1 Xβ2 �

= I�
2X 2 nP

- X1 I nP- Xy1 ) ( )( )
X� (
2 I n - PX1 Xβ ) ( )
2 2 =X 2 I n -P X1 y , las EN reducidas del modelo de GM de 2 partes.

Note que las EN son las mismas del modelo: y = I n - PX1 Xβ (
2 2+ ε )
Ejemplo 5

Considere un experimento con dos factores A y B sin interacción

yijk = m + a i + b j + e ijk , para i = 1, 2 y 3 , j = 1, 2 , k = 1, 2


> LIMA<-(In-PX1)%*%y
> LDMA<-(In-PX1)%*%X2
> LIMA
[,1]
[1,] -4.00
[2,] -6.00
[3,] 7.00
[4,] 3.00
[5,] -7.00
[6,] -1.00
[7,] 5.00
[8,] 3.00
[9,] -2.75
[10,] -5.75
[11,] 4.25
[12,] 4.25
> LDMA
col5 col6
[1,] 0.5 -0.5
[2,] 0.5 -0.5
[3,] -0.5 0.5
[4,] -0.5 0.5
[5,] 0.5 -0.5
[6,] 0.5 -0.5
[7,] -0.5 0.5
[8,] -0.5 0.5
[9,] 0.5 -0.5
[10,] 0.5 -0.5
[11,] -0.5 0.5
[12,] -0.5 0.5
�-4 � �0.5 -0.5� e111 �

� 6 � �0.5 �
-0.5� �
e112 �
� � � � �
�7 � � -0.5 0.5 � e121 �

� � � � � �
�3 � � -0.5 0.5 � e122 �

�-7 � �0.5 -0.5� �
e 211 �
� � � � � �
� -1 � �0.5 -0.5��b1 � �e 212 �
Luego,
� 5 �= � -0.5 �
0.5 ��
b �+ �
e �
� � � � 2 � �221 �
�3 � � -0.5 0.5 � e 222 �

�-2.75� �0.5 -0.5� �
e �
� � � � �311 �
�-5.75� �0.5 -0.5� e 312 �

� � � � � �
�4.25 � �-0.5 0.5 � e 321 �


�4.25 �
� �
�-0.5 0.5 �
� �
e 322 �
� �
Ejemplo 6

En el Caso (2)
� 1� 1� L 1��
1�n1g 1�n2 g 1�n p g
� 1 1 0 L 0 � � �
�n1g� 1 n1g�
1 n1g�
1 n1g�
1 0
�� 0 L 0 ��1� 0� L 0��
�1 0 1 L �
0 �0 1 n1g L 0 � �1�n1g 1�n2 g 1�n p g�
1 � ��0�
PX1 = � � 0��
n2 g�1 n2 g�
1 n2 g�
1 n2 g�
1� L
�M M M O M�� M M O M �� 1�n1g 1�n2 g 1�n2 g�

� ��
0 0 L
��M
1 n p g�� M O M�
� 1 0 0 L 1 �� �
�n p g�
1 n p g�
1 n p g�
1 1�
n p g�
�0� 0� L 1��
�1�n1g 1�n2 g 1�n p g�

�1 1 0 L 0 �
�n1g� 1 n1g�
1 n1g�
1 n1g�
1
�� 0 L 0 L 0 L 0 �
�1 0 1 L �
0 �1/ n1g L 1/ n1g L 0 L 0 �
1 � �
PX1 = �n2 g�1 n2 g�
1 n2 g�
1 n2 g�

�M M M O M�� M M M O M M M �
� �� L L

L 1/ n p g�
� 1 0 0 L 1 �� 0 0 1/ n p g
�n p g�
1 n p g�
1 n p g�
1 1�
n p g�
1/ n1g
� L 1/ n1g 0 L 0 L 0 L 0 �
�M O M M O M O M O M �
� �

1/ n1g L 1/ n1g 0 L 0 L 0 L 0 �
� �
�0 L 0 1/ n2 g L 1/ n2g L 0 L 0 �
�M O M M O M L M O M �
PX1 = � �
�0 L 0 1/ n2 g L 1/ n2g L 0 L 0 �
�M O M M O M L M L M �
� �
�0 L 0 0 L 0 L 1/ n p g K 1/ n p g�
�M O M M O M O M O M �
� �

�0 L 0 0 L 0 L 1/ n p g L 1/ n p g�

1/ n1g
� L 1/ n1g 0 L 0 L 0 L 0 �
�M O M M O M O M O M �
� �

1/ n1g L 1/ n1g 0 L 0 L 0 L 0 �
� �
0 L 0 1/ n2g L 1/ n2g L 0 L 0 �
1 L
� 0� �
�M O M M O M L M O M �

I n - PX1 = �
MO M�- � �
� �0 L 0 1/ n2g L 1/ n2g L 0 L 0 �

0 L
� 1�
� �M O M M O M L M L M �
� �
�0 L 0 0 L 0 L 1/ n p g K 1/ n p g�
�M O M M O M O M O M �
� �

�0 L 0 0 L 0 L 1/ n p g L �
1/ n p g�
1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 �
� M O M M O M O M O M �
� �
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 �
� �
� 0 L 0 1 - 1/ n2g L -1/ n2g L 0 L 0 �
� M O M M O M L M O M �
I n - PX1 = � �
� 0 L 0 -1/ n2g L 1 - 1/ n2g L 0 L 0 �
� M O M M O M L M L M �
� �
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g �
� M O M M O M O M O M �
� �

� 0 L 0 0 L 0 L -1/ n p g L 1 - 1/ n p g�

1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 ��y111 �
� M �M �
� O M M O M O M O M � �� �
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 ��y11n11 �
� �� �
� 0 L 0 1 - 1/ n2 g L -1/ n2 g L 0 L 0 ��y121 �
� M O M M O M L M O M �� M �
(
y * = I n - PX1 ) y=�
� 0 L 0 -1/ n2 g L 1 - 1/ n2g L 0 L
��
0 ��y12 n12 �

� M � �
O M M O M L M L M �� M �
� �
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g ��y pq1 �
� M � �
O M M O M O M O M �� M �
� �

� 0 L 0 0 L 0 L -1/ n p g ��
L 1 - 1/ n p g� y pqn pq �
� �

1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 ��y111 �
� M �M �
� O M M O M O M O M � �� �
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 ��y11n11 �
� �� �
� 0 L 0 1 - 1/ n2 g L -1/ n2g L 0 L 0 ��y121 �
� M O M M O M L M O M �� M �
(
y* = I n - PX1 ) y=�
� 0 L 0 -1/ n2 g L 1 - 1/ n2 g L 0 L
��
0 ��y12 n12 �

� M � �
O M M O M L M L M �� M �
� �
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g ��y pq1 �
� M � �
O M M O M O M O M �� M �
� �
� L L L -1/ n p g L 1 - 1/ n p g��y pqn pq �
� 0 0 0 0 �� �
� n11

� 111 �y11k �
y -
� k =1

� M �
� n11 �
�y - y �
� 11n11 � k =1
11k

� n

�y - 12 y �
� 121 � k =1
12 k �

� �
� M �
(
y * = I n - PX1 ) y=� n12 �
�y12 n - �y12 k �
� 12 k =1 �
� M �
� �
� n pq

�y pq1 - �y pqk �
� k =1 �
� M �
� n pq

� �
�y pqn pq - �y pqk �
� k =1 �
( )
X* = I n - PX1 X 2 =
� 1 L 0 �
n11� 1 n11�
1
� �
1 - 1/ n1g
� L -1/ n1g 0 L 0 L 0 L 0 ��M O �
� M O M M O M O M O M � � �
� �� 0 L 1 �
n1q �1 n1 q �
1
�-1/ n1g L 1 - 1/ n1g 0 L 0 L 0 L 0 �� �
� �1 L 0 �
� 0 L 0 1 - 1/ n2g L -1/ n2 g L 0 L 0 �� n � 1 n21� 1
�21 �
� M O M M O M L M O M ��M O M�
� �
� 0 L 0 -1/ n2g L 1 - 1/ n2 g L 0 L 0 ��0 L 1 �
�n2 q �
1 1�
n2 q �
� M O M M O M L M L M �� �
� ��M M M�
� 0 L 0 0 L 0 L 1 - 1/ n p g K -1/ n p g ��
1 L 0 �
� M O M M O M O M O M �� n p1�1 n p1�1�
� ��
� L L L -1/ n p g L 1 - 1/ n p g� M O M�
� 0 0 0 0 �� �
�0 L 1 �
�n pq �
1 1�
n pq �
� n11 �
1-
� 0 L 0 �
n1.
� �
� M M L M �
� �
� n
1 - 11 0 L 0 �
� n1. �
� �
� 0 n
1 - 12 L 0 �
� n1. �
� �
� M M L M �
� n �
� 0 1 - 12 L 0 �
� n1. �
� M M O M �
� �
� n1q �
� 0 0 L 1-
� n1. ��
� M M M M �
� �
� 0 n1q �
0 L 1-
� n1. �
� �
(
X* = I n - PX1 ) X2 = � M
� n
M M M �


1 - p1 0 L 0 �
� n1. �
� �
� M M M M �
� n p1 �
1-
� 0 L 0 �
� np. �
� n �
� 0 1 - p1 L 0 �
� n p. �
� �
� M M M M �
� n �
� 0 1 - p1 L 0 �
� n p. �
� �
� M M O M �
� n �
� 0 0 L 1 - pq �
� n p. �
� �
� M M M M �
� n �
� 0 0 L 1 - pq �
� n p. �
�b%1

Teorema: Sea �%�cualquier solución de las EN del modelo GM de dos partes. Las SCResid del
�b2 �
modelo de GM de 2 partes = a las SCResid del modelo A (o modelo de absorción). Esto es,
y� ( )
1 X1y - b 2 X 2 y = y I n - PX1 y - b 2 X 2 I n - PX1 y
y - b�� �� � � � ( )
( 1) ( 2)
Comentarios
Nótese que (1) = la SCResid de las EN reducidas.
= la SCResid de las EN del modelo de absorción.
b%2 es una solución de las EN reducidas.
Prueba:
% � % �
X� 1 X1b1 = - X 2 X 2b 2 + X1y , la EN de 1°.

Multiplicando a la izquierda por X1 ( X�


1 X1 ) , se tiene que
-

P X b% = -P X�
X1 1 1 b% + P y
X1 2 2 X1

(1) X1b% � %
1 = PX1 y - PX1 X 2b 2

Entonces
y - b%
y� �� %
1 X 1y - b 2 X 2 y
��

y-�
= y� PX1 y - PX1 X�%� � % ��
� 2b 2 �y - b 2 X 2 y

= y� P y + b%
y - y� X1
��X P y - b%
2
��
Xy 2 X1 2 2

( )
= y�I n - PX1 y + b%
��
2 X 2 I n - PX1 y ( )
= SCRes del modelo A

Teorema: λ�
2β 2 es estimable bajo el modelo A (absorción) � es estimable bajo el modelo de GM de 2
partes

Prueba
� Sea λ�
2β 2 estimable bajo el modelo A. Entonces existe
a , n �1 tal que λ� ��
I n - PX1 �
2 =a � �X 2 . Pero
X = [ X1 X 2 ] , [ 0λ 2 ]a= I - P
� � �n ( X1 )
X[ X
1 2 (- Pn
]a= I � X
X1 ) X(
�F ) , desde que
� �
( )
a�I n - PX1 [ X1 X2 ] = � (
a�I n - PX1 X1 a�I n - PX1 X 2 �. ) ( )
� =0 �
β1 �

2β 2 = [ 0
Entonces, λ� 2 ] � �es estimable bajo el modelo de GM de 2 partes
� λ�
β2 �

� Sea λ� 2β 2 estimable bajo el modelo de GM de 2 partes. Entonces, existe


a , n �1 , tal que
[ 0λ� �
2 ]a=X = a X[
� � 1X 2 ] . Entonces λ� 2 = a X 2 y a X1 = 0 . Por la proposición 1.5
� �

�n ( 1 ) 1 � .
I n - ( X�
� 1 ) X1 �

z , donde z es cualquier vector, a = � �
- -
a = X�
10 + �
� I - X� X� z
1 ( X1 X1 ) , ( X�
1 X1 )
- -
1 X1 . Entonces, a = �
Una g-inversa de X�
1 es X� � cualquier g-inversa de X� �
I n - PX1 �
�z .
2 = a X2 = z �
Luego, λ� � ��
I n - PX1 �
�X 2 �F �
I n - PX1 �
� (
�X 2 . Entonces, λ � )
2β 2 es estimable bajo el modelo A.

Observaciones

Considere un modelo de Gauss Markov en dos partes:

y = Xβ1 1+ X 2β 2 +ε
�b%
1

Sea �%�una solución cualquiera de las ecuaciones normales (para este modelo de 2 partes).
�b2 �

Observe que:

SCR ( β 2 β1 ) = SCR ( β1 ,β 2 ) - SCR ( β1 )


= b%X�y + b%X�
1 1 y - y�
2 P y 2 X1

- Reemplazar y �
PX1 y por y�
y - y�I - PX1 y ( )
- Sumar y restar b%2 X� (
2 I - PX1 y )
SCR ( β 2 β1 ) = SCR ( β1 ,β 2 ) - SCR ( β1 )
= b% � % � { ( % � ) } ( % � ) (
1 X1 y + b 2 X 2 y - y y - y I - PX1 y + b 2 X 2 I - PX1 y - b 2 X 2 I - PX1 y
� � )
{ ( )
= y �I - PX1 y - b%2 X�
2 I - PX1( ) y} - { y �
y - b%X�
1 y - b%X�
1 y} + b%X�( I - P ) y
2 2 2 2 X1

Nótese que los dos primeros componentes, en llaves, se anulan, debido a que son las sumas de cuadrados
de los residuos de los modelos de dos partes y modelo de absorción, como se pudo ver eran iguales.
Luego

SCR ( β 2 β1 ) = b%2 X� (
2 I - PX1 y )
También se tiene que:

SCR ( β1 β 2 ) = SCR ( β1 ,β 2 ) - SCR ( β 2 )


SCR ( β1 β 2 ) = SCR ( β 2 β1 ) + SCR ( β1 ) - SCR ( β 2 )

Un procedimiento de cálculo de las sumas de cuadrados, depende cuál de las matrices sea más fácil de
1 X1 y X 2 X 2 o de p1 > p2 o que p2 > p1 :
invertir X� �
1.- Calcular SCR ( β 2 ) y SCR ( β1 )
2.- SCR ( β β ) = b%X�I - P y
2 1 2 2 ( X1 )
3.- SCR ( β1 β 2 ) = SCR ( β 2 β1 ) + SCR ( β1 ) - SCR ( β 2 )

De estas propiedades se generan los siguientes cuadros de ANVA

Para realizar inferencia sobre β 2

Fuente de Variación GL SC
β1 r1 SCR ( β1 )
β 2 después de β1 r2 SCR ( β 2 β1 )
Residuos n-r SC Re s
Total n y�
y

Para realizar inferencia sobre β1

Fuente de Variación GL SC
β2 r1 SCR ( β 2 )
β1 después de β 2 r2 SCR ( β1 β 2 )
Residuos n-r SC Re s
Total n y�
y

Donde r = r1 + r2 , ri = rango ( X�
i X i ) , para i = 1, 2

Para un modelo de rango completo (caso de regresión lineal) se puede probar las siguientes
hipótesis

- Con el primer cuadro de ANVA


H 0 : β 2 = 0 , estando incluido en el modelo β1

Bajo el supuesto de normalidad de errores se puede utilizar la siguiente estadística

�SCR ( β 2 β1 ) �
� �
� r2 �: F
F= ( r2 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �

- Con el segundo cuadro de ANVA

H 0 : β1 = 0 , estando incluido en el modelo β 2


Bajo el supuesto de normalidad de errores se puede utilizar la siguiente estadística

�SCR ( β1 β 2 ) �
� �
� r1 �: F
F= ( r1 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �

Para un modelo de rango incompleto se puede probar las siguientes hipótesis

- Con el primer cuadro de ANVA

H 0 : Λ 2β 2 = 0 , sobre r2 funciones estimables formado por r2 contrastes diferentes de


comparaciones dos a dos de componentes de β 2

Bajo el supuesto de normalidad de errores se puede utilizar la siguiente estadística

�SCR ( β 2 β1 ) �
� �
� r2 �: F
F= ( r2 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �

- Con el segundo cuadro de ANVA

H 0 : Λ1β1 = 0 , sobre r1 funciones estimables formado por r1 contrastes diferentes de


comparaciones dos a dos de componentes de β1

Bajo el supuesto de normalidad de errores se puede utilizar la siguiente estadística

�SCR ( β1 β 2 ) �
� �
� r1 �: F
F= ( r1 , n - r ) / H 0 es verdadera
�SC Re s �
� �
�n-r �
Ejemplo:
1.- Como parte de un estudio para investigar las relaciones entre el estrés y algunas otra variables, se recolectaron
los siguientes datos de una muestra aleatoria de 15 ejecutivos industriales, dado en el archivo estres.txt. A
continuación se dan las variables estudiadas:

Y : Mediciones de estrés
X 1 : Mediciones de tamaño firme
X 2 : Número de años en el mismo puesto
X 3 : Salario anual en miles de dólares
X 4 : Edad

Pruebe si la contribución adicional de X 1 y X3, estando las otras dos variables restante
b �
� 0
��
H 0 : β 2 = 0 , siendo β 2 = �1 �, 0 = ��
b3 �
� 0
��

> estres<-read.table("estres.txt",T)
> str(estres)
'data.frame': 15 obs. of 5 variables:
$ Y : int 101 60 10 27 89 60 16 184 34 17 ...
$ X1: int 812 334 377 303 505 401 177 598 412 127 ...
$ X2: int 15 8 5 10 13 4 6 9 16 2 ...
$ X3: int 30 20 20 54 52 27 26 52 34 28 ...
$ X4: int 38 52 27 36 34 45 50 60 44 39 ...
> mod<-lm(Y~.,estres)
> X1<-as.matrix(estres[,-1])
> uno<-rep(1,nrow(X1))
> X<-cbind(uno,X1)
> XtX<-t(X)%*%X
> beta<-coefficients(mod)
> lambda<-rbind(c(0,1,0,0,0),c(0,0,0,1,0))
> SCH0<-t(lambda%*%beta)%*%solve(lambda%*%solve(XtX)%*%t(lambda))%*% (lambda%*%beta)
> SCH0
[,1]
[1,] 15990.85
> SCE<-deviance(mod)
> GLE<-df.residual(mod)
> CME<-SCE/GLE
> r<-qr(lambda)$rank
> r
[1] 2
> Fc<-(SCH0/r)/CME
> Fc
[,1]
[1,] 13.84505
> pvalue<-1-pf(Fc,r,GLE)
> pvalue
[,1]
[1,] 0.00131481
> X1<-X[,-c(2,4)]
> X2<-X[,c(2,4)]
> X1tX1<-t(X1)%*%X1
> Px1<-X1%*%solve(X1tX1)%*%t(X1)
> I15<-diag(rep(1,15))
> y<-estres[,1]
> X2ipX2<-t(X2)%*%(I15-Px1)%*%X2
> X2ipy<-t(X2)%*%(I15-Px1)%*%y
> iX2ipX2<-solve(X2ipX2)
> beta2<-iX2ipX2%*%X2ipy
> beta2
[,1]
X1 0.1762934
X3 1.5745378
> SCb2b1<-t(beta2)%*%X2ipy
> SCb2b1
[,1]
[1,] 15990.85

2.- Se tiene datos de un experimento con dos factores A y B

A B
b1 b2
a1 68, 66, 65 79, 75, 76
a2 84, 90, 87 96, 94, 93
a3 71, 68, 74 78, 78, 80

Considere el siguiente modelo de dos factores sin interacción:

yijk = m + a i + b j + e ijk , i = 1, 2 y 3 , j = 1, 2 , k = 1, 2, 3
a) Pruebe la siguiente hipótesis:

2 β 2 = 0 , dado que β1 está en el modelo


H 0 : λ�
o H 0 : b 2 - b1 = 0 , dado que β1 está en el modelo
a) Usando el modelo de dos partes
siendo λ � 2 = [ -1 1] β1 = [ m a1 a 2 a 3 ] y β�
2 = [ b1 b2 ]

> y<-c(68,66,65,79,75,76,84,90,87,96,94,93,71,68,74,78,78,80)
> A<-c(rep("a1",6),rep("a2",6),rep("a3",6))
> B<-rep(c(rep("b1",3),rep("b2",3)),3)
> X1<-matrix(0,18,4)
> fix(X1)
> X2<-matrix(0,18,2)
> fix(X2)
> library(MASS)
> X1tX1<-t(X1)%*%X1
> G1<-ginv(X1tX1)
> Px1<-X1%*%G1%*%t(X1)

> round(Px1,4)
[,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8] [,9] [,10]
[1,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[2,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[3,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[4,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[5,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[6,] 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000
[7,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[8,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[9,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[10,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[11,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[12,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667
[13,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[14,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[15,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[16,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[17,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[18,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[,11] [,12] [,13] [,14] [,15] [,16] [,17] [,18]
[1,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[2,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[3,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[4,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[5,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[6,] 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[7,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[8,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[9,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[10,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[11,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[12,] 0.1667 0.1667 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
[13,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[14,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[15,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[16,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[17,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667
[18,] 0.0000 0.0000 0.1667 0.1667 0.1667 0.1667 0.1667 0.1667

> I18<-diag(rep(1,18))
> X2ipX2<-t(X2)%*%(I18-Px1)%*%X2
> X2ipy<-t(X2)%*%(I18-Px1)%*%y
> G2<-ginv(X2ipX2)
> b2<-G2%*%X2ipy
> b2
[,1]
[1,] -4.222222
[2,] 4.222222
> SCb2b1a<-t(b2)%*%X2ipy
> SCb2b1a
[,1]
[1,] 320.8889
> beta1<-G1%*%t(X1)%*%y
> beta1
[,1]
[1,] 59.25000
[2,] 12.25000
[3,] 31.41667
[4,] 15.58333
> SCbeta1<-t(beta1)%*%t(X1)%*%y
> SCbeta1
[,1]
[1,] 113596.3
> G2<-ginv(t(X2)%*%X2)
> beta2<-G2%*%t(X2)%*%y
> beta2
[,1]
[1,] 74.77778
[2,] 83.22222
> SCbeta2<-t(beta2)%*%t(X2)%*%y
> SCbeta2
[,1]
[1,] 112658.9
> SCb1b2<-SCb2b1a+SCbeta1-SCbeta2
> SCb1b2
[,1]
[1,] 1258.333
> mod<-lm(y~A+B)
> anva<-aov(mod)
> summary(anva)
Df Sum Sq Mean Sq F value Pr(>F)
A 2 1258.3 629.2 135.98 6.74e-10 ***
B 1 320.9 320.9 69.35 8.55e-07 ***
Residuals 14 64.8 4.6
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

β = 0,
H 0 : λ� donde = [ 0 0 0 0 -1 1]
λ� , = [ m a1 a 2 a 3
β� b1 b 2 ]

> X<-cbind(X1,X2)
> XtX<-t(X)%*%X
> Xty<-t(X)%*%y
> library(MASS)
> iXtX<-ginv(XtX)
> beta<-iXtX%*%Xty
> beta
[,1]
[1,] 43.090909
[2,] 6.863636
[3,] 26.030303
[4,] 10.196970
[5,] 17.323232
[6,] 25.767677
> lambda<-c(0,0,0,0,-1,1)
> SCH0<-(t(lambda)%*%beta)%*%solve(t(lambda)%*%iXtX%*%lambda)%*%t(lambda)%*%beta
[,1]
[1,] 320.8889

ANVA para el Modelo de k partes

Considere el siguiente modelo:

1 1+ X 2β 2+ L + X kβ k+ ε
y = Xβ

Sean X j = � �y β j�= [ β1 L
Xj � β k ] , para j = 1, K , k
*
X1 L

*

Donde � �X1 L Xk � �representa una partición de la matriz X , Entonces usando la notación definida
para el caso del modelo de dos partes se tiene:

SCR ( β j β1 L β j-1 ) = y �
PX* y - y �
PX* y
j j-1


= y�P - P �y
�X*j X*j-1 �

La siguiente descomposición es un ANVA

Fuente de Variación GL SC
β1 r1 SCR ( β1 )
β 2 después de β1 r2 - r1 SCR ( β 2 β1 )
β 3 después de β1 y β 2 r3 - r2 SCR ( β 3 β*2 )
M M M
β k después de β1 , β 2 , K βk-1 rk - rk -1 SCR ( β k β*k -1 )
Residuos n-r SCR (
yβ- ,…,β
y� )
1 k

Total n y�
y
Donde rj = rango �
X1 L
� ( Xj � )
�= rango ( X j ) , para j = 1,K , k , y r = rango ( X ) = rk
*

Observación:

Nótese que X j = PX*j X j = PX*j � Xj � � PX* X j �


�= �
* *
�X*j-1 PX* X*j-1
j j �
O sea:
�X*j-1 X j � � PX* X j �
� �= � PX* X*j-1
j j �
Por tanto:
PX* X*j-1 = X*j-1
j

Luego, usando el resultado de arriba, se puede mostrar que PX*j - PX*j-1 es idempotente y de rango igual a

( )
rango PX* - rango PX*
j
( ).
j-1

Estadística de prueba

De acuerdo con el teorema de Cochran, la suma de cuadrados en la tabla del ANVA se distribuyen en
forma independientes, y cada suma de cuadrados, dividida por s 2 , tienen distribuciones c 2 no central.
Luego,

SCR ( β j β*j-1 ) (r -r )
j j -1
Fi =
SC Re s ( n - r )
Se distribuye como una F no central.

Fi es la estadística de prueba de alguna hipótesis probable del tipo Λβ = 0

¿Cuál Hipótesis?

Sea Λ1β1 un conjunto de r1 funciones paramétricas estimables en el modelo de GM, y = Xβ


1 1+ ε y sea
rango ( Λ1 ) = r1 .
Entonces F1 definido anteriormente, es la estadística de prueba para la hipótesis:

H 0 = Λ1β1 + Λ1 ( X1�
X1 ) X�
1 ( X 2β 2 + L + X k β k ) = 0 , para
-
j = 2, K , k

( )
Sea Λ jβ j un conjunto de rj - rj -1 funciones paramétricas estimables en el modelo y = Xβj j+ ε , y sea
* *

rango ( Λ j ) = rj - rj -1 .

Equivalentemente, las funciones Λ jβ j son estimables en el modelo:

( I - P ) y = ( I - P ) Xβ + ε
X*j-1 X*j-1 j j

Entonces, Fj , j = 2, K , k es una estadística de prueba para

( ) ( )(X
-
H 0 = Λ jβ j + Λ j �
X�I - PX* X j �X� I - PX* β j+1 + L + Xk βk ) = 0
�j j-1 � j j-1
j+1

Otra expresión de H 0 :
�β j �
��β �

( ) ( ) ( ) ( )
- -
Λj
� Λj �
X�I - PX* X j �X� I - PX* X j+1 L Λj �
X�I - PX* X j �X� I - PX* X k ��j+1 �= 0
�j � j �j � j
� ��M �
j-1 j-1 j-1 j-1

� �
�βk �
Tenga en cuenta que:

H 0 = Λ k βk = 0

Ejemplo

Considere el siguiente modelo lineal

E ( yijk ) = m + a i + b j , i = 1, K , p , j = 1, K , q y k = 1, K , nij

Sea H 0 : b1 = L = b q la estadística de prueba F de H 0 es obtenida por la razón de dos CM de las


últimas dos líneas del cuerpo de la tabla:

Fuente de variación GL SC
m 1 SCR ( m )
a i después de m p -1 SCR ( a i m )
b j después de a i y m q -1 SCR ( b j m , a i )
Residuos n - p - q +1 �y 2
ijk - SCR ( m , a i , b j )
i , j ,k
n
Total �y
i , j ,k
2
ijk

( ) ( )
En general, SCR a i m , b j �SCR ( a i m ) y SCR b j m , a i �SCR b j m ( )
Resultado
ni �n�j
SCR ( b j m , a i ) = SCR ( b j m ) para cualquier valor de y si y solamente si nij = , para i = 1, K , p
n
, j = 1, K , q

Donde ni�= �nij , n�j = �nij , n = �ni �= �n�j y a


j i i j

ni �n�j
nij = a esta condición es denominada “frecuencias proporcionales” , esta condición es de cierta
n
forma, más flexible del que el de datos balanceados.

Ejemplo
Se tiene datos de un experimento con dos factores A y B

A B
b1 b2
a1 68, 66, 65 79, 75, 76
a2 84, 90, 87 96, 94, 93
a3 71, 68, 74 78, 78, 80

> y<-c(68,66,65,79,75,76,84,90,87,96,94,93,71,68,74,78,78,80)
> A<-c(rep("a1",6),rep("a2",6),rep("a3",6))
> B<-rep(c(rep("b1",3),rep("b2",3)),3)

> X1<-rep(1,18)
> X1tX1<-t(X1)%*%X1
> Px1<-X1%*%solve(X1tX1)%*%t(X1)
> SCRu<-t(y)%*%Px1%*%y
> SCRu
[,1]
[1,] 112338
> chu1<-1
> X1tX1<-t(X1)%*%X1
> X2<-matrix(rep(0,3*18),ncol=3)
> fix(X2)
> X2
col1 col2 col3
[1,] 1 0 0
[2,] 1 0 0
[3,] 1 0 0
[4,] 1 0 0
[5,] 1 0 0
[6,] 1 0 0
[7,] 0 1 0
[8,] 0 1 0
[9,] 0 1 0
[10,] 0 1 0
[11,] 0 1 0
[12,] 0 1 0
[13,] 0 0 1
[14,] 0 0 1
[15,] 0 0 1
[16,] 0 0 1
[17,] 0 0 1
[18,] 0 0 1
> chu2<-solve(X1tX1)%*%t(X1)%*%X2
> chu2
col1 col2 col3
[1,] 0.3333333 0.3333333 0.3333333

> X3<-matrix(rep(0,2*18),ncol=2)
> fix(X3)
> X3
col1 col2
[1,] 1 0
[2,] 1 0
[3,] 1 0
[4,] 0 1
[5,] 0 1
[6,] 0 1
[7,] 1 0
[8,] 1 0
[9,] 1 0
[10,] 0 1
[11,] 0 1
[12,] 0 1
[13,] 1 0
[14,] 1 0
[15,] 1 0
[16,] 0 1
[17,] 0 1
[18,] 0 1
> chu3<-solve(X1tX1)%*%t(X1)%*%X3
> chu3
col1 col2
[1,] 0.5 0.5

> X2a<-cbind(X1,X2)
> X2atX2a<-t(X2a)%*%X2a
> library(MASS)
> G2<-ginv(X2atX2a)
> Px2a<-X2a%*%G2%*%t(X2a)
> SCRadu<-t(y)%*%(Px2a-Px1)%*%y
> SCRadu
[,1]
[1,] 1258.333
> lambdaa<-matrix(rep(0,6),ncol=3)
> fix(lambdaa)
> lambdaa
col1 col2 col3
[1,] -1 1 0
[2,] -1 0 1
> chadu1<-lambdaa
> I18<-diag(rep(0,18))
> chadu2<-lambdaa%*%ginv(t(X2)%*%(I18-Px1)%*%X2)%*%t(X2)%*%(I18-Px1)%*%X3
> chadu2
col1 col2
[1,] 0 0
[2,] 0 0
> lambdaadu<-cbind(chadu1,chadu2)
> lambdaadu
col1 col2 col3 col1 col2
[1,] -1 1 0 0 0
[2,] -1 0 1 0 0

> X<-cbind(X2a,X3)
> XtX<-t(X)%*%X
> G3<-ginv(XtX)
> Px<-X%*%G3%*%t(X)
> SCbdau<-t(y)%*%(Px-Px2a)%*%y
> SCbdau
[,1]
[1,] 320.8889
> SCTotal<-t(y)%*%y
> SCResiduos<-SCTotal-t(y)%*%Px%*%y
> r1<-qr(Px1)$rank
> r1
[1] 1
> r2<-qr(Px2a)$rank
> r2
[1] 3
> r3<-qr(X)$rank
> r3
[1] 4
> n<-length(y)
> n
[1] 18
> GL<-c(r1,r2-r1,r3-r2,n-r3,n)
> SC<-c(SCRu,SCRadu,SCbdau,SCResiduos,SCTotal)
> Fuente<-c("u","alfai despues de u","betaj despues de u y
alfai","Residuos","Total")
> data.frame(Fuente,GL,SC)
Fuente GL SC
1 u 1 112338.00000
2 alfai despues de u 2 1258.33333
3 betaj despues de u y alfai 1 320.88889
4 Residuos 14 64.77778
5 Total 18 113982.00000

Luego,
- Para la media: Con la SCR ( u ) = 112338 se prueba la siguiente hipótesis

a1 �

� b1 �

H 0 : Λ1β1 + Λ1 ( X1�
X1 ) X1�
X2β 2 + Λ1 ( X1�
X1 ) a2 �
m + [ 1/ 3 1/ 3 1/ 3] � [ ]
- -
X 3β 3 = 1 �
X1� + 1/ 2 1/ 2 � =0
� b2 �
� �
a3 �

� �
1 1
H0 : m + ( a1 + a1 + a 3 ) + ( b1 + b 2 ) = 0
3 2
1 1
H1 : m + ( a1 + a1 + a 3 ) + ( b1 + b 2 ) �0
3 2
SCMedia 112338
Fc = 1 = 1 = 24278.88
CME 64.77778
14
> Fc<-(112338/1)/(64.77777778/14)
> Fc
[1] 24278.88
> pvalue<-1-pf(Fc,1,14)
> pvalue
[1] 0

Se rechaza H0, la prueba resultó muy altamente significativa, al menos uno de los parámetros: el efecto
de la media común, y/o efecto del nivel i del factor A (para i=1,2 y 3), y/o del nivel factor B (para j =1,
2) sobre la variable respuesta.

- Para diferencia de nivel i menos el efecto del nivel 1 del factor (para i=2, 3)

a1 �

-1 1 0 �� � � b � ��
( ) ( ) � 0 0 �� 0
-
H 0 : Λ 2β 2 + Λ 2 �
X�I - PX* X 2 �X� I - PX* X 3β 3 = � �a 2 �+ � ��1 �= ��

�2 1 � 2 1
-1 0 1 �
� � b 2 � ��
0 0 �� 0
a3 �

� �
a1 �

�-1 1 0 �� � �� 0
H0 : � �a 2 �= ��

�-1 0 1 � 0
��
a3 �

� �
a1 �

-1 1 0 �� � ��
� 0
H1 : � � a 2 ����

-1 0 1 �
� 0
��
a3 �

� �

SCalfa / Media 1258.33333


Fc = 2 = 2 = 135.9777
CME 64.77778
14
> Fc<-(1258.33333333/2)/(64.77777778/14)
> Fc
[1] 135.9777
> pvalue<-1-pf(Fc,2,14)
> pvalue
[1] 6.7423e-10
Se rechaza H0, la prueba resultó muy altamente significativa, al menos una diferencia del efecto del nivel
i menos del nivel 1 del factor A (para i=2, 3) influyen sobre la variable respuesta y

- Para la diferencia de los efectos del factor B


�b �
H 0 :Λ 3β 3 = [ -1 1] �1 �= 0
b2 �

�b �
H 0 : [ -1 1] �1 �= 0
�b2 �
b �

H1 : [ -1 1] �1 ��0
b2 �

SCBeta / Media y alfa 320.88889


Fc = 1 = 1 = 34.67581
CME 64.77778
14
> Fc<-(320.88888889/2)/(64.77777778/14)
> Fc
[1] 34.67581
> pvalue<-1-pf(Fc,1,14)
> pvalue
[1] 3.945144e-05
>
Se rechaza H0, la prueba resultó muy altamente significativa, la diferencia del efecto del nivel 2 menos
del nivel 1 del factor B influye sobre la variable respuesta y

Vous aimerez peut-être aussi