Vous êtes sur la page 1sur 5

TEMA 2: ANÁLISIS FACTORIAL

ÍNDICE

1. Explicar Análisis Factorial


2. ¿Son adecuados los datos?
3. Idoneidad Total (Obtención variable KMO)
4. Rotaciones
5. Obtención de las Puntuaciones Factoriales
6. Suma de comunalidad y especificidad igual a 1
7. Comparación matriz de correlaciones inicial con la reproducida

Técnica inferencial, no descriptiva. Técnica de reducción que engloba componentes


principales, técnicas para examinar la interdependencia de variables y difieren en su
objetivo, características y grado de formalización, y análisis de correspondencia.

Recuerdo de ACP:

Factores son seleccionados para explicar las interrelaciones entre las variables.

Las variables originales (características de recién nacidos) pasan a ser variables


dependientes que se explican por factores comunes y únicos, no observables (Elijo
una serie de factores para explicar las relaciones que hay entre las variables).

El análisis factorial tiene dos enfoques:

- Exploratorio: no se conoce a priori el nº de factores, y mediante la aplicación empírica


determinamos este número.

- Confirmatorio: los factores se fijan a priori, utilizándose la información empírica para


corroborar estos factores.

Si una variable se encuentra muy lejos de otros factores ella sola será explicada por el
factor más cercano.

Modelo de Análisis Factorial

X1: combinación lineal de los factores comunes (F1,F2…) multiplicado (cada uno) por
Ljh más los factores específicos (e1,e2…).

Ljh: cargas factoriales (peso de factor h en la variable j)

X1: l11F1 + l12F1… +e1

X2: l21F1 +
Esta técnica de reducción funcionará bien cuando la mayoría de los factores
específicos explican poco, es decir, explican la interdependencia entre las variables

Hipótesis del Modelo

-Sobre los factores comunes:

H0: E [F] = 0 (esperanza media de cada uno de los factores es cero)

H0: E [FF`] = I (Matriz de varianzas y covarianzas igual a la matriz identidad. Exijo que
la media sea cero y su desviación típica uno. Que la covarianza sea cero significa que
están incorrelados.

-Sobre los factores únicos:

Ho: E[e]=0 (Esperanza media de cada uno de los factores únicos es cero)

H0= E[ee] = omega (Matriz de varianzas y covarianzas igual a la matriz omega)

-Sobre los factores comunes y únicos:

Ho: E[Fe`] = 0 (Los factores comunes y únicos están incorrelados)

Trabajando con Datos Recién Nacidos

Tenemos que ver cuántas componentes llegan al 75%, para ello:

Estadísticos --- Análisis Dimensional --- Análisis Componentes Principales

Observamos en Acumulate Proportion y vemos que cogiendo 3 componentes se llega


al 75%

Explicar Análisis Factorial

Estadísticos --- Análisis dimensional – Análisis Factorial

Cogemos las 9 variables, debemos retener 3 factores (como hemos visto


anteriormente). 1 factor específico para cada variable (9 factores específicos y 3
factores comunes).

El programa genera: .FA

Uniquenesses: lo que aporta cada factor específico de cada variable. El que


PADM tenga un factor específico de 0.12 quiere decir que el factor común sea 0.88
(Nuestra comunalidad en componentes principales). Como PCR tiene un factor
específico de 0.86 tiene poca interdependencia, ya que el factor común es muy
pequeño. (Factor común: 1 - 0.86 = 0.14)

A menor factor específico mayor factor común y mayor interdependencia.


Loadings: Cargar Factoriales, R desprecia los valores pequeños de las cargas
(cuando no aparece un nº es muy cercano a cero), así asocio la variable con un
factor determinado. El factor 1 explica PCR, PESOR, PTR, SEM Y TALLAR… Si nos
salen dos factores para una variable la cogemos para el factor que explique más.

Test of the hypothesis that 3 factors are sufficient

Como el p-valor = 0.8, los 3 factores retenidos son suficientes para explicar F1, F2 y
F3.

Al hacerlo con 2 factores retenidos nos da un p-valor muy cercano a cero, por lo que
no son suficientes para explicar los factores.

Contrastes Previos a la Extracción de Factores, ¿Son adecuados los datos?:

- Contraste de Esfericidad de Barlett:


Si aceptamos la H0 están incorrelados

H0: IRp0I = 1
H1: IRp0I distinta 1

La medida de discrepancia está basada en la matriz de correlación muestral de


los residuos, que denominaremos R. (Matriz de correlaciones = 0)

RSCript

Idoneidad Total (Obtención variable KMO)

El paquete rela contiene la medida kmo y test de esfericidad de Bartlett para ver la
idoneidad de los datos

library(rela)

?paf  Analisis factorial por el metodo de ejes principales

Datos<-as.matrix(Datos[,1:9])

paf.Datos <- paf(Datos)

paf.Datos$Bartlett  Valor de la distribucion chi-cuadrado. Se compara con una


chi-cuadrado con (p^2-p)*0.5 grados de libertad

p<-dim(Datos)[2]

gl<-(p^2-p)*0.5  Grados de Libertad

pchisq(paf.Datos$Bartlett, df=gl, lower.tail=FALSE)  Probabilidad


del chi-cuadrado con los grados de libertad.
p-valor = 0, rechazamos H0.

Otra técnica de Idoneidad Total

paf.Datos$KMO

Donde un valor por debajo de 0.5 no es aceptable.

Rotaciones

 Varimax

Las variables se asocian con cada factor. Varimax es una rotación ortogonal, es
decir, los factores siguen siendo ortogonales entre ellos (incorrelados).

Cuando no rotamos (Estadísticos --- Análisis Dimensional --- Análisis Factorial


(rotación: ninguno)) lo que explica cada factor no cambia, lo que sí cambia son
las cargas factoriales. Se observa que la rotación varimax mejora los pesos.
Loadings: (SIN ROTAR) Loadings: (ROTACIÓN VARIMAX)

Factor1 Factor2 Factor3 Factor1 Factor2 Factor3

PADM 0.257 -0.132 0.893 PADM 0.937

PASM 0.228 0.877 PASM 0.901

PCR 0.323 -0.165 PCR 0.351

PESOM 0.143 0.867 0.273 PESOM 0.194 0.899

PESOR 0.947 -0.167 PESOR 0.961

PTR 0.471 PTR 0.437 0.213

SEM 0.747 -0.195 SEM 0.772

TALLAM 0.997 TALLAM -0.121 0.990

TALLAR 0.881 -0.163 TALLAR 0.896

 Promax

Es una rotación oblicua, por lo que se pierde la ortogonalidad (no forman 90º)
e incorrelación y calcula las correlaciones entre los distintos factores. Lo que
explica cada factor sigue cambiando muy poco. Y las cargas factoriales sí que
cambian. Mejora un poco la rotación Varimax.

Obtención de las Puntuaciones Factoriales

Nuevas variables: factores


 Método de Barlett

Para obtenerlas:

Estadístico --- Análisis Dimensional --- Análisis Factorial (Método Barlett)

Una vez aplicado visualizamos el conjunto de datos y nos salen las puntuaciones
(F1, F2 y F3)

Si calculamos la correlación entre F1 y F2 valdrá cero, todas valdrían cero:

pairs: genera gráficas que emparejan a los factores, con 3 factores podemos
generar 3 gráficos: 3*(3-1)/2

Previamente debemos ejecutar FA., para que exista (como el .Table).

pairs(.FA$scores)

Suma de comunalidad y especificidad igual a 1

 Comunalidad:

.FA$loadings[,1]^2+.FA$loadings[,2]^2+.FA$loadings[,3]^2+

La peor comunalidad será la que tenga menor valor. Un factor explica 70% pero
no todas las variables se tratan igual en ese 70%

 Especificidad:

.FA$loadings[,1]^2+.FA$loadings[,2]^2+.FA$loadings[,3]^2+.FA$
uniquenesses

Comparación matriz de correlaciones inicial con la reproducida:

cor<-cor(Datos[,1:9])
cor

pred<-.FA$loadings%*%t(.FA$loadings)+diag(.FA$uniquenesses)

Matriz reproducida: Al sumarle la diagonal de la específica conseguimos que la


diagonal principal explique el 100% (será 1).

round(cor-pred, digits=3)

Si en la matriz que relaciona la de correlación con la reproducida tiene valores muy


altos significa que no se relacionan muy bien (los valores indican la diferencia que hay,
por lo que a mayor valores mayores diferencias).

Vous aimerez peut-être aussi