Análisis Avanzado de Datos
La selección de variables en un Análisis Factorial Exploratorio es un paso crucial para obtener una solución factorial interpretable y teóricamente coherente. Algunas consideraciones para seleccionar variables incluyen:
Existen diferentes criterios para determinar el número óptimo de factores a extraer. Algunos de los más comunes son:
- Regla del codo (scree plot): Se grafican los autovalores de los factores en función del número de factores. Se busca el punto en el que la curva cambia de pendiente, el “codo”.
- Criterio de Kaiser: Se extraen solo los factores con autovalores mayores a 1. En el caso de AFE estamos trabajando solo con la varianza común, por lo que se consideran los que tienen un autovalor mayor a la varianza común promedio.
- Criterios de ajuste (solo aplicable a ML): Se comparan diferentes modelos con distintos números de factores utilizando índices de ajuste como el AIC, BIC, RMSEA.
Existen diferentes criterios para determinar el número óptimo de factores a extraer. Algunos de los más comunes son:
- Criterio de análisis paralelo: Este enfoque compara los autovalores observados en los datos con los autovalores generados a partir de datos aleatorios con las mismas dimensiones. Los factores se retienen si los autovalores observados son mayores que los autovalores esperados por azar.
- Interpretación teórica: Retener los factores que se ajustan a las expectativas teóricas y proporcionan una solución interpretable.
A menudo, es útil considerar varios criterios al tomar esta decisión.
Existen varios métodos de extracción de factores. Algunos de los más comunes son:
Mínimos cuadrados residuales (LSR): Este método busca minimizar la suma de las diferencias al cuadrado entre las correlaciones observadas y las correlaciones estimadas por el modelo factorial, teniendo en cuenta las correlaciones residuales entre las variables. Es útil para trabajar con datos que presentan correlaciones no lineales o no normales entre las variables. Es el que R usa por defecto en la función fa()
Máxima verosimilitud (ML): Este método busca extraer factores que maximicen la probabilidad de obtener la matriz de correlaciones observada. Asume normalidad multivariante. Permite la infernecia estadística.
La rotación de factores es un paso importante en la interpretación de los resultados del AFE. Los factores extraídos inicialmente a menudo no son fácilmente interpretables, ya que las cargas factoriales pueden estar distribuidas de manera uniforme entre los factores. La rotación busca simplificar la estructura factorial, haciendo que cada variable tenga cargas altas en un factor y cargas bajas en otros. Redistribuye la varianza explicada entre las estructuras latentes.
Existen dos tipos principales de rotación:
La matriz factorial es la tabla que muestra las cargas factoriales de cada variable en cada factor. Las cargas factoriales representan la relación entre las variables observadas y los factores latentes. Cuanto mayor sea la carga factorial de una variable en un factor, mayor será la contribución de esa variable al factor.
Para interpretar la matriz factorial, se busca un patrón claro de cargas altas y bajas en los factores. Las variables con cargas altas en un factor se consideran relacionadas entre sí y pueden representar una dimensión subyacente del concepto que se mide.
Una vez que se haya rotado la matriz factorial, los siguientes pasos pueden ayudar a interpretar los resultados:
Una vez que se haya rotado la matriz factorial, los siguientes pasos pueden ayudar a interpretar los resultados:
La interpretación de los resultados y la mejora del modelo pueden llevarse a cabo considerando los siguientes aspectos:
Los estadísticos de ajuste evalúan la bondad del ajuste entre el modelo y los datos. Algunos de los índices de ajuste más comunes son:
Los últimos 3 solo son directamente aplicables al utilizar máxima verosimilitud (ML)
Una vez que se hayan interpretado y validado los factores, se pueden calcular las puntuaciones factoriales para cada individuo en la muestra. Es importante considerar que estos puntajes correspodnen a estimaciones, y no a una medición directa de la variable latente.
Por defecto R usa del método “Thurstone” o basado en regresión. Podemos extraer estas estimaciones a partir de la función “factore.scores()” en R o guardando nuestro análisis factorial como un objeto y seleccionando el elemento scores.
Las puntuaciones factoriales pueden utilizarse en investigaciones futuras de diversas maneras:
