SciELO - Scientific Electronic Library Online

 
vol.41 issue1Conceptual Development in Cognitive Science. Part IIPregnancy Delusions and Pseudocyesis: Brief Approach author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Revista Colombiana de Psiquiatría

Print version ISSN 0034-7450

rev.colomb.psiquiatr. vol.41 no.1 Bogotá Jan./Apr. 2012

 

Metodología de investigación y lectura de estudios

Introducción al análisis factorial exploratorio

Introduction to Exploratory Factor Analysis (EFA)

Carolina Méndez Martínez1
Martín Alonso Rondón Sepúlveda2


1Nutricionista dietista, candidata a Maestría en Epidemiología Clínica, docente de cátedra del Departamento de Nutrición y Dietética, Facultad de Ciencias, Pontificia Universidad Javeriana. Clínica de Obesidad, Hospital Universitario de San Ignacio, Bogotá, Colombia.
2Estadístico, Maestría en Bioestadística, profesor asociado, Departamento de Epidemiología Clínica y Bioestadística, Facultad de Medicina, Pontificia Universidad Javeriana, Bogotá, Colombia.

Conflictos de interés: Los autores manifiestan que no tienen conflictos de interés en este artículo.

Correspondencia
Carolina Méndez Martínez
Pontificia Universidad Javeriana
Carrera 7 No. 40-62, piso 6
Bogotá, Colombia
lilia.mendez@javeriana.edu.co

Recibido para evaluación: 25 de noviembre de 2011 Aceptado para publicación: 20 de febrero de 2012


Resumen

Introducción: El análisis factorial exploratorio (AFE) se ha convertido en una de las técnicas estadísticas más utilizadas en la actualidad, especialmente en las áreas médicas y sociales. Dada esta popularidad, es fundamental conocer y, a la vez, profundizar en los conceptos básicos necesarios para su correcta aplicación, considerando las principales fortalezas y debilidades que presenta esta técnica. Objetivo: Presentar de una manera clara y concisa cuáles son las principales aplicaciones de esta técnica, así como determinar los requisitos básicos para su utilización, hacer una descripción paso a paso de su metodología y establecer cuáles son los elementos que se deben tener en cuenta durante su elaboración, con el fin de no incurrir en resultados e interpretaciones erróneas. Metodología: Revisión narrativa. Desarrollo: En esta revisión se identificaron los conceptos básicos y se hizo una breve descripción de los objetivos, diseño, supuestos, metodología para derivar los factores y evaluar el ajuste global, así como de la adecuada interpretación de los resultados.

Palabras clave: Análisis factorial, validez de pruebas, evaluación, metodología.


Abstract

Introduction: Exploratory Factor Analysis (EFA) has become one of the most frequently used statistical techniques, especially in the medical and social sciences. Given its popularity, it is essential to understand the basic concepts necessary for its proper application and to take into consideration the main strengths and weaknesses of this technique. Objective: To present in a clear and concise manner the main applications of this technique, to determine the basic requirements for its use providing a description step by step of its methodology, and to establish the elements that must be taken into account during its preparation in order to not incur in erroneous results and interpretations. Methodology: Narrative review. Development: This review identifies the basic concepts and briefly describes the objectives, design, assumptions, and methodology to achieve factor derivation, global adjustment evaluation, and adequate interpretation of results.

Key words: Statistical factor analysis, validity of tests, evaluation, methodology.


Introducción

Con mucha frecuencia nos encontramos con investigaciones o estudios realizados en áreas médicas y sociales, con grandes volúmenes de información, en los que para realizar sus análisis es necesario aplicar técnicas estadísticas avanzadas, como las multivariadas (1).

En la actualidad, y gracias a los avances tecnológicos, es posible aplicarlas, ya que en general se encuentran implementadas en la mayoría de los programas estadísticos (2). Sin embargo, uno de los inconvenientes más frecuentes para su uso es el desconocimiento de algunos investigadores sobre ellas.

Dentro de estas técnicas estadísticas multivariadas se encuentra el análisis factorial (AF), que se caracteriza por sus múltiples usos. En general, se conocen dos tipos básicos de análisis factorial: el análisis factorial exploratorio (AFE) y el análisis factorial confirmatorio (AFC) (2-5). No obstante, a pesar de su elevada popularidad, con frecuencia surge la incertidumbre sobre cuál de ellos usar, en qué escenario y cómo utilizarlo correctamente.

Por efectos prácticos, el objetivo principal de este artículo se centra en el AFE, con el fin de realizar una descripción general sobre cuándo y cómo aplicarlo, así como sobre los pasos por seguir para su correcta aplicación.

¿Qué es análisis factorial exploratorio?

El AFE tuvo sus orígenes a comienzos del siglo XX, y es conocido como una técnica estadística de interdependencia (es decir, es un conjunto de variables en las cuales no existe una variable respuesta ni variables independientes, como en la mayoría de modelos de regresión, sino que todas las variables son analizadas en conjunto), que se caracteriza por su versatilidad. Su propósito principal es tratar de establecer una estructura subyacente entre las variables del análisis, a partir de estructuras de correlación entre ellas; o, en otras palabras: busca definir grupos de variables (más conocidos como factores) que estén altamente correlacionados entre sí. Adicionalmente, se usa para reducir la complejidad de un gran número de variables en un número más reducido; por lo tanto, tiene como objetivo explicar un fenómeno de forma más minuciosa (2-5).

Diferencias entre AFE y AFC

Como se mencionó anteriormente, el AFE tiene dos objetivos: tratar de encontrar o establecer, de manera exploratoria, una estructura interna, al generar nuevos factores a partir de un conjunto de variables, o reducir el número de estas. En el primer escenario, se establece cuál es la contribución de las variables originales a cada uno de estos nuevos factores y se espera que el investigador no tenga conocimiento a priori de la nueva estructura, o, si tiene alguna idea, que esta sea menor; mientras en el segundo escenario se eliminan del análisis aquellas variables que sean poco relevantes o que tengan mucha colinealidad con otras variables (2,4,5).

Por otra parte, en el análisis factorial confirmatorio (AFC) se evalúa hasta qué punto un conjunto de factores organizados teóricamente se ajusta a los datos. En este tipo de análisis, el investigador desempeña un papel mucho más importante, pues, a mayor conocimiento del problema, tiene mayor capacidad para formular y probar hipótesis mucho más concretas y específicas. En este tipo de análisis se debe establecer un nivel de confianza para poder evaluar si se rechazan o no las hipótesis planteadas (5-7).

Los dos análisis no son excluyentes, pero, dependiendo de los objetivos del estudio, se debe decidir cuál es el más adecuado. Cuando el objetivo principal es reducir variables o encontrar nuevos factores o variables latentes, se recomienda el uso del AFE. En los casos en los que se busca llegar a una estructura específica, se recomienda más el uso del AFC; sin embargo, en algunos estudios se ha llegado incluso a realizar los dos análisis (7).

Dada su naturaleza de exploratorio, el AFE se convierte en una técnica muy cuestionada, especialmente por la manipulación que muchas veces se hace de los datos hasta encontrar resultados similares a lo esperado. Para evitar suspicacias, lo recomendable es definir claramente los pasos y las pruebas estadísticas que se van a utilizar antes de comenzar el análisis.

Etapas para la aplicación del AFE

En general, Hair y colaboradores (3) recomiendan seis pasos básicos para una correcta aplicación del AFE: objetivos, diseño, supuestos, derivación de los factores y evaluación del ajuste global, interpretación de los factores y juzgamiento de la significancia de los factores.

Objetivos

Aparte de los objetivos mencionados anteriormente (reducir variables o determinar factores), este tipo de análisis también puede ser de utilidad para otros objetivos más específicos. Por ejemplo, es ideal cuando se busca identificar aquellas variables que son más relevantes de un conjunto de variables, de tal manera que puedan ser utilizadas en otros análisis. También, es utilizado en la construcción de escalas y cuestionarios para detectar variables o ítems redundantes o que aporten poca información, con el fin de ser eliminados. Adicionalmente, ayuda a identificar problemas de multicolinealidad; por lo tanto, sirve para evaluar si variables altamente correlacionadas pueden afectar la construcción de los modelos de regresión o de análisis multivariantes (2-5).

Diseño

En este paso, además de aclarar el objetivo principal de análisis, se busca identificar el tipo de datos que se utilizarán (en algunos programas es posible incluir correlaciones, mientras en otros se incluyen los datos crudos). También, es importante evaluar el número y tipo de variables. Se recomienda que los datos sean de tipo numérico; en el caso de variables categóricas, se deben codificar, y para incluirlas se recomienda hacerlo por medio de variables indicadoras (2,5).

Supuestos

La idea original se basa en el supuesto de normalidad de las variables; sin embargo, en la actualidad muchos autores consideran que en el caso exploratorio, los supuestos básicos que se deben considerar en un AFE deberían ser más de tipo conceptual que estadístico. En caso de no cumplir con el supuesto de normalidad, se espera que al menos las variables originales tengan moderados grados de correlación entre sí (2,3,5).

En el caso de buscar estructuras subyacentes, se espera que exista al menos una para el conjunto de variables seleccionadas. No se recomienda aplicarlo a grupos que estén pobremente representados o que sean muy heterogéneos entre sí. Para este último caso, se recomienda hacer un análisis para cada grupo.

Por lo tanto, antes de realizar un AFE, se debe hacer una evaluación del supuesto de correlación entre las variables, con el fin de establecer si se justifica o no su aplicación. A continuación presentamos algunas de las estrategias más utilizadas para evaluar este supuesto:

  • Hacer una inspección visual de la matriz de correlaciones. Para ello es necesario evaluar si algunas de las variables tienen moderados o altos valores de correlación entre sí (frecuentemente se utilizan valores mayores a 0,30). Si en general se detectan bajas correlaciones entre las variables, es necesario cuestionar si tiene sentido realizar este tipo de análisis. Una desventaja de este método es la dificultad de visualizar a medida que aumenta el número de variables en estudio (2,5).

  • Otra alternativa para evaluar estas correlaciones es por medio de la prueba de esfericidad de Bartlett. En esta prueba se evalúa la hipótesis nula de que no existe correlación entre las variables; es decir, que la matriz de correlación es la identidad (I). Al rechazar esta hipótesis, se demuestra que en realidad sí existe algún grado de correlación estadísticamente significativa. Es importante anotar que, a mayor tamaño de muestra, se hace más probable detectar correlación entre las variables (3,5,8).

  • Un tercer método implica evaluar la fuerza de la relación entre dos variables o ítems, a partir de las correlaciones parciales, la cual representa la correlación entre este par de ítems, después de remover el efecto de los demás. Para evaluar esta relación se utiliza el índice Kaiser Meyer Olkin (KMO), el cual toma valores entre 0 y 1. La medida puede ser interpretada con distintos lineamientos; sin embargo, los más utilizados son: valores menores de 0,5 se consideran inaceptables; de 0,5 a 0,59, pobres; de 0,6 a 0,79, regulares, y de 0,8 a 1, meritorios. Este índice toma el valor de 1 solo en el caso de que una variable sea perfectamente predicha. Una desventaja de este índice es el de ser muy sensible, pues tiende a incrementarse cuando el tamaño de la muestra o el número de variables aumenta, y a decrecer cuando las correlaciones o el número de factores disminuye (3,5).

  • Otro método confundido con el índice KMO es el conocido índice de adecuación de la muestra individual (MSA), que, aunque se deriva del anterior, se diferencia por hacer la evaluación de la fuerza solo en un ítem; es decir, indica qué tanta correlación tiene un ítem específico con los demás ítems en la matriz. La clasificación e interpretación es la misma que se utiliza para el índice KMO (5).

  • Finalmente, se puede calcular el determinante de la matriz de correlaciones. Dadas las características de esta matriz, se espera que el determinante tome valores entre 0 y 1. Se considera que el análisis factorial se justifica si el valor del determinante encontrado es pequeño, pero diferente de 0. En el caso de obtener valores altos (cercanos a 1), su interpretación es que las variables entre sí probablemente son independientes (2,5).

En general, se recomienda aplicar al menos dos de las medidas anteriormente mencionadas, y si alguna de ellas evidencia algún grado de correlación, se considera que tiene sentido realizar el análisis. En caso contrario, se debe evaluar qué estrategia o que tipo de análisis estadístico es más recomendable aplicar (2,5).

Derivación de los factores y evaluación del ajuste global

Antes de aplicar el AFE es necesario especificar cuál va a ser el método estadístico para extraer los nuevos factores y cómo determinar el número de estos por analizar. Aunque existe una gran variedad de métodos para extraer los factores, en general dos tipos de metodologías son las más utilizadas: el análisis de componentes principales y el análisis de factores comunes (2,3,5,9).

Para seleccionar entre estos dos métodos, es recomendable tener al menos una pequeña idea de cómo es la dispersión de las variables. A medida que haya mayor interrelación entre las variables, se dice que están compartiendo más varianza. La correlación entre dos variables elevada al cuadrado se conoce como su total de varianza compartida.

Dado lo anterior, la varianza total de cualquier variable puede ser dividida en tres partes, así: a la cantidad de varianza que es compartida con las demás variables en análisis se le conoce como varianza común o comunalidad; a la cantidad de varianza que solo depende de la variable y no puede explicarse por medio de otras se le conoce como varianza específica o unicidad, y, finalmente, a la cantidad de varianza que se debe al error aleatorio se le conoce como error de varianza. La varianza total corresponde a la suma de estos tres componentes (2,3,5).

Diferencias entre modelos de análisis de componentes principales y análisis del factor común

Para saber cuál de estos métodos se debe seleccionar, es importante considerar cuáles son los objetivos del análisis factorial y qué tanto conocimiento a priori se tiene de las variables, especialmente en lo relacionado con su variabilidad. Cuando el error de varianza y la varianza única son relativamente pequeñas o cuando se busca reducir variables, se recomienda el análisis de componentes principales, pues este considera la varianza total y deriva factores que contienen pequeñas porciones de varianza única.

Si el objetivo es crear nuevos factores o dominios, se recomienda utilizar el análisis de factores comunes, debido a que este se basa en la varianza compartida o varianza común, y asume que la varianza única y el error de varianza no son de interés. Las principales desventajas que tiene este método es que no tiene una única solución para los puntajes del factor, y cuando su varianza común no es estimable o no es válida, es necesario eliminar una o más variables del análisis (2,3,5).

Finalmente, cuando se tengan los nuevos factores, se debe determinar cuál debe ser el número de ellos que se deben extraer para el análisis, y, a la vez, se recomienda definir qué tipo de rotación se debe utilizar para que los resultados puedan ser interpretados con mayor facilidad. Estos dos aspectos deben ser considerados al inicio del estudio y para ello se deben basar en el conocimiento que se tenga hasta ese momento del problema.

Cómo determinar el número de factores por extraer

Una característica de los nuevos factores es buscar la mejor combinación lineal que ayude a explicar la mayor variabilidad de las variables originales. Al generar los nuevos factores, una propiedad es que el primer factor se caracteriza por ser el que mayor varianza explica, mientras el segundo, que es independiente al primer factor (ortogonal), es el siguiente en explicar la mayor variabilidad, condicionado a que el primer factor ya se calculó, y así sucesivamente. El número de factores calculado es igual al número de variables originales. A la cantidad de varianza para el total de variables que puede ser explicada por cada uno de los nuevos factores se le conoce como eigenvalue o valor propio (2,3,5).

Dadas las características de los nuevos factores, es importante saber cómo decidir cuál es el número de factores que se deben considerar para el análisis. Para tomar esa decisión se utilizan algunos criterios estadísticos y otros más de rutina. A continuación se presentan los más usados:

  • Criterio del valor propio: Es tal vez la técnica más utilizada. El aporte se mide con los valores propios, que representan el total de varianza explicada por el factor. El criterio utilizado para su uso se basa en tomar para el análisis solo aquellos factores que tengan valores propios mayores a 1 (3,5).

  • Criterio del test de pendiente (screen test): Al igual que en el criterio anterior, depende de los valores propios, pero se diferencia porque los valores son graficados y se hace un análisis visual buscando en la curva un punto de inflexión donde esta cambie de sentido o de concavidad. Un problema que puede llegar a presentar es ser muy subjetivo y, por lo tanto, depender básicamente del criterio del investigador. No se recomienda cuando el número de variables en análisis es muy alto y la contribución de los nuevos ítems es similar (2,3,5,10).

  • Criterio del porcentaje de varianza: Este criterio establece de antemano el porcentaje de la varianza total mínimo que debería ser explicado por los nuevos factores; por lo tanto, la selección final corresponde a aquellos factores que se necesiten para cumplir con este requisito. Su principal problema está en que, al no tener una idea clara de su variabilidad, existe la posibilidad de tomar muchos más factores de los necesarios (2,3,5).

  • Criterio a priori: Es uno de los criterios más subjetivos, y se presenta en casos muy especiales. El criterio se basa en que, a priori, el investigador establece cuál va a ser el número de factores que va a analizar (2,3).

  • Criterio del promedio de valores propios: Este último criterio se basa en calcular el promedio de los valores propios, y, a partir de este valor, valores propios mayores o iguales se seleccionan como los factores por retener (11,12).

Interpretación de los factores

Este es uno de los aspectos más importantes del AFE, ya que depende en gran parte de la experiencia, así como del conocimiento que el investigador tenga del problema. Para lograr una adecuada interpretación de los resultados se recomienda seguir los siguientes pasos:

a. Estimar la matriz de factores: A partir del método seleccionado, se procede a calcular la matriz de factores, la cual contiene las ponderaciones (cargas o pesos) de cada variable. Estos pesos corresponden a las correlaciones de cada una de las variables sobre cada factor. Los valores en términos absolutos (debido a que la correlación puede ser positiva o negativa) indican representatividad de la variable sobre el factor; por lo tanto, valores altos representan mayores contribuciones, y valores bajos muestran baja representatividad. Estos primeros resultados cumplen el objetivo de reducir datos; sin embargo, cuando el objetivo es buscar nuevos factores, se recomienda rotar los ejes de los nuevos factores (2,3,5). b. Rotación de factores: Como su nombre lo indica, rotar se refiere a girar los ejes factoriales a distintos grados, pero manteniendo fijo el origen. El resultado obtenido al hacer esta rotación es redistribuir la varianza de las variables originales en los factores, con el fin de lograr una mejor interpretación de los resultados.

En la actualidad se utilizan dos tipos de rotaciones en AFE, que son seleccionadas por el investigador, según el conocimiento que tenga del problema. Estas rotaciones son las ortogonales y las oblicuas. En el caso de las rotaciones ortogonales, los dos factores en análisis se giran a la vez, lo cual mantiene siempre su independencia (es decir, siempre se tendrá un ángulo de 90° entre ellos), mientras que con las rotaciones oblicuas esta independencia no se mantiene.

Dentro de los métodos de rotación ortogonal existe una gran variedad de posibilidades; sin embargo, solo nos vamos a referir a los tres más utilizados: varimax, quartimax y equamax. En el método de rotación varimax se busca maximizar las ponderaciones a nivel del factor; es decir, se espera que cada ítem o variable sea representativo en solo uno de ellos, con el fin de minimizar al máximo el número de variables dentro de cada factor. En el caso de la rotación quartimax, la maximiza-ción de las ponderaciones se realiza a nivel de la variable, lo que busca minimizar el número de factores que ayude a explicar cada una de ellas. Finalmente, con la rotación equamax se hace una combinación de las dos técnicas anteriores; por consiguiente, la maximización de las ponderaciones se hace tanto a nivel del factor como a nivel de la variable (2,3,5).

En el caso de las rotaciones oblicuas, se parte del supuesto de correlación entre los nuevos factores, que en la vida real es el escenario más común, lo que conduce a que las ponderaciones calculadas no coincidan con las correlaciones entre el factor y la variable. Dentro de los métodos de rotación oblicua más utilizados se encuentran el oblimin y el promax. La rotación oblimin permite establecer relaciones jerárquicas entre los factores, para lo cual debe establecer el grado de inclinación (δ) entre ellos. Un valor δ de cero da las rotaciones más oblicuas (3,5).

En cuanto a la rotación promax, modifica los resultados de una rotación ortogonal hasta crear una solución con cargas factoriales lo más próximas posible a la "estructura ideal". Para ello, eleva las cargas factoriales obtenidas en una rotación ortogonal a una determinada potencia (conocida como κ). En general, los valores de κ se encuentran entre 2 y 4, pero, a mayor potencia, mayor oblicuidad en la solución (el valor de κ más común es de 4) (3,5).

Para decidir qué tipo de rotación utilizar, es necesario tener conocimiento previo del problema, pues identificar de antemano correlación entre los nuevos factores significa que tiene más sentido una rotación oblicua, mientras un supuesto de independencia hace preferible una rotación ortogonal.

Juzgamiento de la significancia de los factores

Una vez rotados los factores, es necesario evaluar cómo fueron las ponderaciones en cada uno de ellos, de manera que sea más fácil identificar el grado de aporte de cada una de las variables en los nuevos factores. En esta etapa es importante hacer una evaluación tanto en términos estadísticos como prácticos, con el fin de determinar cuáles variables son las más importantes y, de la misma forma, identificar aquellas que definitivamente no aportan y pueden ser eliminadas del análisis.

Para hacer esta evaluación desde el punto de vista estadístico se recurre a la significancia de las ponderaciones, así: valores menores a |0,3| se consideran no significativos; entre |0,3| y |0,5|, de aporte mínimo; entre |0,5| y |0,7|, de aporte significativo, y valores mayores a |0,7| son consideradas relevantes y, generalmente, son el objetivo del análisis. Sin embargo, es frecuente que en ocasiones valores mayores a |0,3| también sean considerados para los análisis (2,3,5).

Este sería el proceso final del análisis si los objetivos trazados fueran reducir o identificar combinaciones lógicas de variables, entender mejor las interrelaciones o seleccionar variables útiles para una aplicación subsecuente con otras técnicas estadísticas. No obstante, si el objetivo es generar nuevos factores, es necesario dar unos pasos adicionales, como nombrar o bautizar a los nuevos factores y evaluar cada un o de ellos en términos de la pregunta de investigación. Este es uno de los aspectos más difíciles e importantes del análisis, pues, según lo encontrado, en algunos casos puede ser lógico y fácil de interpretar, mientras en otros, los resultados encontrados no presentan un comportamiento lógico y su interpretación se torna compleja. En este proceso se requiere un conocimiento profundo sobre el problema.

Consideraciones finales

Antes de realizar este tipo de análisis, es necesario identificar claramente los objetivos, así como utilizar al máximo la información disponible, debido a que muchas veces el investigador puede minimizar el número de variables que van a ser incluidas en el análisis. En cuanto al tamaño de muestra, se recomienda utilizar al menos cinco observaciones por variable; sin embargo, es importante resaltar que debería evitar su uso con menos de cien observaciones (5,13,14).

Se recomienda, en general, definir claramente los pasos y los métodos por seguir durante el desarrollo de un AFE, preferiblemente al momento de desarrollar la propuesta de investigación, con el fin de evitar la manipulación de los resultados.


Referencias

1. Catena RM, Trujillo H. Análisis Multivariado: un manual para investigadores. Madrid: Biblioteca Nueva; 2003.        [ Links ]

2. Gorsuch R. Factor analysis 2nd ed. Hillsdale, NJ: Lawrence Erlbaum Associates, Inc.; 1983.        [ Links ]

3. Hair JF Jr, Black WC, Babin BJ, et al. Multivariate data analysis, 7th ed. Upper Saddle River, NJ: Prentice-Hall, Inc Bartlett; 2009.        [ Links ]

4. Gorsuch RL. Exploratory factor analysis: its role in item analysis. J Pers Asses. 1997;68:532-60.        [ Links ]

5. Pett MA, Lackey NR, Sullivan JJ. Making sense of factor analysis. Thousand Oaks, CA: Sage; 2003.        [ Links ]

6. Macía F. Validez de los tests y el análisis factorial: nociones generales. Cienc Trab. 2010;12:276-80.        [ Links ]

7. Floyd FJ, Widaman KF. Factor analysis in the development and refinement of clinical assessment instruments. Psychol Assess. 1995;7:286-99.        [ Links ]

8. Bartlett MS. Tests of significance in factor analysis. Br J Psychol. 1950;3:77-85.        [ Links ]

9. Gorsuch RL. Common factor analysis versus component analysis: some well and little known facts. Multivariate Behav Res. 1990;25:35-9.        [ Links ]

10. Cattell RB. The scree test for the number of factors. Multivariate Behav Res. 1966;1:245-76.        [ Links ]

11. Ledesma RD, Valero-Mora P. Determining the number of factors to retain in EFA: an easy-to-use computer program for carrying out parallel analysis. Practical Assessment Research Evaluation. 2007;12:1-11.        [ Links ]

12. Henson RK, Roberts JK. Use of exploratory factor analysis in published research: Common errors and some comment on improved practice. Educ Psychol Meas. 2006;66:393-416.        [ Links ]

13. Hogarty KY, Hines CV, Kromey JD, et al. The quality of factor solutions in exploratory factor analysis: the influence of sample size, communality, and over determination. Educ Psychol Meas. 2005;65:202-26.        [ Links ]

14. Costello AB, Osborne JW. Best practices in exploratory factor analysis: four recommendations for getting the most from your analysis. Practical Assessment Research Evaluation. 2005;10:1-9.        [ Links ]

Creative Commons License All the contents of this journal, except where otherwise noted, is licensed under a Creative Commons Attribution License