Die exploratorische Faktoranalyse (EFA) eignet sich (psychometrisch und auf andere Weise) zur Untersuchung des Ausmaßes, in dem sich Zusammenhänge zwischen mehreren Elementen erklären lassen, indem auf den gemeinsamen Einfluss eines oder mehrerer nicht gemessener (dh latenter) Faktoren geschlossen wird. Wenn dies nicht Ihre spezielle Absicht ist, ziehen Sie alternative Analysen in Betracht, z.
- Allgemeine lineare Modellierung (z. B. multiple Regression, kanonische Korrelation oder (M) AN (C) OVA)
- Confirmatory Factor Analysis (CFA) oder Latent Trait / Class / Profile-Analysen
- Strukturgleichung (SEM) / Partielle Kleinste-Quadrate-Modellierung
Dimensionalität ist das erste Problem, mit dem sich EFA befassen kann. Sie können die Eigenwerte der Kovarianzmatrix untersuchen (z. B. durch Erstellen eines Geröllplots über EFA) und eine parallele Analyse durchführen, um die Dimensionalität Ihrer Maße aufzulösen. (Siehe auch einige gute Ratschläge und alternative Vorschläge von William Revelle .) Sie sollten dies sorgfältig tun, bevor Sie eine begrenzte Anzahl von Faktoren extrahieren und in EFA drehen, oder bevor Sie ein Modell mit einer bestimmten Anzahl latenter Faktoren mithilfe von CFA, SEM oder dergleichen. Wenn eine parallele Analyse auf Mehrdimensionalität hinweist, Ihr allgemeiner (erster) Faktor jedoch alle anderen bei weitem überwiegt (dh bei weitem den größten Eigenwert aufweist / die Mehrheit der Abweichungen in Ihren Maßen erklärt), ziehen Sie die Bifaktoranalyse in Betracht (Gibbons & Hedeker, 1992;Reise, Moore & Haviland, 2010 ) .
Bei der EFA- und Latentfaktormodellierung von Likert-Skalenbewertungen treten viele Probleme auf. Likert-Skalen erzeugen ordinale (dh kategoriale, polytome, geordnete) Daten, keine kontinuierlichen Daten. Bei der Faktoranalyse wird im Allgemeinen davon ausgegangen, dass die Eingabe der Rohdaten kontinuierlich ist, und häufig werden Faktoranalysen von Matrizen der Pearson-Produkt-Moment-Korrelationen durchgeführt, die nur für kontinuierliche Daten geeignet sind. Hier ein Zitat von Reise und Kollegen (2010) :
Gewöhnliche Analyseverfahren für Bestätigungsfaktoren gelten nicht für dichotome oder polytome Daten (Byrne, 2006) . Stattdessen sind spezielle Schätzverfahren erforderlich (Wirth & Edwards, 2007) . Grundsätzlich gibt es drei Möglichkeiten, mit polytomen Artikelantwortdaten zu arbeiten. Die erste besteht darin, eine polychrone Matrix zu berechnen und dann Standardfaktor-Analysemethoden anzuwenden (siehe Knol & Berger, 1991) . Eine zweite Möglichkeit besteht in der Verwendung einer Analyse des vollständigen Informationsfaktors (Gibbons & Hedeker, 1992) . Die dritte Möglichkeit ist die Verwendung von Verfahren zur eingeschränkten Informationsschätzung, die speziell für geordnete Daten wie gewichtete kleinste Quadrate mit Mittelwert- und Varianzanpassung entwickelt wurden (MPLUS; Muthén & Muthén, 2009) .
Ich würde empfehlen, sowohl den ersten als auch den dritten Ansatz zu kombinieren (dh eine diagonal gewichtete Schätzung der kleinsten Quadrate auf der Grundlage einer polychromen Korrelationsmatrix zu verwenden), basierend auf Wang und Cunninghams (2005) Diskussion der Probleme mit typischen Alternativen:
Wenn eine Bestätigungsfaktoranalyse mit nicht normalen ordinalen Daten unter Verwendung der maximalen Wahrscheinlichkeit und basierend auf Pearson-Produkt-Moment-Korrelationen durchgeführt wurde, stimmten die in dieser Studie erstellten Abwärtsparameterschätzungen mit den Ergebnissen von Olsson (1979) überein . Mit anderen Worten ist die Größe der Nichtnormalität in den beobachteten Ordinalvariablen eine Hauptdeterminante für die Genauigkeit von Parameterschätzungen.
Die Ergebnisse stützen auch die Ergebnisse von Babakus et al. (1987) . Wenn die Maximum-Likelihood-Schätzung mit einer Eingangsmatrix für die polychrone Korrelation in Bestätigungsfaktoranalysen verwendet wird, führen die Lösungen in der Regel zu inakzeptablen und daher signifikanten Chi-Quadrat-Werten zusammen mit Statistiken für eine schlechte Anpassung.
Es bleibt die Frage, ob Forscher Schätzer für gewichtete kleinste Quadrate oder für diagonal gewichtete kleinste Quadrate bei der Schätzung von Strukturgleichungsmodellen mit nicht normalen kategorialen Daten verwenden sollten. Weder die Schätzung der gewichteten kleinsten Quadrate noch die Schätzung der diagonal gewichteten kleinsten Quadrate lassen Annahmen über die Art der Verteilung der Variablen zu, und beide Methoden liefern asymptotisch gültige Ergebnisse. Da die Schätzung der gewichteten kleinsten Quadrate auf Momenten vierter Ordnung basiert, führt dieser Ansatz jedoch häufig zu praktischen Problemen und ist sehr rechenintensiv. Dies bedeutet, dass es bei der Schätzung der kleinsten Quadrate unter Umständen an Robustheit mangelt, wenn Modelle mit mittleren, dh mit 10 Indikatoren, großen und kleinen bis mittleren Stichprobengrößen bewertet werden.
Mir ist nicht klar, ob das gleiche Problem mit der Schätzung der kleinsten Quadrate auch für die DWLS-Schätzung gilt. Unabhängig davon empfehlen die Autoren diesen Schätzer. Falls Sie noch nicht über die Mittel verfügen:
- R (R Core Team, 2012) ist kostenlos. Sie benötigen eine alte Version (zB
2.15.2
) für diese Pakete:
- Das
psych
Paket (Revelle, 2013) enthält die polychoric
Funktion.
- Die
fa.parallel
Funktion kann dabei helfen, die Anzahl der zu extrahierenden Faktoren zu ermitteln.
- Das
lavaan
Paket (Rosseel, 2012) bietet eine DWLS-Schätzung für die Analyse latenter Variablen.
- Das
semTools
Paket enthält die efaUnrotate
, orthRotate
und oblqRotate
Funktionen.
- Das
mirt
Paket (Chalmers, 2012) bietet vielversprechende Alternativen unter Verwendung der Item-Response-Theorie.
Ich kann mir vorstellen, dass Mplus (Muthén & Muthén, 1998-2011) auch funktionieren würde, aber die kostenlose Demoversion bietet nicht mehr als sechs Messungen und die lizenzierte Version ist nicht billig. Es könnte sich lohnen, wenn Sie es sich leisten können. Die Leute lieben Mplus und der Kundenservice der Muthéns über ihre Foren ist unglaublich!
Wie oben erwähnt, überwindet die DWLS-Schätzung das Problem von Verstößen gegen die Normalitätsannahme (sowohl univariate als auch multivariate), das ein sehr verbreitetes Problem darstellt und in Likert-Bewertungsdaten fast allgegenwärtig ist. Dies ist jedoch nicht unbedingt ein pragmatisches Folgeproblem. Die meisten Methoden sind nicht zu empfindlich gegenüber (stark von) kleinen Verstößen beeinflusst (vgl. Ist das Testen der Normalität im Wesentlichen nutzlos? ). Die Antwort von @ chl auf diese Frage wirft wichtigere, herausragendere Punkte und Vorschläge auch in Bezug auf Probleme mit extremem Antwortstil auf. definitiv ein Problem mit Likert-Skalenbewertungen und anderen subjektiven Daten.
Literatur
· Babakus, E., Ferguson, JCE & Jöreskog, KG (1987). Die Empfindlichkeit der konfirmatorischen Maximum-Likelihood-Faktor-Analyse gegenüber Verstößen gegen Messskalen und Verteilungsannahmen. Journal of Marketing Research, 24 , 222–228.
· Byrne, BM (2006). Strukturgleichungsmodellierung mit EQS. Mahwah, NJ: Lawrence Erlbaum.
· Chalmers, RP (2012). mirt: Ein mehrdimensionales Item-Response-Theorie-Paket für die R-Umgebung. Journal of Statistical Software, 48 (6), 1–29. Abgerufen von http://www.jstatsoft.org/v48/i06/ .
· Gibbons, RD & amp; Hedeker, DR (1992). Bifaktoranalyse für alle Informationen.
Psychometrika, 57 , 423–436.
· Knol, DL & Berger, MPF (1991). Empirischer Vergleich zwischen Faktoranalyse und mehrdimensionalen Item Response Modellen. Multivariate Verhaltensforschung, 26 , 457–477.
· Muthén, LK & Muthén, BO (1998-2011). Mplus Benutzerhandbuch (6. Ausgabe). Los Angeles, Kalifornien: Muthén & Muthén.
· Muthén, LK & Muthén, BO (2009). Mplus (Version 4.00). [Computer Software]. Los Angeles, CA: Autor. URL: http://www.statmodel.com .
· Olsson, U. (1979). Maximum-Likelihood-Schätzungen für den polychronen Korrelationskoeffizienten. Psychometrika, 44 , 443–460.
·R Kernteam. (2012). R: Eine Sprache und Umgebung für statistisches Rechnen. R Stiftung für Statistisches Rechnen, Wien, Österreich. ISBN 3-900051-07-0, URL: http://www.R-project.org/ .
· Reise, SP, Moore, TM & Haviland, MG (2010). Bifaktormodelle und Rotationen: Untersuchung, inwieweit mehrdimensionale Daten eindeutige Skalenergebnisse liefern. Journal of Personality Assessment, 92 (6), 544–559. Abgerufen von http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2981404/ .
· Revelle, W. (2013). psych: Verfahren für die Persönlichkeits- und psychologische Forschung. Northwestern University, Evanston, Illinois, USA. Abgerufen von http://CRAN.R-project.org/package=psych . Version = 1.3.2.
· Rosseel, Y. (2012). lavaan: Ein R-Paket für die Modellierung von Strukturgleichungen. Journal of Statistical Software, 48 (2), 1–36. Abgerufen von http://www.jstatsoft.org/v48/i02/ .
· Wang, WC & Cunningham, EG (2005). Vergleich alternativer Schätzmethoden in Bestätigungsfaktoranalysen des Allgemeinen Gesundheitsfragebogens. Psychological Reports, 97 , 3–10.
· Wirth, RJ & Edwards, MC (2007). Item-Faktor-Analyse: Aktuelle Ansätze und zukünftige Richtungen. Psychological Methods, 12 , 58–79. Abgerufen von http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3162326/ .