Die Belastung in der Faktoranalyse oder in der PCA ( siehe 1 , siehe 2 , siehe 3 ) ist der Regressionskoeffizient, das Gewicht in einer linearen Kombination, die Variablen (Elemente) durch standardisierte (Einheitsvarianz-) Faktoren / Komponenten vorhersagt.
Gründe für eine Belastung von mehr als :1
Grund 1: analysierte Kovarianzmatrix.
Wenn analysiert wurden, wurden standardisierte Variablen verwendet, dh die Analyse basierte auf einer Korrelationsmatrix. Nach der Extraktion oder nach einer orthogonalen Rotation (wie Varimax) - wenn Faktoren / Komponenten nicht korreliert bleiben - sind Belastungen auch die Korrelationskoeffizienten. Das ist die Eigenschaft der linearen Regressionsgleichung: Bei orthogonal standardisierten Prädiktoren entsprechen die Parameter den Pearson-Korrelationen. In einem solchen Fall kann das Laden also nicht über [-1, 1] hinausgehen.
Wenn die Analyse jedoch nur zentrierte Variablen wären, dh die Analyse auf einer Kovarianzmatrix basiert , müssen die Belastungen nicht auf [-1, 1] beschränkt werden, da Regressionskoeffizienten ein solches Modell nicht gleich Korrelationskoeffizienten sein müssen. Sie sind eigentlich Kovarianzen. Beachten Sie, dass es sich um Rohladungen handelte. Es gibt "neu skalierte" oder "standardisierte" Ladungen (beschrieben in den Links, die ich im ersten Absatz angegeben habe), die neu skaliert werden, um das [-1, 1] -Band nicht zu verlassen.
Grund 2: Schrägrotation. Nach einer schrägen Rotation wie Promax oder Oblimin gibt es zwei Arten von Belastungen: Mustermatrix (Regressionskoeffizienten oder Belastungen an sich) und Strukturmatrix (Korrelationskoeffizienten). Sie sind aus dem oben genannten Grund nicht gleich: Die Regressionskoeffizienten der korrelierten Prädiktoren unterscheiden sich von den Pearson-Korrelationen. Somit kann eine Musterbelastung leicht über [-1, 1] liegen. Beachten Sie, dass dies auch dann der Fall ist, wenn die Korrelationsmatrix die analysierte Matrix war. So ist es also, wenn Faktoren / Komponenten schräg sind.
Grund 3 (selten): Heywood-Fall. Der Heywood-Fall ( Punkt 6 ) ist eine Schwierigkeit bei Faktorenanalysealgorithmen, wenn bei Iterationen das Laden die theoretisch zulässige Größe überschreitet - es tritt auf, wenn die Kommunalität die Varianz überschreitet. Der Heywood-Fall ist eine seltene Situation und tritt in einigen Datensätzen normalerweise auf, wenn zu wenige Variablen vorhanden sind, um die angeforderte Anzahl von Faktoren zu unterstützen. Programme informieren, dass ein Heywood-Fallfehler vorliegt, und stoppen oder versuchen, ihn zu beheben.