Dies ist eine ausgezeichnete Frage, aber leider (oder vielleicht zum Glück?) Habe ich erst kürzlich eine sehr lange Antwort in einem verwandten Thread geschrieben , die Ihre Frage fast genau beantwortet. Ich bitte Sie, dort nachzuschauen, ob dies Ihre Frage beantwortet.
Ganz kurz, wenn wir uns nur auf PCA- und FA-Ladungen , besteht der Unterschied darin, dass PCA um die Kovarianzmatrix (oder Korrelationsmatrix) so nah wie möglich zu rekonstruieren : während FA um nur den nicht diagonalen Teil der Kovarianz- (oder Korrelations-) Matrix zu rekonstruieren :Damit meine ich, dass es FA egal ist, welche Werte auf der Diagonale haben, es kümmert sich nur um den nicht diagonalen Teil.W C C ≈ W W ⊤ , W o f f d i ein g { C } ≈ W W ⊤ . W W ⊤WWC
C≈WW⊤,
Woffdiag{C}≈WW⊤.
WW⊤
In diesem Sinne ist die Antwort auf Ihre Frage leicht zu erkennen. Wenn die Anzahl von Variablen (Größe von ) groß ist, dann ist der nicht diagonale Teil von fast die gesamte Matrix (Diagonale hat Größe und die gesamte Matrixgröße , also der Beitrag von Die Diagonale beträgt nur ), und daher können wir erwarten, dass sich PCA FA gut annähert. Wenn die Diagonalwerte eher klein sind, spielen sie für PCA wiederum keine große Rolle, und PCA befindet sich in der Nähe von FA, genau wie oben bei @ttnphns angegeben.C C n n 2 1 / n → 0nCCnn21/n→0
Wenn andererseits entweder klein ist oder stark von der Diagonale dominiert wird (insbesondere wenn es sehr unterschiedliche Werte auf der Diagonale hat), muss PCA neigen, die Diagonale ebenfalls zu reproduzieren, und wird also ganz anders sein als FA. Ein Beispiel wird in diesem Thread gegeben:W.CW
p-m
p
m