Als «eigenvalues» getaggte Fragen

Bei Fragen zur Berechnung oder Interpretation von Eigenwerten oder Eigenvektoren.

2
Warum ist das Ausmaß der Varianz, das von meinem 1. PC erklärt wird, so nahe an der durchschnittlichen paarweisen Korrelation?
Welche Beziehung besteht zwischen der ersten Hauptkomponente (n) und der durchschnittlichen Korrelation in der Korrelationsmatrix? Zum Beispiel beobachte ich in einer empirischen Anwendung, dass die durchschnittliche Korrelation fast gleich dem Verhältnis der Varianz der ersten Hauptkomponente (erster Eigenwert) zur Gesamtvarianz (Summe aller Eigenwerte) ist. Gibt es eine mathematische Beziehung? Unten …



1
Visualisierung von PCA in R: Datenpunkte, Eigenvektoren, Projektionen, Vertrauensellipse
Ich habe einen Datensatz von 17 Personen, Rang 77 Aussagen. Ich möchte Hauptkomponenten auf einer transponierten Korrelationsmatrix von Korrelationen zwischen Personen (als Variablen) über Aussagen (als Fälle) extrahieren . Ich weiß, es ist seltsam, es heißt Q-Methodik . Ich möchte veranschaulichen, wie PCA in diesem Zusammenhang funktioniert, indem ich Eigenwerte …


3
Post-hoc-Test in einer 2x3-ANOVA mit gemischtem Design unter Verwendung von SPSS?
Ich habe zwei Gruppen von 10 Teilnehmern, die während eines Experiments dreimal bewertet wurden. Um die Unterschiede zwischen den Gruppen und zwischen den drei Bewertungen zu testen, führte ich eine 2 × 3-ANOVA mit gemischtem Design mit group(Kontrolle, experimentell), time(erste, zweite, drei) und group x time. Beides timeund groupErgebnis signifikant, …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

2
Warum sind PCA-Eigenvektoren orthogonal und in welcher Beziehung stehen die PCA-Scores nicht korreliert?
Ich lese über PCA und verstehe die meisten Vorgänge in Bezug auf die Ableitung, abgesehen von der Annahme, dass Eigenvektoren orthogonal sein müssen und in welcher Beziehung sie zu den Projektionen (PCA-Scores) stehen, die nicht korreliert sind. Ich habe unten zwei Erklärungen, die einen Zusammenhang zwischen Orthogonalität und Korrelation verwenden, …

1
Korrelation zwischen Hauptkomponenten
Ich habe zwei Matrizen a, b mit Dimensionen (100x500), (100x15000) und versuche, Assoziationen zwischen Variablensätzen in beiden Matrizen zu finden. Wenn ich eine Hauptkomponentenanalyse für Matrix a durchführe, entsprechen die höchsten Belastungen der ersten Hauptkomponente einer Reihe von Variablen, die zum größten Anteil der Variabilität in diesem Datensatz beitragen. Diese …

1
Schrumpfung der Eigenwerte
Angenommen , wir haben Proben die unabhängig und identisch mit dem Mittelwert = 0 und unbekannte nicht-singulären Kovarianzmatrix verteilt . Jede Probe ist ein Vektor der Größe .nnnX.1, . . . ,X.nX1,...,XnX_1,..., X_nM.MMX.ichXiX_ip × 1p×1p\times 1 Ich möchte den "Stein-Haff-Schätzer" [Stein, C. 1975] anwenden, der durch Verkleinern seiner Eigenwerte schätzt …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.