Als «partial-least-squares» getaggte Fragen

Eine Klasse linearer Methoden zur Modellierung der Beziehung zwischen zwei Gruppen von Variablen, X und Y. Beinhaltet die PLS-Regression.


1
PCA, LDA, CCA und PLS
Wie hängen PCA, LDA, CCA und PLS zusammen? Sie scheinen alle "spektral" und linear algebraisch und sehr gut verstanden zu sein (sagen wir 50+ Jahre Theorie, die um sie herum aufgebaut sind). Sie werden für sehr unterschiedliche Zwecke verwendet (PCA zur Dimensionsreduzierung, LDA zur Klassifizierung, PLS zur Regression), fühlen sich …

2
Die Grenze des Ridge-Regressionsschätzers für "Einheitsvarianz", wenn
Betrachten Sie die Ridge-Regression mit einer zusätzlichen Einschränkung, die voraussetzt, dass eine Einheitssumme von Quadraten hat (entsprechend eine Einheitsvarianz). Bei Bedarf kann man davon ausgehen, dass eine Einheitssumme von Quadraten hat:y^y^\hat{\mathbf y}yy\mathbf y β^∗λ=argmin{∥y−Xβ∥2+λ∥β∥2}s.t.∥Xβ∥2=1.β^λ∗=arg⁡min{‖y−Xβ‖2+λ‖β‖2}s.t.‖Xβ‖2=1.\hat{\boldsymbol\beta}_\lambda^* = \arg\min\Big\{\|\mathbf y - \mathbf X \boldsymbol \beta\|^2+\lambda\|\boldsymbol\beta\|^2\Big\} \:\:\text{s.t.}\:\: \|\mathbf X \boldsymbol\beta\|^2=1. Was ist die Grenze …


1
Was ist der Zusammenhang zwischen partiellen kleinsten Quadraten, reduzierter Rangregression und Hauptkomponentenregression?
Sind reduzierte Rangregression und Hauptkomponentenregression nur Sonderfälle von partiellen kleinsten Quadraten? In diesem Lernprogramm (Seite 6, "Objektivvergleich") wird angegeben, dass bei Teilquadraten ohne X- oder Y-Projektion (dh "nicht partiell") die Rang- oder Hauptkomponentenregression entsprechend verringert wird. Eine ähnliche Erklärung finden Sie auf dieser SAS-Dokumentationsseite in den Abschnitten "Reduzierte Rangregression" und …

1
Regression in der Einstellung : Wie wird die Regularisierungsmethode gewählt (Lasso, PLS, PCR, Ridge)?
Ich versuche herauszufinden , ob Ridge Regression , LASSO , Principal Component Regression (PCR) oder Partial Least Squares (PLS) in einer Situation mit einer großen Anzahl von Variablen / Merkmalen ( ) und einer geringeren Anzahl von Stichproben ( ), und mein Ziel ist die Vorhersage.pppn<pn<pn n , meistens ;p>10np>10np>10n …



1
Was ist der Unterschied zwischen „Ladungen“ und „Korrelationsladungen“ in PCA und PLS?
Bei der Hauptkomponentenanalyse (PCA) müssen häufig zwei Ladungen gegeneinander aufgetragen werden, um die Beziehungen zwischen den Variablen zu untersuchen. In dem dem PLS R-Paket beiliegenden Dokument zur Durchführung der Hauptkomponentenregression und der PLS-Regression gibt es ein anderes Diagramm, das als Korrelationsladungsdiagramm bezeichnet wird (siehe Abbildung 7 und Seite 15 im …


1
Warum erklären alle PLS-Komponenten zusammen nur einen Teil der Varianz der Originaldaten?
Ich habe einen Datensatz bestehend aus 10 Variablen. Ich habe partielle kleinste Quadrate (PLS) ausgeführt, um eine einzelne Antwortvariable anhand dieser 10 Variablen vorherzusagen, 10 PLS-Komponenten extrahiert und dann die Varianz jeder Komponente berechnet. Auf den Originaldaten habe ich die Summe der Varianzen aller Variablen genommen, die 702 ist. Dann …


3
Post-hoc-Test in einer 2x3-ANOVA mit gemischtem Design unter Verwendung von SPSS?
Ich habe zwei Gruppen von 10 Teilnehmern, die während eines Experiments dreimal bewertet wurden. Um die Unterschiede zwischen den Gruppen und zwischen den drei Bewertungen zu testen, führte ich eine 2 × 3-ANOVA mit gemischtem Design mit group(Kontrolle, experimentell), time(erste, zweite, drei) und group x time. Beides timeund groupErgebnis signifikant, …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

1
Probabilistische Modelle für partielle kleinste Quadrate, reduzierte Rangregression und kanonische Korrelationsanalyse?
Diese Frage ergibt sich aus der Diskussion nach einer vorherigen Frage: Welche Verbindung besteht zwischen partiellen kleinsten Quadraten, reduzierter Rangregression und Hauptkomponentenregression? Für die Hauptkomponentenanalyse ist ein häufig verwendetes Wahrscheinlichkeitsmodell wobei , \ mathbf {w} \ in S ^ {p-1} , \ lambda> 0 und \ boldsymbol \ epsilon \ …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.