PCA wählt Einflussdimensionen durch Eigenanalyse der N Datenpunkte selbst aus, während MDS Einflussdimensionen durch Eigenanalyse der Datenpunkte einer paarweisen Distanzmatrix auswählt . Dies hat zur Folge, dass die Abweichungen von der Gleichmäßigkeit in der Verteilung hervorgehoben werden. Betrachtet man die Distanzmatrix als analog zu einem Spannungstensor, so kann MDS als ein "kraftgerichteter" Layoutalgorithmus angesehen werden, dessen Ausführungskomplexität wobei . N2O (dNein)3 < a ≤ 4
Andererseits verwendet t-SNE eine Feldapproximation, um eine etwas andere Form des kraftgerichteten Layouts auszuführen, typischerweise über Barnes-Hut, was eine auf beruhende Komplexität auf reduziert , aber die Konvergenzeigenschaften sind für diese iterative stochastische Approximationsmethode weniger bekannt (nach meinem besten Wissen), und für die typischen beobachteten Laufzeiten im Allgemeinen länger als andere Dimensionsverringerungsmethoden. Die Ergebnisse sind oft visuell besser interpretierbar als naive Eigenanalysen und je nach Verteilung oft intuitiver als MDS-Ergebnisse, bei denen die globale Struktur tendenziell auf Kosten der von t-SNE beibehaltenen lokalen Struktur erhalten bleibt.O (dN2)O (dN⋅ log( N) )2 ≤ d≤ 4
MDS ist bereits eine Vereinfachung von Kernel-PCA und sollte mit alternativen Kerneln erweiterbar sein, während Kernel-t-SNE in Arbeiten von Gilbrecht, Hammer, Schulz, Mokbel, Lueks et al. Ich bin damit praktisch nicht vertraut, aber vielleicht kann es ein anderer Befragter sein.
Ich wähle zwischen MDS und t-SNE aufgrund der kontextbezogenen Ziele. Welche Struktur ich hervorheben möchte, welche Struktur die größere Aussagekraft hat, das ist der Algorithmus, den ich verwende. Dies kann als Fallstrick angesehen werden, da es sich um eine Form des Freiheitsgrades für Forscher handelt. Aber weise genutzte Freiheit ist keine so schlechte Sache.