Was sind die Anwendungen oder Vorteile der Dimensionsreduktion Regression (DRR) oder beaufsichtigten Dimensionsreduktion (SDR) Techniken gegenüber herkömmlichen Regressionstechniken (ohne Dimensionsreduktion)? Diese Klasse von Techniken findet eine niedrigdimensionale Darstellung des Merkmalssatzes für das Regressionsproblem. Beispiele für solche Techniken umfassen in Scheiben geschnittene inverse Regression, Haupt-Hessische Richtungen, Geschnittene durchschnittliche Varianzschätzung, Kernel-Schnitt-Inverse-Regression, Hauptkomponenten-Regression usw.
Wenn in Bezug auf die kreuzvalidierte RMSE ein Algorithmus bei einer Regressionsaufgabe ohne Dimensionsreduktion eine bessere Leistung erbringt, was ist dann die tatsächliche Verwendung der Dimensionsreduktion für die Regression? Ich verstehe den Sinn dieser Techniken nicht.
Werden diese Techniken zufällig verwendet, um die räumliche und zeitliche Komplexität für die Regression zu verringern? Wenn dies der Hauptvorteil ist, wären einige Ressourcen zur Reduzierung der Komplexität für hochdimensionale Datensätze hilfreich, wenn diese Techniken verwendet werden. Ich diskutiere dies mit der Tatsache, dass das Ausführen einer DRR- oder SDR-Technik selbst einige Zeit und Raum erfordert. Ist diese SDR / DRR + -Regression bei einem Low-Dim-Datensatz schneller als nur die Regression bei einem High-Dim-Datensatz?
Wurde diese Einstellung nur aus abstraktem Interesse untersucht und hat sie keine gute praktische Anwendung?
Als Nebengedanke: Manchmal gibt es Annahmen, dass die gemeinsame Verteilung der Merkmale und der Antwort Y auf einer Mannigfaltigkeit liegt. In diesem Zusammenhang ist es sinnvoll, aus der beobachteten Stichprobe die Mannigfaltigkeit zu lernen, um ein Regressionsproblem zu lösen.