Die Auswahl des LASSO- und des Vorwärts- / Rückwärtsmodells weist sowohl Stärken als auch Einschränkungen auf. Es kann keine weitreichende Empfehlung abgegeben werden. Die Simulation kann immer untersucht werden, um dies zu beheben.
Beides kann im Sinne der Dimensionalität verstanden werden: Bezogen auf die Anzahl der Modellparameter und die Anzahl der Beobachtungen. Wenn Sie Modelle mithilfe der Modellauswahl in Rückwärtsrichtung anpassen konnten, hatten Sie wahrscheinlich kein . In diesem Fall ist das "am besten passende" Modell dasjenige, das alle Parameter verwendet ... wenn es intern validiert wird! Dies ist einfach eine Frage der Überanpassung.n p ≫ npnp≫n
Die Überanpassung wird mithilfe der Split-Sample-Cross-Validation (CV) zur Modellbewertung behoben. Da Sie dies nicht beschrieben haben, gehe ich davon aus, dass Sie es nicht getan haben. Im Gegensatz zur schrittweisen Modellauswahl verwendet LASSO einen Optimierungsparameter, um die Anzahl der Parameter im Modell zu bestrafen. Sie können den Optimierungsparameter korrigieren oder einen komplizierten iterativen Prozess verwenden, um diesen Wert auszuwählen. Standardmäßig erledigt LASSO Letzteres. Dies erfolgt mit CV, um die MSE der Vorhersage zu minimieren. Mir ist keine Implementierung einer schrittweisen Modellauswahl bekannt, die derart ausgefeilte Techniken verwendet, selbst der BIC als Kriterium würde unter einer internen Validierungsverzerrung leiden. Meiner Meinung nach bietet dies LASSO automatisch eine Hebelwirkung bei der schrittweisen Modellauswahl "out-of-the-box".
Schließlich kann die schrittweise Modellauswahl unterschiedliche Kriterien zum Einschließen / Ausschließen verschiedener Regressoren haben. Wenn Sie die p-Werte für den Wald-Test der spezifischen Modellparameter oder das resultierende Modell R ^ 2 verwenden, werden Sie vor allem aufgrund der internen Validierungsverzerrung nicht gut abschneiden (könnte wiederum mit CV behoben werden). Ich finde es überraschend, dass solche Modelle immer noch so implementiert werden. AIC oder BIC sind viel bessere Kriterien für die Modellauswahl.
Bei jeder Methode gibt es eine Reihe von Problemen. Die Probleme der schrittweisen Modellauswahl sind viel besser verstanden und weitaus schlimmer als die von LASSO. Das Hauptproblem, das ich bei Ihrer Frage sehe, besteht darin, dass Sie Tools zur Funktionsauswahl verwenden, um die Vorhersage zu bewerten . Sie sind unterschiedliche Aufgaben. LASSO eignet sich besser für die Auswahl von Funktionen oder spärlichen Modellen. Die Ridge-Regression kann eine bessere Vorhersage liefern, da alle Variablen verwendet werden.
Die große Stärke von LASSO besteht darin, dass es Modelle schätzen kann, in denen , wie dies bei einer schrittweisen Regression vorwärts (aber nicht rückwärts) der Fall sein kann. In beiden Fällen können diese Modelle nur dann für die Vorhersage wirksam sein, wenn es eine Handvoll sehr leistungsfähiger Prädiktoren gibt. Wenn ein Ergebnis von vielen schwachen Prädiktoren besser vorhergesagt wird, wird die Ridge-Regression oder das Absacken / Boosten sowohl die schrittweise Vorwärtsregression als auch LASSO bei weitem übertreffen . LASSO ist viel schneller als die schrittweise Vorwärtsregression.p≫n
Es gibt offensichtlich eine große Überschneidung zwischen Merkmalsauswahl und Vorhersage, aber ich erzähle Ihnen nie, wie gut ein Schraubenschlüssel als Hammer dient. Im Allgemeinen würde ich für die Vorhersage mit einer geringen Anzahl von Modellkoeffizienten und LASSO der schrittweisen Modellauswahl vorziehen.p≫n