Ich habe eine Frage zum Erfordernis, Merkmalsauswahlmethoden (Wichtigkeitswert für zufällige Gesamtstrukturen oder Auswahlmethoden für univariate Merkmale usw.) zu verwenden, bevor ein statistischer Lernalgorithmus ausgeführt wird.
Wir wissen, dass wir Regularisierungsstrafen für die Gewichtsvektoren einführen können, um eine Überanpassung zu vermeiden.
Wenn ich also eine lineare Regression durchführen möchte, könnte ich die Parameter L2 oder L1 oder sogar Elastic Net Regularization einführen. Um spärliche Lösungen zu erhalten, hilft die L1-Strafe bei der Featureauswahl.
Muss die Featureauswahl dann noch durchgeführt werden, bevor die L1-Regularisierung und die Regression ausgeführt werden, z. B. Lasso ?. Technisch gesehen hilft mir Lasso dabei, die Features um den L1-Nachteil zu reduzieren. Warum wird dann die Feature-Auswahl benötigt, bevor der Algo ausgeführt wird?
Ich habe einen Forschungsartikel gelesen, in dem es heißt, dass Anova und dann SVM eine bessere Leistung bringen als SVM allein. Die Frage ist nun: SVM führt inhärent eine Regularisierung unter Verwendung der L2-Norm durch. Um den Spielraum zu maximieren, wird die Gewichtsvektornorm minimiert. Es führt also eine Regularisierung in seiner objektiven Funktion durch. Dann sollten sich technisch gesehen Algorithmen wie SVM nicht um Merkmalsauswahlmethoden kümmern. Der Bericht besagt jedoch weiterhin, dass die Auswahl von univariaten Features vor der Verwendung von normalem SVM leistungsstärker ist.
Jemand mit Gedanken?